Psicología


Psicología del Aprendizaje


PSICOLOGÍA DEL APRENDIZAJE HUMANO Y MEMORIA

Tema 1: Introducción

Tema 2: Antecedentes históricos a los conceptos de aprendizaje y memoria

Tema 3: El enfoque cognitivo

Tema 4: El procesamiento de la información

Tema 5: Aspectos metodológicos en la investigación sobre aprendizaje y memoria

TEMA 1: INTRODUCCIÓN

Bibliografía:

- Sebastián, M.V. (1983) Lecturas de psicología de la memoria. Alianza Universidad Textos, 1991. Introducción.

  • Sebastián, M.V. (1992). La memoria ¿si o no?. Alambra. Longman, Introducción.

  • Aprendizaje y memoria a lo largo de la historia. Madrid. Visor.

  • Baddeley, A.D. (1976) La psicología de la memoria. Madrid: Debate 1983

  • Su memoria: una guía para el usuario Madrid: Debate 1984

Proceso de adquisición del conocimiento:

El aprendizaje y la memoria sería un proceso de adquisición del conocimiento, es imposible que se den por separado, (son inseparables): no se podría aplicar de aprendizaje sin implicar que hay una conservación de lo aprendido; tampoco se puede hablar de la memoria sin antes haber adquirido la información. Es imposible hablar de un proceso sin tener en cuenta el otro.

La diferencia entre los investigadores está en el método.

Aprendizaje: aquello que acontece mientras está presente la información, ante el organismo (persona o animal)

Memoria: El rendimiento que tiene dicho organismo en una fase posterior. Es consecuencia de lo aprendido anteriormente (presentación previa)

Razones de cambio en la concepción:

En filosofía se usaban procedimientos para evaluar la memoria, sin tener en cuenta al propio sujeto (la concepción teórica del sujeto pasivo).

Cambio:

Piaget: enfoque cognitivo (sujeto activo). El conocimiento previo ayuda a recordar con mayor facilidad. Hay un cambio cualitativo, la información debe ser relevante para el sujeto.

Cambio:

El enfoque de procesamiento de la información: implica que la información fluye a través de los organismos por el canal de información implicando a su vez los sistemas de memoria. Lo importante son los procesos y no la estructura.

Cambio:

La neurociencia concebida como técnica y no como un fin (no explicándose a nivel psicológico = error)

Un error fue el generalizar los resultados de la psicología animal a la psicología humana. Ambos no son equivalentes, porque el conocimientos previo es demostrable en relevancia sobre humanos y no sobre animales.

Las instrucciones pueden guiar a que el sujeto tenga un buen rendimiento. En la memoria hay un proceso voluntario y consciente para buscar la información apropiada.

El aprendizaje no es un proceso único y hay varios tipos de aprendizaje.

Proceso de memoria:

Independientemente de la concepción, en el proceso de memoria hay una serie de procesos implícitos:

  • Adquirir

  • Almacenar

  • Recuperar

La información que el sujeto recibe del medio, es mayor que la que puede procesar (limitación humana). La información que se encuentra en el medio a veces es ambigua (puede codificarse de distintas formas), pero esa codificación es fundamental para almacenar esa información en el sistema de memoria.

Codificación implica transformar la información del medio de tal forma que el sistema de memoria pueda entenderla, convirtiéndolo en un código de memoria. Pero al ser ambigua, puede llevarse a cabo de varias maneras, realizándose en función del conocimiento previo que el sujeto tenga. Es una representación de esa información y se supone que esa representación puede ser manipulada y comprendida por el sistema de memoria, pudiéndola almacenar.

Hay situaciones en las que el sujeto tiene dificultades en acceder a la información almacenada en el sistema de memoria.

TEMA 2: ANTECEDENTES HISTÓRICOS A LOS CONCEPTOS DE APRENDIZAJE Y MEMORIA

2.1. Perspectivas históricas del concepto de memoria

2.2. La constitución de la psicología de la memoria como disciplina científica: Ebbinghaus.

2.3. Las aportaciones del funcionalismo americano: W. James

2.4. La concepción freudiana

2.5. Las aportaciones teóricas y metodológicas del conductismo

2.6. Estímulos frente a estructuras globales: la alternativa de la teoría de la Gestalt.

Bibliografía:

  • Sebastián, M.V. (1994) Aprendizaje y memoria a lo largo de la historia. Madrid: Visor. Capítulos 1 - 11

2.1. PERSPECTIVAS HISTÓRICAS:

Se puede hablar de tres contextos en los que se ha estudiado la memoria:

  • Filósofos

  • Educadores

  • Clínica

El primer contexto se refiere a reflexiones hechas por filósofos sobre la memoria en el sujeto humano adulto. Se preocupaban por las informaciones que el sujeto puede retener, así como las modificaciones que puede ejercer el sujeto a lo largo del tiempo, y como el sujeto tiene dificultades en acceder a cierta información en un momento determinado.

Los filósofos especulaban sobre estas situaciones y ellos mismos eran los sujetos experimentales. Ellos mismos se observaban a sí mismos para responder a estas preguntas.

Se preocupaban de especular cómo podía funcionar el aprendizaje y la memoria, analizaban la experiencia de ese aprendizaje, no realizaban experimentos. Usan el método introspeccionista, se observan a sí mismos cómo aprendían o recordaban una información determinada. Su preocupación se centraba en los sujetos adultos. Se preguntaban: ¿por qué puedo recordar unas cosas y no otras? ¿cuándo se produce el olvido y por qué? ¿mantengo siempre esa misma información o según va pasando el tiempo esa información va cambiando? ¿por qué a veces no me acuerdo de algo y esa información reaparece en un momento determinado?. Esas preocupaciones son las que tenemos ahora mismo los psicólogos (paralelismo)

El segundo contexto es más pragmático y menos especulativos (romanos). Se preocuparon por el qué hay que hacer para que los niños aprendan con mayor facilidad, inventándose incluso reglas mnemotécnicas. Es el contexto de los educadores (en la modernidad relacionado con la psicología evolutiva aplicada). No especulaban tanto, era más pragmático. Trataban de responder a ¿cómo se podía mejorar que los niños tuvieran mayor facilidad en aprender una información?. Podemos apreciar que cambia el sujeto, se centran en los jóvenes. Van a lo práctico. Los romanos también se preocupaban enormemente por la educación. En relación a los adultos inventaron reglas mnemotécnicas para que puedas recuperar mejor un material.

El tercer contexto, trataría de las reflexiones y observaciones que hacían los autores sobre sujetos “especiales” o clínicos, tanto los que poseían mucha memoria como los que tenían dificultades de memoria y/o amnesia. En la actualidad sería el concepto clínico, sirviendo para refutar modelos y aceptarlos. Es el contexto de la clínica (en la modernidad neuropsicología cognitiva). Recogían datos de esos “sujetos especiales” sin tratar de explicar por qué era así.

Aristóteles: "De memoria et reminiscencia”: uno de los primeros autores que publica una obra sobre memoria. La memoria y todo el pensamiento humano está basado en la experiencia: empirista. Propone en su obra que el proceso en términos modernos que subyace a nuestros recuerdos va a ser un proceso de asociación pero empíricamente no lo demuestra.

1500-1700: La Revolución científica: Galileo, Descartes, Newton. Este periodo es fundamental dado que en él se llevan a cabo unos descubrimientos fundamentales.

1700-1800: Asociacionismo británico: Locke, Berkeley, Hume. Gran influencia en la concepción del aprendizaje y la memoria. Supremacía de la experiencia (antecedentes en Aristóteles). “Todo se aprende y no hay nada innato”.

1800-1900: Se constituye la psicología experimental. En Alemania. Dos ciudades donde va a influir a nivel mundial en toda la psicología: Leipzig (Fechner y Wundt) y Berlín (Helmholtz y Ebbinghaus). El dominio de la psicología en este periodo estaba en Alemania.

2.2.LA CONSTITUCIÓN DE LA PSICOLOGÍA DE LA MEMORIA COMO DISCIPLINA CIENTÍFICA: EBBINGHAUS.

Ebbinghaus: primer psicólogo que estudia de forma experimental el aprendizaje y la memoria. Estudia en Berlín. Se le conoce como el creador del aprendizaje de sílabas sin sentido pero también le interesa cómo los sujetos aprenden y recuerdan un material significativo como pueden ser poesías; quiere contraponer ambos materiales. Realiza experimentos entre 1879 y 1884.

En 1885 publica “ Sobre la memoria”, su primer libro sobre memoria en el que aparece la metodología usada y sus resultados experimentales.

Desde el punto de vista teórico se apoya en los empiristas ingleses y va a concebir la memoria como el resultado de un proceso de asociación por contigüidad.

Diseña 2300 sílabas sin sentido, sin significado en alemán pero sí en otros idiomas (Francés, Inglés...). Diseñaba distintas listas y las leía en voz alta (experimentaba con él mismo), él mismo aprendía estas listas de sílabas, se presentaba unas 150 sílabas sin sentido por minuto, se hacía pruebas para ver si podía reproducir esas listas correctamente. Su idea era la siguiente: si Fechner había estudiado de forma experimental la sensación y la percepción, por qué no el aprendizaje y la memoria.

Le preocupaba si el grado de aprendizaje iba a depender del número de repeticiones que tenía que hacer de esa lista y de ahí sacó su primera pregunta ¿Cuánto mayor sea el número de repeticiones de una lista implica que lo he aprendido mejor?. La segunda pregunta que quería examinar era: ¿cuánto tiempo tarda en perderse esa lista, cuándo olvido esa lista?.

Datos experimentales que encontró Ebbinghaus:

  • Demuestra lo bueno que es el METODO DE AHORRO: partía del hecho de que cuando se hacía la prueba de memoria si una información la había aprendido bien, si implicaba muchas repeticiones, cuando se hiciera la prueba de memoria tendría que repetirla menos veces, ahorraría repeticiones la segunda vez en la prueba: el aprendizaje, su grado ahorra repeticiones, quiso medir con esto la tasa de aprendizaje. La cantidad de aprendizaje sería la diferencia entre el número de repeticiones de la primera vez y de la segunda.

  • Los efectos que pueden tener el cansancio y la hora del día en que se aprende el material. Encontró que le resultaba más fácil aprender una lista por la mañana que por la tarde (colegios: asignaturas más fuertes por las mañanas). Toda la psicología aplicada ha encontrado igual este dato. Si estás cansado aprendes peor.

  • En función de lo larga que sea la lista va a afectar al aprendizaje y el recuerdo de esa lista. Si era muy larga tenía que realizar un mayor número de repeticiones que si era corta. Relación directa entre longitud de la lista y grado de aprendizaje.

  • Efectos que pueden tener lo que hoy se llama práctica distribuida y práctica masiva. Es mucho más eficaz para el aprendizaje repetir la lista en días sucesivos que estar un mismo día repitiendo esa lista.

  • Tasa de olvido. Encuentra que el recuerdo se desvanece en función del intervalo de retención (es el intervalo de tiempo entre el final del aprendizaje hasta que empieza la prueba de memoria).

  • Porcentaje

    De

    Recuerdo

    • 1 año

    Intervalo de recuerdo

  • Encontró la siguiente curva:

  • Porcentaje

    De

    Recuerdo

    Correcto

    Orden de presentación de los elementos

    Esa sería la llamada CURVA DE POSICIÓN SERIAL, aunque él no la llamaba así. Las primeras sílabas sin sentido se recordaban mejor que las de en medio, y las últimas también mejor que las de en medio. A lo primero se le llama efecto de primicia (no primacía), y a lo segundo efecto de ultimidad (no recencia). Este dato en los 60 va a ser clave para la separación de los almacenes a corto y largo plazo. Efecto de primicia: almacén a largo plazo. Efecto de ultimidad: Almacén a corto plazo. El sujeto olvida los de en medio porque ni ha podido transmitirlos a largo plazo ni los tiene frescos a corto plazo. Lo explica en función de la atención, el efecto de ultimidad al estar a corto plazo el sujeto está atendiendo a ellos, los de en medio no atiende a ellos porque tiene una capacidad limitada.

  • Mide la amplitud de memoria a corto plazo y encuentra que oscila en 7sílabas sin sentido o elementos, sería precursor a lo que encuentra Miller en su número mágico 7 +-2.

  • Demuestra empíricamente el efecto que tiene un material con significado frente a uno que no lo tiene, usando el método de ahorro encuentra que estudiar o aprender poesías suponía en una prueba de memoria posterior un menor número de repeticiones que las sílabas sin sentido.

  • La influencia de Ebbinghaus ha sido sobre todo en Alemania y Francia.

    Binet: En él influye Ebbinghaus porque pensaba que si Ebbinghaus lo había estudiado en él mismo siendo adulto también lo podría estudiar de forma experimental en niños.

    Inicia experimentos con Henry: inventan el procedimiento experimental de recuerdo libre (les presentaban series de dígitos pero no les pedía que les recordaran en el mismo orden que lo habían aprendido). También usaban otro tipo de material como por ejemplo palabras, frases, etc. y encontraron que el recuerdo de frases era mejor que el recuerdo de palabras y que el de dígitos y el rendimiento de los sujetos estaba en función de la edad, cuanto mayores eran mejor recordaban esas frases.

    Cuando se les presentaban fragmentos de prosa no recordaban palabras literales sino ideas. Los niños interpretaban las frases en función de su propio conocimiento, trataban de sacar las ideas principales de ese texto, no sólo es importante la información que viene en ese texto sino que también el conocimiento previo del sujeto ayuda a comprender y recordar ese texto.

    También estos autores diseñan otro procedimiento distinto al recuerdo como es el reconocimiento, en este caso en vez de pedir que lo evocaran pedían que identificaran el material aprendido anteriormente y comparaban el rendimiento; encontraron que los sujetos tenían un rendimiento mejor con una prueba de reconocimiento que con una de recuerdo.

    La influencia de Ebbinghaus no sólo va a ser en Alemania sino también en otros países como Francia.

    También tuvo mucha influencia en Alemania. La tercera universidad (Berlín, Leipzig) será Gotinga, aunque no se conoce tanto como la anterior.

    Se destacan aquí los trabajos de Müller. Fundará un laboratorio de psicología experimental siguiendo a Ebbinghaus. Él modificará:

    1.- los sujetos no sabían a priori el objetivo del experimento ni los resultados de los experimentos que iban realizando. En los de Ebbinghaus al ser él el sujeto experimental sabía todo. En los métodos hay muchas diferencias. En los 60-70: “conocer el resultado y de qué va el experimento puede influir en resultados posteriores”.

    2.- inventa “el tambor de memoria”: cilindro en que pones un papel con listas de palabras y puedes programar a qué velocidad se puede presentar. Por una ventana lo ve de uno en uno.

    3.- diseña por primera vez el método de aprendizaje de pares asociados. También será utilizado por Calkins en Estados Unidos. Consisten en: presentar en la fase de aprendizaje un par (palabras, o palabras - dígitos o sílabas sin sentido o sílabas sin sentido - dígitos), serie de pares y el sujeto tiene que aprenderlos. En la parte de memoria, sólo presentas una parte del par y tendrá que decir su compañero (por escrito o hablado). Esto sería utilizado por conductismo y neoconductismo.

    También se interesará por los procesos de agrupamiento. Se presenta una lista de palabras y se trata de ver si el sujeto las agrupa en función de una categoría, sería difícil hacerlo presentando sílabas sin sentido. Con el método de pares asociados, la explicación teórica que da será en términos de inhibición preactiva y retroactiva.

    Si aprendo un material (A-B) y luego(A-C) (la prueba de memoria es en A-C). Si la prueba de aprendizaje interfiere en la de memoria: preactivo. Si es al contrario: retroactivo,(si lo nuevo interfiere en lo activo). Si se produce una interferencia de mal rendimiento en A-B retroactiva, sino preactivo.

    Lo que Müller propone frente a Ebbinghaus es la interferencia.

    Basándose en la Interferencia Retroactiva propone la teoría de la Perseveración de la huella de memoria: cuando los humanos aprendemos algo se supone que se provocará una actividad nerviosa en ese sujeto, y que esa actividad tendrá la función de consolidar lo que se ha aprendido (las asociaciones que el sujeto hace del material que tiene que aprender) y se supone que esa consolidación perdurará durante un periodo de tiempo.

    Si durante el periodo de consolidación lleva a cabo periodos que supongan ese esfuerzo mental, se interrumpirá esa asociación. Müller muere en 1934 y tras esto la era de psicólogos alemanes termina y se traslada a Estados Unidos.

    2.3.APORTACIONES DEL FUNCIONALISMO AMERICANO: W. JAMES.

    En Estados Unidos van a concluir dos tradiciones europeas: inglesa y alemana.

    El objetivo de la enseñanza en Inglaterra y Alemania era distinto. En Inglaterra (dos universidades. Cambridge y Oxford) la función era formar a la iglesia (clérigo) y a las clases predominantes. Estaban influidos por la teoría de la evolución de Darwin. Desde el punto de vista filosófico por los empiristas.

    En Alemania la función de la universidad era diferente porque querían dar una educación general, amplia, flexible y desde el punto de vista socioeconómico no estaba restringida. Había libertad de cátedra y los estudiantes podían elegir materias de otras especialidades.

    Concluyen en Estados Unidos porque era un país nuevo, se preocupaba porque los estudiantes estuvieran formados. Mandaban gente a Europa o traían a europeos para dar clases, doctorados, etc.

    Había dos ciclos (también en Inglaterra). El superior era muy parecido a lo que se hacía en Alemania, con ese intercambio lo que se hacía en Europa en aprendizaje verbal o memoria se conocía mucho en Estados Unidos. W. James tendrá mucha influencia.

    W. James: realiza viajes a Europa y aunque no hace trabajo experimental era muy intuitivo, ideas de su libro Principios de Psicología se retoman en los 60 y 70.

    Está interesado en procesos cognitivos (conciencia, atención, memoria ....etc.).

    CARACTERÍSTICAS:

    Conciencia: Rechaza el enfoque de Wundt (la experiencia consciente queda reducida a sensaciones y sentimientos). Para James será una corriente de pensamiento con características:

  • El pensamiento es personal. Esto implica que habrá diferencias individuales entre los sujetos.

  • El pensamiento está siempre cambiando: dos estados de la conciencia nunca van a ser iguales.

  • El pensamiento es continuo, no se puede dividir en trozos o partes.

  • El pensamiento tiene la función fundamental de conocer.

  • La conciencia es selectiva. Se va a interesar por unas cosas y desechará otras. La Atención.

  • Atención: Podremos atender a las cosas que van a tener una relevancia para nosotros y también, en función de la persona, atenderá a una información que le es relevante y que desechará otras informaciones.

    Memoria: Distinción entre memoria primaria y secundaria. Primaria equivalente a ACP: contenidos de la conciencia, también estará en función de la atención secundaria ( ALP). Se refiere al recuerdo de la información que no está en la conciencia. A veces este recuerdo puede estar distorsionado, no muy preciso. Pone gran énfasis en la importancia que pueden tener las claves para recordar un material.

    Hábitos: Para él son fundamentales en la conducta del sujeto y señala que implicarían un procesamiento automático (una vez que se han establecido el sujeto no necesita conciencia ni atención para llevar a cabo esas actividades). Estos hábitos son necesarios porque sino la vida cotidiana del sujeto sería muy aburrida. Es necesario que existan para que el sujeto pueda centrar su atención en otras cosas. Está anticipando las actividades automáticas del sujeto.

    INFLUENCIA DE EBBINGHAUS EN W. JAMES EN ESTADOS UNIDOS:

    Aunque James es director del departamento de Harvard cuando se retira llama a Münsterberg para que se haga cargo de su laboratorio de psicología en Harvard, diseña un método nuevo al que denomina el Método de Reconstrucción: el sujeto aprende una serie de elementos (dígitos, colores, formas, etc.), en un orden determinado, en la prueba de memoria se le presentan los mismos elementos pero NO en orden y el sujeto tiene que recordar el orden en que se le han presentado esos elementos. Este método sería nuevo.

    Otros autores por ejemplo Jacobs estudia o diseña el método que denomina Amplitud de Prensión (= memoria): cuántos elementos correctamente en el mismo orden recuerda un sujeto bien sea dígitos, etc. y ratifica lo que había encontrado Ebbinghaus: la amplitud de memoria del sujeto oscila entre 5 y 9 elementos y por tanto estaría en la misma línea de Miller de 7 más menos 2.

    Otro método: Tareas de Reconocimiento SI o NO (lo que hoy se llama de verdadero y falso): se presentan a los sujetos elementos viejos (que se han aprendido anteriormente) junto con elementos nuevos y el sujeto tiene que identificar con sí o no si los ha visto anteriormente. Problema: el sujeto tiene el 50% de probabilidad de acertar.

    Gran batalla teórica entre el estructuralismo (Wundt: su discípulo Titchener lo emigra a los Estados Unidos) y el funcionalismo. Crítica de James a los estructuralistas: que la psicología no sólo debe estudiar las estructuras sino también las funciones. Esa lucha sigue hasta que llega el conductismo y contra él lucha también el funcionalismo.

    2.4. LA TEORÍA FREUDIANA:

    Qué aporta la teoría freudiana a la psicología: En la concepción freudiana está implícita la memoria porque le pide a los sujetos que traten de recordar su pasado, esa reconstrucción de su vida es memoria y todos sus estudios se basan en ese método.. Demuestra que esa reconstrucción no es siempre la misma, sino que va cambiando, distorsionando lo que va recordando y ese aspecto es importante.

    Qué aporta a los estudios de memoria: Hasta el momento se había hablado de mecanismos del olvido y el plantea uno totalmente distinto a los anteriores (Ebbinghaus. Olvido se produce por el mero paso del tiempo: desvanecimiento: mecanismo pasivo) (seguidores de Ebbinghaus: interferencia).

    Freud: el sujeto olvida porque reprime esa información: ya no es un mecanismo pasivo sino totalmente activo. Reprimimos esa información porque le provoca al sujeto ansiedad y tendrá traumatismos sexuales y por eso reprime esa información, cuando a través de técnicas psicoanalíticas ha resuelto esos traumas el sujeto los recuerda. Esto implica que la memoria tiene un carácter permanente. Lo que se produce es un problema de acceso a esa información, porque el sujeto no quiere acceder a esa información. Plantea un mecanismo distinto a lo anterior.

    También plantea con esa reconstrucción la importancia que tiene en el sujeto la memoria autobiográfica (memoria personal del propio sujeto).

    Lapsus freudianos: por qué el sujeto en actividades que tiene totalmente automatizadas comete errores, lapsus: Freud le daba una explicación totalmente sexual (hoy se piensa que es porque falla el procesamiento automático). Teoría freudiana: toda explicación tiene que tener un origen sexual.

    Otra aportación: La amnesia histérica: Freud encontró casos de estos que consisten en que el sujeto es incapaz de recordar un suceso o incluso quién es él: se provoca por una histeria y generalmente puede ser temporal(unos meses).

    Es una amnesia totalmente distinta a lo que hoy se llama síndrome de Korsakoff (amnesia provocada por el alcohol y por una dieta terriblemente pobre) son sujetos que tienen amnesia, tienen problemas en su memoria a largo plazo pero no en su memoria a corto plazo (dependiendo de los casos puede ser así o al contrario).

    En algunos aspectos se le considera un antecedente al enfoque cognitivo.

    2.5. ENFOQUE CONDUCTISTA:

    Con este enfoque se produce un cambio de paradigma porque se cambia el objeto de estudio y el medio. El objeto de la psicología ya no sería la mente sino que sería el estudio de la conducta y el método en vez de ser introspeccionista va a ser experimental.

    En sus inicios era terriblemente progresista: se utiliza la psicología con fines prácticos: se empiezan a diseñar los test de inteligencia: van a servir ara parar la inmigración y calificar a minorías diciendo que tienen un CI mucho más bajo y no pueden ocupar ciertos puestos de trabajo.

    Watson: 1913: Manifiesto Conductista: la noción de herencia que defendían las clases dominantes frente a que todo se adquiere a través del aprendizaje, él defiende la segunda posición. Defiende que todo se basa en e aprendizaje.

    Se produce un retroceso: ya no se habla de memoria, autores como Ebbinghaus sí hablaban de memoria (antecedente del conductismo).

    Conductismo: tacha la memoria porque piensa que es mentalista, el interés lo basa en el aprendizaje verbal y sobre todo en el olvido. Establece la interferencia como mecanismo del olvido por excelencia (enfrentamiento con la teoría psicoanalítica y Ebbinghaus).

    Se van a acumular datos para ver cómo se manifiesta esta interferencia (a través de la inhibición proactiva y retroactiva).

    Método: aprendizaje de pares asociados. Sujetos experimentales: en general usa sujetos terriblemente simples (en aprendizaje animal palomas y ratas).

    Para que en un sujeto se pueda producir interferencia tienen que evaluar su recuerdo. Aunque decía que la memoria no se podía estudiar, están estudiando memoria porque lo que evalúan es el recuerdo del sujeto.

    Qué lega a los estudios de aprendizaje verbal: La metodología experimental, y la polémica teórica de si el mecanismo del olvido el único es la interferencia: llega hasta nuestros días. A lo mejor no hay un único mecanismo de olvido.

    Punto de vista teórico: concepción implícita sobre la memoria que tenían: concebían la memoria como un sistema unitario porque si fuera múltiple debería haber varios mecanismos de olvido.

    Aprendizaje: también un sistema único. Extrapolan los datos de animales al sujeto humano: se basaban en las leyes de asociación (EE-RR o EE-EE). De los ingleses.

    2.6. TEORÍA DE LA GESTALT:

    Se fragua en Frankfurt , establecen un instituto de psicología y con la llegada del nazismo emigran a Estados Unidos donde aparecen distintas escuelas:

    • El estructuralismo (Titchener)

    • La teoría de la Gestalt

    • Funcionalismo (W. James)

    • Conductismo (critica a la teoría de la Gestalt).

    Estas cuatro teorías van a estar peleadas porque sus intereses, objeto de estudio y método no van a ser iguales.

    Diferencias con el conductismo: La Gestalt surge y se aplica a los estudios de percepción. Gestalt: se basa en la organización: percibimos objetos de forma coherente porque formamos “todos”. Principio básico: Principio de organización.

    Trasladan ese mismo principio a la memoria: (ya no hablan de olvido sino de memoria: cambio importante) suponen que para que un sujeto pueda recordar esa información es fundamental que lo que aprendan lo aprendan de forma organizada. La organización es importante en la fase de aprendizaje y en la de recuperación: implica que el que organiza la información es el propio sujeto. Concepción totalmente activa por parte del sujeto. Para que uno pueda tener acceso a una información es necesario que esté bien organizada para no perder tiempo ni esfuerzo y asegurarse de que lo recuerda.

    Este aspecto va a ser olvidado porque sonaba ambientalista y se va a empezar a estudiar en los años ´60.

    Gestalt: Frankfurt:

    • Köhler

    • Koffka

    • Wertheimer

    TEMA 3: EL ENFOQUE COGNITIVO

    3.1. La memoria como proceso reconstructivo : Bartlett (12.4)*

    3.2. La construcción de estructuras intelectuales: Piaget.

    3.3. Los estudios sobre categorización del mundo: Rosch (12.1)*

    BIBLIOGRAFÍA:

    Bartelett, F.C. (1932). Recordar. Alianza psicología. Minor, 1995.

    Piaget, J. (1970). La teoría de Piaget en J. Delval (ed) (1978). Lecturas de psicología del niño. Volumen 1. Madrid: Alianza.

    Sebastián (1994) Aprendizaje y memoria a lo largo de la historia. Madrid: Visor. Cap. 12

    Soto, P.; Sebastián, M.V.; García Bajos, E. Y Del Amo (1994). Las categorías y sus normas en castellano. Madrid: Visor.

    En las dos primera décadas de este siglo se produce un cambio en el paradigma, en el objeto de estudio.

    La psicología debe estudiar los procesos mentales, y el método es experimental e hipotético deductivo.

    Los procesos son desde la percepción, atención, aprendizaje y memoria.

    Dos ejemplos claros de la brecha abierta por el conductismo son Hull y Tolman (tachados de mentalistas)

    Se descubrieron en otras ciencias cosas que influyeron en la psicología: por ejemplo los ordenadores (Simon: analogía mente humana y ordenadores), centrales telefónicas (Hebb: perspectiva molecular del sistema nervioso), la propia teoría psicoanalítica (Anfreud y Chomsky)

    3.1. BARTLETT: (1886-1969)

    Bartlett rompe con las tradiciones conductista y gestaltista, porque el sujeto no se dedica a repetir dígitos y palabras sin sentido, sino que está inmerso en un mundo de información, presentada de diversas formas.

    Hay que utilizar información con significado, y hay que examinar, cómo el recuerdo de esa información va cambiando y cómo el funcionamiento de la memoria interviene para que el sujeto se adapte al medio.

    En el año 1932 publica Recordar , en el que realizó experimentos con dos métodos:

    1.- Reproducción repetida: se presenta al sujeto un material con significado, y al cabo de 15´ se le pide que reproduzca ese material. Manipulando el intervalo de retención (minutos, horas, días, años) se le pide que lo reproduzca en distintos intervalos. Pretendía observar si el recuerdo se mantenía o era cambiante en función del intervalo.

    2.- Reproducción serial: se presenta al sujeto un material significativo (cuentos, prosa o dibujos) y se le pide que aprenda el material y que lo reproduzca enfrente de otro sujeto que debe retenerlo para reproducirlo en frente de otro sujeto, etc. (“rumor”). Sujeto: A-B-C-D-... Pretendía ver si factores socioculturales influían en el recuerdo del material.

    El material empleado por Bartlett fueron cuentos, fragmentos de prosa y dibujos. Entre los cuentos empleó La guerra de los fantasmas , que trata de cosas sobrenaturales;, y los sujetos eran ciudadanos ingleses; lo que pretendía era ver si se producía un choque sociocultural.

    La hipótesis de Bartlett fue que el sujeto iba a distorsionar el material. Con el método de reproducción repetida, los sujetos cambiaban y transformaban los elementos en detalles que les eran mas familiares y en función de los intereses de los sujetos y de sus expectativas. Con el método de reproducción serial, las transformaciones hechas por los sujetos eran tan grandes, que lo recordado por el sujeto D no tenía nada que ver con lo recordado por el sujeto A y menos aún con el formato original.

    Los resultados que encuentra Bartlett se resumen:

  • El material que tenían que aprender, los sujetos lo recordaban en una forma mucho más concreta de lo que era el cuento.

  • Los sujetos tendían a resumir muchísimo el cuento.

  • Los sujetos tendían a convertir detalles en ideas centrales, curiosamente esta conversión hacía que se convirtiera en el marco de referencia del cuento.

  • Los sujetos introducían información propia, de su propia cosecha y les servía para dar coherencia a ese cuento; con esta añadidura daban forma. Llamando Bartlett proceso de racionalización.

  • Los sujetos tendían a cambiar el orden de los acontecimientos.

  • La interpretación que hace Bartlett es que las personas cambian el cuento, porque el original no es relevante para su propia cultura. El sujeto almacena lo que le es relevante.

    La memoria no sólo estaría basada en la información original, sino que también lo está con la cultura de la que procede el sujeto que almacena. Influye al conocimiento que tiene el sujeto del mundo en el que vive.

    Bartlett plantea que los sujetos accedemos a esquemas (conocimientos abstractos) almacenados en nuestro sistema de memoria; al enfrentarnos con un material se activan los esquemas que ayudan al sujeto a organizar la información para su memorización. Esquemas: estructuras de conocimiento abstractas, formadas por la combinación del conocimiento que tiene el sujeto del mundo con el que se siga aprendiendo (se va transformando).

    Los trabajos de Bartlett fueron muy criticados por los conductistas, y el concepto de esquema no podía entrar en su tradición, y la metodología usada(debida al material) fue totalmente rechazada por el conductismo; olvidándose todos sus trabajos.

    Hasta los años 70 y 80 no se van a tener en cuenta los trabajos de Bartlett.

    Las líneas de investigación que abren sus trabajos en 1988 (Neisser y Winograd) fueron:

  • Comprensión y recuerdo de textos: factores que influyen para que niños y adultos comprendan y recuerden un tipo de textos, así como dibujos, ilustraciones, títulos, conocimiento del lector, etc. Demostrándose que esos factores son importantes.

  • La memoria autobiográfica: si la información se distorsiona en función del tiempo, el sujeto reconstruye (Freud) el texto con sus propios recursos,(acontecimientos y vivencias). En esta línea se estudia el proceso de búsqueda de sucesos históricos, etc.

  • La declaración de testigos: (cuando eres testigo de algo, y te llaman a declarar, la información que das es fiel, o está distorsionada).

  • Teoría del esquema: cómo son, características, función de la recuperación de textos, etc. Esta línea es mucho mas teórica. Y más centrada en los esquemas.

  • 3.2.- PIAGET (1896-1980):

    Suiza (no sólo había psicólogos en Estados Unidos). Era biólogo(no psicólogo): interés biológico.

    Va a criticar al estructuralismo de Wundt, aunque Wundt también tenía un interés biológico pero era más molar, quería saber una emoción determinada dónde se daba. Piaget: interés más global de estructuras intelectuales que el niño las va construyendo para adaptarse a su medio es estructuralista neto pero distinto a Wundt.

    Por ser biólogo critica a la filosofía de su época, porque la considera especulativa y acientífica.

    Estudia psicoanálisis con un discípulo de Freud y esto lo pone en práctica en su método clínico: critica a su vez con este método a la introspección (método de Wundt y compañía).

    Trabaja con un discípulo de Binet, con Simon, y se dedica a aplicar test de inteligencia a niños.

    Objeto de estudio: Lo que le interesa es investigar cómo los niños construyen su conocimiento, parte de la idea de que los niños cuando van creciendo van construyendo estructuras intelectuales que le van a permitir al niño construir su propio conocimiento. Lo estudia cogiendo el contexto del psicoanálisis: usa el método clínico: al niño le pone frente a una situación intelectual y trata de ver cómo resuelve esa situación haciéndole preguntas: contexto del psicoanálisis. Esto implica que el objeto de estudio de Piaget no es la conducta del sujeto como planteaba el conductismo, sino que va a ser el conocimiento. Conductismo: diferencia entre adulto y niño: problema cuantitativo; para Piaget sería cualitativo: las estructuras de un adulto son cualitativamente distintas a las que tiene un niño.

    Piaget trata de construir la epistemología genética: estudiar cómo el niño cuando se va desarrollando su conocimiento se va construyendo, iría del nacimiento hasta la adolescencia. Si esto es así no le interesa la conducta individual del sujeto ni las características personales sino que trata de establecer leyes universales y no está interesado por individuos ni por las características personales de esos individuos.

    Lo que hace Piaget es dividir el desarrollo intelectual en 4 ESTADIOS O PERIODOS: da edades aproximadas:

  • Periodo sensorimotor: (0-2 años): se caracteriza porque aparecen los hábitos, conductas reflejas en el niño, el niño comienza a construir la inteligencia basada en su acción, a establecer estructuras intelectuales basadas en medios - fines y aparece el fenómeno permanencia del objeto: todavía no es capaz de cambiar el esquema, si juegas con él al escondite la segunda vez te busca en el mismo lugar donde te has escondido la primera aunque haya visto que te has ido por otro lado.

  • Periodo preoperatorio: (2-7 años): el niño reconstruye sus acciones del periodo anterior por medio del lenguaje.

  • Periodo de las operaciones concretas: (7-11 años): el niño organiza sus acciones en sistema de conjunto, empieza a aplicar nociones lógicas. El niño es capaz de hacer con éxito muchos aspectos de la clasificación y descubre que puede pertenecer a varios conjuntos a la vez: por ejemplo que se puede ser a la vez madrileño y español. Es capaz de ordenar los elementos no sólo por sus semejanzas sino también por sus diferencias. Comprende que por ejemplo extranjero es una relación y no una propiedad porque depende con quien estés puedes ser extranjero y en otra situación y con otras personas no lo eres.

  • Periodo de las operaciones formales: (11-16 años): el niño alcanza el razonamiento hipotético - deductivo.

  • Esta división implica que el niño alcanza su desarrollo intelectual a los 16 años. Esto sería con respecto al aprendizaje.

    Con respecto a al memoria: habría una memoria de reconocimiento que claramente se va a manifestar en los primeros meses de la vida del niño. A los pocos días de nacer reconoce por el olfato a su madre: eso es memoria. Hace una distinción, que este tipo de memoria es distinto a la memoria de evocación: en lo que en la literatura anglosajona sería recuerdo: plantea una polémica de si recuerdo y reconocimiento serían distintos procesos de memoria o hay un único proceso. No hay que confundir tareas con procesos, las tareas de reconocimiento son distintas de las de recuerdo, pero si los procesos de memoria implicados en esas tareas son distintos o no es lo que trata de ver.

    Piaget encuentra un dato curioso en sentido histórico: Ebbinghaus: el olvido se producía en función del tiempo, del desvanecimiento. Piaget encuentra que el recuerdo de los niños mejora en función del tiempo, lo explica: el niño en función del desarrollo de esas estructuras intelectuales es capaz de reconstruir esa información y al tener unas estructuras intelectuales más maduras por eso lo recuerda mejor: la memoria (como Bartlett) sería un proceso de reconstrucción La diferencia de Piaget con Bartlett es que el segundo estudia sujetos adultos y Piaget diría que los sujetos adultos habrán desarrollado su inteligencia y por tanto tendrán esas estructuras intelectuales, Piaget lo basa más en el desarrollo de esas estructuras intelectuales.

    La psicología de Piaget es clave en psicología, en Estados Unidos se le descubre en los 60 y sus obras fundamentales son de los 20 o antes, porque se le acusaba de mentalista y no estaba dentro de sus propios intereses.

    CHOMSKY:

    No sólo revolucionó la lingüística, su influencia en la psicología ha sido clave.

    Chomsky - Skinner.

    Skinner: Conductista, intenta trabajar con niños y quiere explicar cómo adquieren el lenguaje, no es un prototipo de conductismo. Un niño aprende su lenguaje cuando empareja un nombre con puede ser pelota con algo redondo y por tanto el nombre de pelota se lo dirá al adulto y cuando éste le refuerce porque esa palabra la ha dicho bien, el niño irá aprendiendo distintas palabras, frases, etc.

    Chomsky: dice que no es así porque el niño es capaz de usar palabras sin que las haya oído o haya sido reforzado. Propone que el niño lo que hace es construir reglas y de ellas va generalizando y los niños son terriblemente lógicos cuando han construido esas reglas. Por ejemplo un niño español aprende que todas las palabras que acaban en “a” son femeninas y lo que le cuesta es aprender las excepciones; del mismo modo los verbos, lo que le cuesta más aprender son las excepciones. No buscaba características sino leyes universales y señala que el lenguaje es universal, la forma de aprender, todos los niños, da igual la lengua, aprenden de la misma forma y en ese sentido el lenguaje es universal. Los niños nacen con unas predisposiciones para ese lenguaje universal: esas predisposiciones son innatas. Hay un periodo crítico para aprender esa lengua y ese periodo crítico también sería universal. Crítica que le han hecho de este periodo: por qué hay un periodo crítico para el lenguaje y no para otros procesos: Chomsky: proceso cognitivo por excelencia es el lenguaje, existe un periodo crítico para todo, no sólo para el lenguaje.

    Chomsky distingue entre competencia y actuación:

  • Competencia: leyes gramaticales, sintaxis, conocer las leyes del lenguaje.

  • Actuación: el uso del lenguaje.

  • Skinner se interesa más en la actuación.

    Chomsky: Influencia fundamental en el siglo XX porque revolucionó la lingüística y tuvo gran influencia en la psicología y la polémica de innatismo se debe a Chomsky y sobre todo en el contexto en que lanzó su teoría.

    3.3.- LOS ESTUDIOS SOBRE CATEGORIZACIÓN DEL MUNDO: ROSCH.

    El origen sobre el estudio de categorías hay que situarlo en el aprendizaje discriminativo : el sujeto tiene que discriminar estímulos que luego son reforzados. Este aprendizaje es estudiado por conductistas y la Gestalt con interpretaciones muy diferentes.

    Köhler: principal representante de la Gestalt presentaba a los sujetos dos tonos de color: uno de ellos color claro y otro oscuro y reforzaba la respuesta del sujeto cuando éste elija el más oscuro.

    Blanco - Gris (reforzado el gris)

    Gris - Negro (reforzado el negro)

    Köhler encontró que después de algunos ensayos elegía el negro: hacia una transposición o un cambio en el valor que el estímulo tenía para el animal. Ello implica que los estímulos no tienen valores absolutos (como decían los conductistas) sino relativo. Los conductistas decían que el sujeto estaría condicionado y elegiría la segunda vez siempre el gris. Este resultado sería difícil de explicar en términos de asociaciones.

    Otro tipo de aprendizaje dentro del discriminativo es el descubierto por Harlow: utilizó el test de Wisconsin en el que los sujetos tenían que aprender unas series en las que tenían que discriminar unos estímulos frente a otros.

    Que el sujeto elija el estímulo impar. Encontró que el sujeto tenía más facilidad en aprender las últimas series que las primeras. Estudió la capacidad que tiene el sujeto de aprender: los sujetos gracias a esa capacidad van realizando la tarea y van consiguiendo con éxito el resultado, cambiando de estrategias. Ello también sería muy difícil de explicar en términos de asociaciones: si lanzo una hipótesis luego haré unas estrategias para ver si se cumple dicha hipótesis.

    Kohler fue también quien descubrió el aprendizaje repentino o fenómeno de insight: el aprendizaje repentino es descubrir de forma repentina de una solución nueva a un problema antiguo.

    Estos tres tipos de fenómenos que no podrían explicarse en términos de asociaciones (conductistas) serían manifestaciones de cómo los seres humano empezamos a aprender conceptos y la forma de hacerlo es lanzar una hipótesis y poner en marcha estrategias para cumplir esa hipótesis.

    Hull fue el único conductista que estudió la formación de conceptos: utilizó sujetos humanos; estudió los conceptos de forma experimental.

    Asociaba una letra china a una sílaba sin sentido, pares asociados, por ejemplo si los sujetos tenían que recordar el carácter chino con esa sílaba.

    Hull encontró que el aprendizaje mejoraba, que con la sexta lista los sujetos eran capaces de nombrar correctamente el 60% de las sílabas (más que el azar). Mejoraba gradualmente. Los sujetos aprendían a categorizar los nuevos estímulos en función de los rasgos anteriores, lo que los sujetos hacían era abstraer los rasgos comunes compartidos en cada lista en función de las categorías. Esta abstracción estaría fuera de la conciencia del sujeto (lo harían de forma no consciente). Según Hull, lo que hacemos es ligar los objetos por asociación y por tanto generalizar de un estímulo a otro y por ello otro estímulo que tenga características comunes al anterior nos resultará mucho más fácil aprenderlo.

    Esto es criticado por los cognitivos y sobre todo por Bruner en “El proceso mental” (1959) y piensa que el sujeto aprende o forma concepto lanzando hipótesis y haciendo estrategias para comprobar esas hipótesis (no es por medio de asociaciones como Hull). Ese libro es uno de los pilares del inicio del enfoque cognitivo frente al conductismo.

    Los estudios de Bruner no sólo fueron importantes sobre conceptos sino también sobre percepción, que dieron lugar a la corriente “NEW LOOK” (Nueva perspectiva) que proponía que los sujetos percibían en función de características personales y socio - culturales.

    Por ejemplo cuando presentaba monedas a niños de clase social baja, percibían su tamaño mayor.

    La percepción no sólo está en función de las características físicas del estímulo sino también de las personales y socio - culturales del sujeto.

    En el estudio de aprendizaje de conceptos hay que citar a Bourng yDominowski:

    Concepto: producto o manifestación de una operación mental que le permite al sujeto tratar de la misma forma a un conjunto de objetos que comparten alguna característica común. El concepto sería una forma de categorizar los objetos y lo que hacemos es observar cómo se relacionan entre sí.

    Johnson - Laire y Wason (1977) distinguen dos tipos de conceptos:

  • En la vida cotidiana. Sería un conjunto de conceptos informal.

  • Lo que utilizan las ciencias duras para dividir las plantas, la química, los invertebrados, etc. Sería sistemático y formal.

  • Cognitivos: plantean por qué es necesario estudiar los conceptos:

  • Si no tuviéramos un concepto no podríamos ni pensar ni generalizar porque trataríamos a los objetos como “unos” (únicos).

  • Los conceptos permiten al sujeto humano una economía en su sistema de memoria porque si cada objeto lo tuviéramos que tratar como único tendríamos que almacenar cada objeto en nuestro sistema de memoria, tendríamos que tener un sistema de memoria tal que sería imposible.

  • Gracias a ellos no tenemos que aprender continuamente porque si no los tuviéramos nuestro aprendizaje siempre sería de tercero porque lo trataríamos como único.

  • Gracias a los conceptos podemos saber cómo tenemos que reaccionar ante un objeto o una situación.

  • Nos permiten relacionar clases de objetos con otros (por ejemplo el pastor alemán aprendemos que es un tipo de perro que a su vez es un tipo de animal).

  • Cómo han estudiado los conceptos:

    Si partimos del hecho de que el aprendizaje de conceptos es el resultado de una operación mental que hace el sujeto, los psicólogos han diseñado métodos indirectos para ver cómo los sujetos forman o aprenden esos conceptos.

    Distinguen tipos de tareas y medidas que usan para la formación de esos conceptos:

    TIPOS DE TAREAS: Distinguen entre atributos y reglas:

  • Reglas: permiten relacionar esos atributos. El sujeto tiene que descubrir las reglas que relacionan los atributos relevantes implícitos en ese concepto. Las reglas son las de la lógica: conjuntiva (y), disyuntiva (o), condicional (si) y bicondicional (si y sólo sí). En otras tareas combinan los atributos con reglas: sujeto tiene que descubrir los atributos relevantes y reglas a la vez.

  • Atributos: Es un rasgo o característica que puede cambiar de un estímulo a otro (color, tamaño, forma, atributos físicos). No sólo hay físicos, si me interesa saber las calificaciones obtenidas en el primer año de psicología cogeré atributos como: pertenecientes a colegios públicos o privados, laicos o religiosos, etc. No todos los atributos sobresalen de la misma forma: habrá atributos en función de los conceptos que van a ser más relevantes para ese concepto y otros menos relevantes para ese mismo concepto. En los tipos de tareas que el sujeto tiene que hacer lo que tiene que descubrir son los atributos relevantes que están implícitos en ese concepto. Experimento: se le pide al sujeto que haga preguntas y tiene que averiguar el concepto que piensa el experimentador.

  • Empíricamente se ha encontrado:

  • Los sujetos tardan más en aprender un concepto que implica muchos atributos relevantes. El número de atributos irrelevantes también es importante porque si hay muchos irrelevantes el sujeto puede quedarse en ellos, se pierde en esos atributos y no descubre los relevantes.

  • A los sujetos les costaba más aprender un concepto cuando se daban ejemplos negativos que positivos, ¿por qué los ejemplos negativos son menos útiles? Uno aprende con mayor facilidad que “algo es” a que “algo no es”, eso se ve en niños muy claramente.

  • El sujeto tiene mayor facilidad en descubrir las reglas de arriba abajo (y, o, si, si y sólo si) en ese orden (y: la más fácil, si y sólo sí: la más difícil)

  • Tipos de MEDIDAS: Algunos usaban el número de ensayos necesario para que el sujeto llegara a una solución correcta. Otros usaban el número de errores que cometen los sujetos hasta llegar a la solución correcta. Otros: el tiempo de reacción o latencia de respuesta, que tardan los sujetos en responder hasta la solución correcta. En función de los intereses del experimentador puedes combinar una medida con otra.

    Aunque estos estudios fueron muy importantes no por ello van a ser criticados: mayor crítica: de la psicología cognitiva: son conceptos muy artificiales y muy delimitados en la cabeza del experimentador pero distinto a lo que hace el sujeto en la vida cotidiana. Proponen usar categorías naturales para ver cómo funciona al aprendizaje de estas categorías.

    Las CRITICAS no sólo van a proceder de la psicología sino también de:

    De la filosofía: Wittgenstein: señala que la concepción clásica que incluye tanto los estudios de Hull (conductista) como Bruner(cognitivo) con respecto a la formación de conceptos es equivocado porque los ejemplares de un concepto para él no comparten un conjunto invariable de atributos e ilustra esta idea con el concepto de juego: distintos sujetos pueden no compartir el mismo atributo pero tampoco tiene un rasgo o atributo definitorio porque hay otras cosas que producen diversión y no es el juego por tanto el juego no es exclusivo de diversión: en las teorías clásicas se suponen que los miembros de esos conceptos van a compartir los atributos.

    De la propia psicología cognitiva Eleonor ROSCH:

    Coge los supuestos básicos de las teorías clásicas (Hull y Bruner):

  • Las categorías o conceptos tienen atributos definitorios y por tanto se supone que todos los miembros que pertenecen a ese concepto o categoría comparten esos atributos y ningún miembro de otra categoría van a tener esos atributos.

  • Los miembros de esos conceptos o categorías son equivalentes: todos sus miembros van a representar de la misma forma esa categoría.

  • Las categorías o conceptos son arbitrarios: cuando se agrupan un conjunto de atributos forman un concepto o una categoría.

  • Rosch está en contra de estos supuestos porque las categorías naturales no tienen esos límites tan claros más bien son borrosos. Tampoco es verdad que los ejemplares de esa categoría sean igualmente representativos (ej.: categoría mamífero: ballena no es un ejemplar típico de la categoría mamífero porque tiene aspecto de pez; pingüino no es un ejemplar típico de ave).

    Rosch propone: quiere estudiar cómo el sujeto humano categoriza el mundo y supone que se va a basar en unos principios psicológicos, supone que estos principios psicológicos le va a servir al sujeto para establecer el corte o dividir el mundo y categorizar la información que recibe del medio: Los PRINCIPIOS PSICOLÓGICOS son:

  • Economía cognitiva: el sujeto obtendrá la máxima información con el mínimo esfuerzo. Si partimos de que la información del mundo es redundante, el sujeto podrá predecir información basada en otra.

  • Se refiere a cómo el sujeto percibe el mundo en el que vive: ese mundo está formado por una serie de atributos combinados unos con otros: la estructura de ese mundo no es arbitraria sino que está estructurada y es uniforme.

  • Con estos dos principios Rosch hace una distinción entre dimensión vertical y horizontal de los conceptos:

    1.-Dimensión vertical: Se refiere a que las categorías tienen distinto grado de abstracción, generalmente una categoría está designada por un nombre, por ejemplo perro, que se refiere a su vez a un conjunto, en este caso de animales, y ello implicaría que nuestro sistema conceptual está organizado de forma jerárquica: lo organiza en un conjunto aunque se le denomina taxonomías: una taxonomía es un sistema en que las categorías las podemos relacionar unas con otras a través de una inclusión de clases. Por ejemplo perro lo podemos relacionar con la categoría de mamífero, a su vez con la categoría de animal y a la vez con la categoría de ser vivo. Si esto es así implica que podríamos establecer los cortes más básicos y por tanto lo que quiere señalar es que habría categorías de nivel básico, de nivel supraordenado (implica un nivel más abstracto que las del nivel básico) y categorías de un nivel subordinado (por debajo de las de nivel básico). Las categorías de nivel básico serían aquellas en que todos o la mayoría de sus miembros comparten atributos comunes, las de nivel supraordenado: sus miembros compartirían pocos atributos en común. Las de un nivel inferior como las subordinadas: sus miembros tendrían muchos atributos en común pero también comunes a otras categorías. Trata de demostrar empíricamente esta dimensión:

    Supraordenado Nivel Básico Subordinado

    Vehículo Coche Ibiza

    Mueble Silla Silla de cocina

    Muestra un dibujo por ejemplo el de un Ibiza y le pide a los sujetos, les pregunta qué era y los sujetos decían coche, no vehículo, por tanto espontáneamente decían lo que se refería al nivel básico, con la silla de cocina pasaba lo mismo. Del mismo modo se les daba a los sujetos palabras de distintas categorías y se les pedía que escribieran atributos que ellos pensaban que pertenecían a esas palabras. Los de nivel supraordenado contenían muy pocos atributos y había un mayor número de atributos en el básico y subordinado. Del mismo modo encontró que los conceptos del nivel básico tenían formas similares mientras que los del supraordenado no los tenían. Por ejemplo avión y coche son vehículos pero no tienen formas similares. Datos antropológicos muestran que sujeto o grupos humanos primitivos manifiestan también este nivel básico por tanto quiere decir que no está en función de la cultura. Datos evolutivos muestran que los niños adquieren conceptos o categorías de un nivel básico a una edad más temprana que las categorías de un nivel subordinado o supraordenada. En el lenguaje de los niños se ve que los conceptos de nivel básico sólo tienen un signo y los de nivel supraordenado o subordinado implica una combinación de signos. Quería mostrar que esta dimensión vertical no está en función de la cultura ni de que la muestra de un población sea adulta o infantil ni tampoco depende de una población “normal” (por ejemplo en los sordos se ve también).

    2.- Dimensión Horizontal: señala que las categorías además de tener una dimensión vertical (estar organizados jerárquicamente) las categorías tenían una estructura interna = los miembros de una categoría no son equivalentes, hay algunos que tienen “más derecho” a pertenecer a esa categoría que otros miembros. Por ejemplo: dentro de la categoría de perros hay miembros que son más característicos (si veo a un perro y me da miedo pisarlo no entraría dentro de lo que para mí es la categoría de perro si entiendo ésta porque ladran, me dan miedo...). Habrá miembros que serán más típicos de esa categoría: dimensión horizontal: las categorías o conceptos varían en función del grado de tipicidad. Lo demuestra empíricamente: pedía a los sujetos que juzgaran la tipicidad de miembros de distintas categorías en una escala de 1 a 7 (siendo 1 muy típico y 7 muy atípico), los sujetos en general juzgaban de forma muy parecida: había miembros más típicos que otros. DATOS EXPERIMENTALES APOYAN ESTO:

    Por ejemplo si se pone a los sujetos una tarea de verificación de enunciados, por ejemplo: ¿es un perro un mamífero?, los sujetos tienen una llave para SI y otras para NO, lo que se mide es el tiempo de reacción y se encuentra que disminuye en función del grado de tipicidad. Los sujetos tardan menos en responder que un perro es un mamífero que en responder si una ballena es un mamífero porque perro es un ejemplar típico de mamífero y ballena es un ejemplar atípico de mamífero.

    Otro: pedirle a los sujetos que por escrito den ejemplares de distintas categorías (pájaros: jilguero, frutas, verduras). Se les deja 30 segundos en cada categoría, se trata de ver la frecuencia (si todos los sujetos dicen los mismos miembros de esa categoría) y por otra parte el orden o rango de esos ejemplares, por ejemplo si los sujetos en primer lugar dicen jilguero: cuanto más típico sea estaría en los primeros lugares, cuanto más atípico en los últimos. Se elaboran normas categoriales con ello o datos normativos: Battig y Montague: datos muy parecidos con psicólogos españoles, en concreto en castellano había dos palabras: pájaro - ave (en inglés es la misma palabra) y verduras - hortalizas. Los datos tanto en frecuencia como en rango eran muy parecidos excepto cuando en castellano había dos palabras y en inglés una. A la hora de seleccionar para experimentos tienes que tener en cuenta el grado de tipicidad, porque esa variable te va a influir en el experimento que vas a hacer.

    Otro dato empírico: Rapidez del aprendizaje: los estudios lo que hacen es variar el grado de tipicidad de los ejemplares, manipulan la separación del ejemplar típico y han mostrado una correlación positiva entre rapidez de aprendizaje y grado de tipicidad. Otros estudios han demostrado que en una prueba de reconocimiento los sujetos cometían mayor número de falsas alarmas cuando los ejemplares estaban más próximos al prototipo (falsa alarma: decir que sí cuando es que no), porque se parecen mucho y se pueden confundir fácilmente. Estudios evolutivos han mostrado que los niños pequeños aprenden con mayor facilidad los ejemplares típicos que los atípicos.

    Otro dato empírico: estudios de Lakoff: señala que en toda lengua natural hay términos a los que denomina “cercas” que en castellano podrían ser: prácticamente, casi, técnicamente, etc. Empíricamente encuentra que lingüísticamente se puede decir que una ballena es técnicamente un mamífero pero lingüísticamente no se puede decir que una vaca es técnicamente un mamífero, porque estos “cercas” sólo se pueden aplicar a los miembros que son menos típicos y la vaca es ejemplar típico de la categoría de mamífero, pero una ballena no es típico.

    Efecto Priming: es la mejora que tiene el sujeto en el rendimiento medido en precisión o en rapidez cuando se ha presentado anteriormente el mismo elemento (priming de repetición) o anteriormente se presenta un concepto relacionado semánticamente con ese estímulo. Ejemplo: ave - jilguero, ave - pingüino. Los datos demostraban que el priming favorecía a los prototipos y los sujetos eran más lentos, enlentecía a los no prototipos. Ave ayudaba a jilguero pero perjudicaba a pingüino porque jilguero es ejemplar típico y pingüino no lo es.

    FREYD (1983): Añade un tercer principio a los de Rosch: Principio de limitación de compartir un concepto: un concepto o categoría debería ser compartido socialmente. Ejemplo: concepto de fusión fría: la fusión uno piensa que debe ser con agua caliente, hay una contradicción, este autor añade que para que las distintas comunidades puedan entender ese concepto de la misma forma debería haber un consenso entre esas comunidades: añade el aspecto social de esos conceptos.

    TEMA 4: EL PROCESAMIENTO DE LA INFORMACIÓN.

    4.1.- Aportaciones de la inteligencia artificial (I.A.) y Simulación.

    4.2.- Aportaciones de la teoría de la Información: Miller

    4.3.- Aportaciones de las investigaciones sobre atención.

    4.4.- Características generales del enfoque del procesamiento de la información.

    4.5.- Aportaciones de la neuropsicología cognitiva.

    4.6.- Desarrollos recientes: los modelos de procesamiento distribuido en paralelo (P.D.P.)

    Bibliografía:

    4.1.- Gardner (1985) “La nueva ciencia de la mente”. Paidós. 1987. Capítulo 1.

    4.2.- Miller (1956) “El número mágico 7 +/- 2...” * “En lecturas de psicología de la memoria”.

    4.3.- Sebastián, M.V. y Menor, J. (en prensa) “Psicología de la atención”. Madrid: Alianza.

    4.4.- Sebastián, M.V.(1994) “Aprendizaje y memoria a lo largo de la historia”. Madrid: Visor. Cap. 13.

    4.5.- Mayes (1983) “Neuropsicología de la memoria”. En lecturas de psicología de la memoria. *

    4.6.- Johnson - Laird (1988). El ordenador y la mente. Paidós. Cap. 1.

    PROCESAMIENTO DE LA INFORMACIÓN:

    Procesamiento de la información tiene su propio objeto de estudio.

    1940 - 1960: se fragua el procesamiento de la información, qué acontecimientos lo favorecen:

    1.- Punto de vista histórico: el conductismo había llegado a un callejón sin salida; o se cambiaba de enfoque o no podría explicar los nuevos datos.

    2.- Estados Unidos imperaba con fines políticos la psicología diferencial: desde el punto de vista histórico nunca ha aportado nada, se basaban en datos científicos para frenar la inmigración.

    3.- Empieza la Segunda Guerra Mundial: impulsa la concepción de la psicología: los operadores de radar no podían mantener su atención durante un periodo de tiempo muy grande; a veces cometían errores: lo explican diciendo que los sujetos tenían un criterio de respuesta y en función de él tomaban la decisión de que sí había señal: T.D.S.

    4.- Se desarrolla la ingeniería de la comunicación y la teoría de la información: los sistemas de comunicación tienen una capacidad limitada y pequeña y no se pueden transmitir muchos mensajes al mismo tiempo: este enfoque lo recoge con los estudios de la atención.

    5.- Desarrollo de los ordenadores: se desarrollan al principio para acelerar los cálculos matemáticos: no sólo va a influir en la psicología.

    Procesamiento de la información: desemboca a la psicología pero influye en todas las ciencias.

    4.1.- APORTACIONES DE LA INTELIGENCIA ARTIFICIAL Y SIMULACIÓN:

    Bruner (1956). “El proceso mental”.

    Miller, Galanter y Pribram (1960), “Planes y estructuras de la conducta”, Debate 1983. Estos tres autores retoman el concepto de meta de Tolman y lo traducen a una perspectiva conductual: la conducta del sujeto humano es una conducta inteligente y por ser así va a tener un objetivo y el sujeto va a organizar esa conducta para alcanzar ese objetivo: en la misma línea de Bruner (formación de conceptos: crea hipótesis y pone en marcha estrategias para resolverlas).

    También se desarrolla la lógica formal y se aplica esa lógica formal a los ordenadores, esto implica que los lógicos van a plantear objetivos y van a desarrollar o diseñar programas informáticos que puedan resolver estos objetivos: resolución de problemas. Como consecuencia se plantea que los ordenadores se van a convertir en sistemas que pueden manipular símbolos: nace la inteligencia artificial.

    Enlazándolo con lo anterior estos autores (Miller, Galanter y Pribram) pretende crear un modelo teórico en el que se puedan resolver problemas y que se diseñen programas informáticos para resolver esos problemas, proponen así que la psicología va a conceptualizar la mente humana de una forma muy distinta de la que había propuesto el conductismo: empieza la analogía de la mente humana con el ordenador. Ambos pueden pensar, etc.

    Diferencias entre inteligencia artificial, simulación y la mente humana:

    • Inteligencia artificial. Se propone diseñar programas para que una máquina pueda realizar cualquier acto inteligente aunque no sea natural.

    • Simulación: trata de diseñar programas que imiten o simulen la conducta del sujeto.

    (Por ejemplo pintar un coche: Inteligencia artificial crea un sitio, lo llena de pintura y mete al coche; simulación: pinta el coche por partes como el hombre)

    Diferencias con la mente humana:

    • Es imposible que un ordenador tenga en cuenta el contexto.

    • Las relaciones personales son claras en la conducta del sujeto (los ordenadores no se relacionan entre sí).

    • Aspectos emocionales (puedes conseguir que un ordenador haga un ruido que simule la risa pero lo que el sujeto siente no lo siente el ordenador).

    • El sujeto olvida pero el ordenador no.

    Hay características parecidas pero no son sinónimos “de”, el ordenador es “como si” fuera un sujeto, pero no “es” un sujeto humano.

    4.2.- APORTACIONES DE LA TEORÍA DE LA INFORMACIÓN: MILLER

    Hay que retomar a la psicofísica clásica: manipula cambios en unidades (gramos, centímetros...) y presenta a los sujetos estímulos que varían en estas unidades.

    La teoría de la información plantea que es verdad que los estímulos pueden variar de esa forma pero hay que tener en cuenta otra dimensión en los estímulos y esa dimensión nueva es lo que llaman valor informativo o valor de incertidumbre hay que tenerla en cuenta porque el mundo al que reaccionamos no sólo está determinado por sus características físicas sino por la probabilidad de que un estímulo ocurra. El contexto va a ser clave para esa probabilidad de que los estímulos tengan lugar. La dimensión informativa sería un aspecto crítico de ese contexto. La teoría de la información ha tratado de captar esa dimensión de incertidumbre de los estudios.

    Modelo de comunicación de Shannon y Weaver (1949):

    Fuente de Codificador - Canal de Descodificador

    Información comunicación --

    Fuente de

    Ruido Destino

    Traducido por Miller a un sujeto concreto:

    Estimulación Receptores S.N.C. Centros RR

    sensoriales Corticales

    Ruido fuera y dentro

    psicológico del observador

    El origen de la teoría de la información surge del campo de la comunicación en 1949 por el modelo de Shannon y Weaver: la información fluye a través de un sistema de comunicación: un mensaje concreto se va a seleccionar de alguna fuente y se va a codificar en forma de señal por medio de algún dispositivo que va a preparar el mensaje para transmitirlo a través de un canal de comunicación , una vez que se transmite la señal ésta va a ser recogida por algún receptor para que la pueda descodificar en alguna forma apropiada para que el destinatario pueda entenderla, durante ese proceso de transmisión puede haber algún tipo de interferencia que distorsione la señal (fuente de ruido).

    Ejemplo: película (fuente de información) recogida por una cámara, imágenes y sonidos serían codificados: canal de comunicación, fuente de ruido (interferencias: por ejemplo lluvia), la señal llega al televisor y lo vemos (descodificador y destino).

    Miller traduce este modelo de comunicación a un sujeto humano: la fuente de información es la estimulación que le sujeto recibe del medio, codificada a través de nuestros sentidos que mandan una señal a nuestro S.N.C. para que nuestros centros corticales descodifiquen esa señal para que el sujeto pueda emitir una respuesta, también puede haber ruido psicológico: por muy insonorizado que estés siempre va a haber ruido (latidos del corazón, etc.).

    Información: algo de nuevo que el sujeto tiene cuando una situación nos dice algo nuevo, algo que no sabíamos todavía. Se obtiene cuando se reduce la incertidumbre porque ésta refleja falta de conocimiento y por tanto la cantidad de información que obtiene el sujeto va a estar determinada por cuándo el sujeto reduce incertidumbre.

    La incertidumbre aumenta cuando aumenta el número de alternativas: si podemos medir incertidumbre también vamos a poder medir la información, porque lo hacemos en términos de reducir esa incertidumbre.

    La medida de la información o la incertidumbre está basada en un sistema binario. La unidad de medida de la información se llama BIT y representa la potencia a la que el número dos debe elevarse para llegar al número posible de alternativas que son igualmente probables.

    h

    A = 2 H = log A

    2

    A= número de alternativas (igualmente probables).

    H = cantidad de información en bits

    Ejemplo: Un libro te cuesta menos encontrarlo en un sitio pequeño que en una biblioteca (en ésta hay muchas baldas):

    1

    • = 1 bit

    2

    • = 2 bit

    3

    • = 3 bit

    Aplicación en psicología:

    1.- Se ha examinado las posibles relaciones entre incertidumbre y reconocimiento.

    2.- Incertidumbre y discriminación.

    3.- Incertidumbre y velocidad de respuesta

    4.- Incertidumbre y capacidad del almacén a corto plazo.

    1.- Incertidumbre y reconocimiento: Miller recoge investigaciones hechas hasta entonces. Utilizaban distintos tamaños de vocabularios de palabras y luego le pasaban a los sujetos una prueba de reconocimiento, presentaban palabras viejas y nuevas y tenían que identificar las viejas. Encontraron que la precisión del reconocimiento estaba relacionada de forma inversa con el tamaño del vocabulario: a mayor tamaño del vocabulario menor la precisión del reconocimiento.

    2.- Incertidumbre y discriminación: los experimentos fundamentalmente están basados en los juicios absolutos: si le pides al sujeto que haga un juicio relativo le presentas físicamente dos estímulos y le pides que cuál es más claro, tratas de comprobar la discriminación del sujeto ante esos dos estímulos: en los juicios absolutos sólo le presentas un estímulo y lo que probablemente hace el sujeto es comparar ese estímulo que le has presentado con algún estímulo estándar que el sujeto tiene almacenada en su sistema de memoria. Se usan los juicios absolutos porque al sujeto se le considera como un sujeto que tiene UN canal de comunicación, si esto es así lo que se pretende ver es cuál es la capacidad del canal de ese sujeto, la cantidad de información que el sujeto puede transmitir en un juicio absoluto,

    Output de información

    Input de información

    Información transmitida

    Bits de teórica

    información Capacidad del canal

    transmitida

    Input de información

    Los experimentos consistían en variar la cantidad de información del input y medir la cantidad de información transmitida. Miller: vamos a suponer que la capacidad de discriminación del sujeto en un juicio absoluto fuera ilimitada: cuando aumenta la capacidad del input la cantidad de información transmitida también aumentará; si suponemos que la capacidad fuera limitada cuando la información del input aumenta alcanzaría un valor asintótico, tendría la misma capacidad, habría la misma información transmitida. Miller encuentra que la capacidad de discriminación del sujeto usando los juicios absolutos es limitada, encuentra ese valor asintótico. Al Usar estos juicios absolutos con estímulos que tengan una única dimensión (sonidos, etc.) Miller encuentra que la capacidad del sujeto oscila entre 1.6 a 3.9 bits que estaría entre 7+/-2 alternativas usando únicamente estímulos unidimensionales. Implica que la capacidad del sujeto es bastante limitada y pequeña. Cuando encuentra estos resultados caen críticas porque dicen que los estímulos que el sujeto recibe del medio no varían en una única dimensión, sino en distintas y por tanto estos resultados podrían ser sólo un artefacto experimental.

    Se empiezan experimentos con estímulos multidimensionales, que varían en distintas dimensiones y encuentra que se aumenta la capacidad pero disminuye la precisión del sujeto, pero este incremento de la capacidad NO es aditiva. Por ejemplo con un estímulo unidimensional 1.9 bits y con el otro 2.5, cuando se presentan a la vez n se suman. La capacidad con estímulos multidimensionales sigue siendo pequeña, estaría entre 7+/-2 alternativas y sigue manteniendo que la capacidad del canal del sujeto sigue siendo limitada y pequeña y oscila entre 7+/-2 alternativas: Número mágico 7+/-2.

    3.- Incertidumbre y velocidad de respuesta: tiempo de reacción; posible relación entre incertidumbre y el tiempo de reacción del sujeto. Lo que se encuentra es:

    T.R. en Ley de Hick

    Segundos

    Aumenta linealmente

    Incertidumbre en bits

    4.- Incertidumbre y capacidad del almacén a corto plazo: ¿cuántos elementos podemos mantener de forma activa en ese ACP?. Si la capacidad del sujeto es tan limitada como decía Miller ¿por qué en la vida cotidiana podemos recordar distintos estímulos?. Ejemplo:

    63919391579128915991

    Si lo tuviéramos que recordar, sería más que 7+/-2 dígitos y según Miller no se podría recordar. Si se agrupan se refieren a fechas claves en la historia española (1995, 1982, 1975, 1939 y 1936) y por tanto el sujeto según Miller reorganiza esta información en unidades mayores a lo que Miller llama CHUNKS y el sujeto sí que podría recordar con éxito estos dígitos porque los agrupa; serían 5 Chunks, la capacidad del ACP es limitada y estaría entre 7+/-2 chunks que a su vez estarían formados por bits. Agrupa esa información valiéndose de información organizada en su ALP.

    4.3.- APORTACIONES DE LOS ESTUDIOS DE LA ATENCIÓN AL PROCESAMIENTO DE LA INFORMACIÓN:

    Aportan:

    1.- Atención como mecanismo de alerta o vigilancia.

    2.- Atención selectiva.

    3.- Atención dividida.

    4.- Atención como mecanismo de control.

    5.- Atención y conciencia (en memoria).

    No hay una teoría de atención que integre todos estos tipos.

    1.- Atención como mecanismo de alerta o vigilancia: Se inicia en la Segunda Guerra Mundial, lo describe Mackworth, operadores de radar no podían mantener su atención en el radar: se abre la psicología aplicada. Se han tratado de ver cuáles son las características de la tarea: si el mecanismo es más central que periférico, si la probabilidad de la señal influye o no en esa detección, también características personales: los introvertidos tienen un rendimiento mejor. También se ha encontrado:

    rendimiento buen rendimiento:

    nivel intermedio de ruido.

    Ruido

    También se ha relacionado con drogas (tabaco, café, etc.).

    Las interpretaciones teóricas son bastante flojas.

    Punto de vista teórico: demuestra que la atención es variable y no fija, en función de una situación es capaz de concentrarse en aspectos concretos y otros no. (Esto es lo más importante).

    2.- Atención selectiva: ¿Dónde actúa la selección?. El sujeto recibe más información del medio de la que puede procesar, es necesario que seleccione algún tipo de información y deseche otra, por el propio enfoque de procesamiento de la información la selección es necesaria. La problemática es dónde actúa la atención o se localiza. Dos modelos:

    • Modelos de selección temprana: Broadbent.

    • Modelos de selección tardía: Deutsch y Deutsch; Norman.

    • La selección múltiple: reúne ambas cosas. Johnson y Heinz. La atención selectiva opera en todos los niveles.

    • Otros autores como Neisser: no tiene sentido plantear la atención como un diagrama de flujo, propone que habría que tener en cuenta tato un procesamiento guiado por los datos como por los conceptos.

    • Otros como Treisman ponen el énfasis de la atención selectiva en la atención.

    Broadbent se basa en dos datos empíricos:

    La técnica de amplitud dividida: presenta dígitos con presentación dicótica: presenta un par de dígitos por ejemplo 5,3 por un oído y otro par de dígitos por el otro oído, al final por uno por ejemplo recibe 5,9,1 y por el otro 3,6,2. Resultados: les resultaba más fácil recordar la información que les había llegado por un oído 5,9,1 y por otra parte 3,6,2 que cuando le pedía a los sujetos que recordaran todos los dígitos: somos procesadores seriales y sólo podemos atender a una única información.

    Experimento de Cherry: cuando uno está en una reunión social y hay distintas conversaciones el sujeto sólo puede atender a una única conversación, quiso simular esa situación en el laboratorio y para ello utiliza una tarea de ensombrecimiento (shadowing task): presenta dos mensajes simultáneos, uno en cada oído y para estar seguro de que el sujeto atendía a uno le pedía que le fuera repitiendo en voz alta: iba a ensombrecer al otro mensaje que no atendía. Cuando les pedía si recordaban alguna información del oído no atendido lo único que detectaban eran características físicas (cuando se cambiaba de tono de voz se daban cuenta pero cuando se cambiaba de idioma no se daban cuenta): del oído no atendido sólo podían procesar características físicas, no características semánticas. Con estos dos datos crea su modelo:

    Sentidos ACP Filtro Sistema

    Selectivo perceptivo

    de capacidad

    limitada

    ALP

    Es un modelo multialmacén de memoria. Pero lo que llama ACP en los modelos multialmacén de memoria se llamarían almacenes sensoriales y el sistema perceptivo de capacidad limitada sería ACP.

    Los sujetos humanos somos procesadores seriales: únicamente podemos atender a una cosa cada vez (en paralelo: puede atender a varias cosas a la vez).

    En sus experimentos de amplitud dividida: para él los oídos serían dos canales de comunicación y la función del filtro selectivo sería seleccionar primero la información que le llega al sujeto de uno de esos canales y después del otro; el sujeto lo almacena en el ACP, la información la guarda por un periodo de tiempo muy breve la información que el sujeto no puede atender y después vuelve a ella, por eso sus sujeto tenían un buen recuerdo de todos los elementos (atendían a un oído y guardaban los elementos del otro en ese almacén).

    Cómo interpreta los resultados de Cherry: el filtro selectivo filtraría exclusivamente características físicas por eso los sujetos detectan cambios de voz per no aspectos semánticos: el filtro actúa de forma temprana, la localización del filtro está en las primera fases de procesamiento.

    Empiezan a aparecer datos que refutan la idea de Broadbent: si alguien dice tu nombre aunque estés hablando te vuelves: según Moray cuando por el oído no atendido aparecía tu nombre todos los sujetos se dan cuenta: el sujeto lo procesaba. Del mismo modo Gray Weddenburn además de presentar dígitos presentaba palabras (Broadbent sólo presentaba dígitos), también usaba una presentación dicótica, por un oído presentaba: 3, ratones,8 y por el otro: comen, 6,queso. Si Broadbent tuviera razón los sujetos recordarían pro una parte 3, ratones,8 y por otra comen, 6, queso; como por el filtro sólo pasaban características estructurales no habría buen rendimiento; al final se ve que los sujetos recordaban: ratones, comen, queso: mezclaban información que les llegaba de los dos oídos.

    Con estos experimentos Treisman lo que hace es atenuar la idea de filtro: a lo mejor la idea de filtro de Broadbent es rígida: la atención es cuestión de grados, en función de la situación el sujeto por ese filtro puede pasar características físicas y semánticas: Modelo de atenuación de filtro frente a Broadbent de Treisman: la selección estaría localizada en una selección temprana.

    Selección temprana de Broadbent:

    Registro y Análisis Selección

    Almacenamiento perceptivo respuesta

    Sensorial

    Selección tardía Deutsch y Deutsch:

    Registro y Análisis Selección

    Almacenamiento perceptivo respuesta

    Sensorial

    La diferencia entre ambos es dónde actúa la atención: en el modelo de Broadbent actúa entre le registro almacenamiento sensorial y el análisis perceptivo; en el modelo de selección tardía la atención actúa entre el análisis perceptivo y la selección de la respuesta.

    En el modelo de selección tardía el análisis se haría de forma inconsciente: no estaría limitado por la atención; en estos modelos además de Deutsch y Deutsch también estaría el modelo de Norman que incluye la memoria semántica. Hay datos que apoyarían estos modelos.

    Algunos autores critican las técnicas de ensombrecimiento para rebatir los modelos de selección tardía, pero si la tarea no es adecuada no lo sería tampoco para los modelos de selección temprana.

    Algunos autores como Neisser plantean que no tiene sentido hablar o tratar de buscar en dónde se localiza la atención, eso tendría sentido en un modelo de flujo, lo que propone es ambos tipos de procesamiento: guiado por los datos (de abajo a arriba) y guiado por los conceptos (de arriba abajo), en su “ teoría análisis por síntesis” propone que en la atención habría que tener en cuenta estos dos tipos de procesamiento. Es una forma de concebir la atención distinta a los modelos de selección temprana o tardía.

    Estudios sobre la focalización de la atención visual: la idea es: del mismo modo que con la modalidad auditiva hemos visto que el sujeto podía centrarse en una única conversación si cogiéramos la modalidad visual también podríamos fijarnos en una posición específica de nuestro campo visual y analizar la información focalizada e ignorar el resto.

    Por ejemplo: cuando alumbramos un objeto con una linterna lo que vemos con claridad es lo iluminado ¿podemos atender a la información que está fuera de ese foco?.

    Los datos experimentales muestran que la información o la estimulación que está fuera de ese foco sólo recibe un análisis físico; esto apoyaría a los modelos de selección temprana porque la información no atendida sólo recibiría análisis de las características estructurales o físicas.

    Hay datos a favor y en contra de una selección temprana o tardía y la cuestión sigue abierta.

    3.- Atención dividida: ¿Podemos hacer dos actividades de forma simultánea? ¿el sujeto puede repartir su atención entre estas dos actividades para realizarlas con éxito? En la vida cotidiana hay ejemplos que dicen que sí: uno es capaz de andar mientras va hablando. Pregunta clave: ¿siempre es así? NO : si empezamos a discutir sobre algo el sujeto se para, no anda, parece que no puede andar y discutir al mismo tiempo.

    A lo mejor es posible o bien porque las tareas tengan unas características o bien porque una de las actividades o tareas el sujeto la tenga totalmente automatizada.

    Datos experimentales apoyan que el sujeto puede llevar a cabo dos tareas con éxito cuando las dos son simples, son diferentes entre sí y el sujeto las realiza con mucha práctica. Si las tareas son complejas, parecidas entre sí y no son familiares para el sujeto, no podrá realizarlas de forma simultánea.

    Interpretaciones teóricas de estos resultados: La atención se va a entender no como un filtro o una estructura rígida sino que más bien la atención se va a concebir como una reserva de recursos, esto implica que esos recursos se van a poder asignar a las actividades que el sujeto tiene que realizar. Dos formas de entender esa reserva de recursos:

    • Generales y/o no específicos: Modelo de Kahneman: el sujeto los tiene disponibles para cualquier actividad mental. Norman y Bobrow.

    • Específicos: habría recursos específicos a cada modalidad, específicos a cada código y a cualquier operación mental que llevara a cabo el sujeto. Wickens.

    Modelo de Kahneman: (1973):

    Determinantes varios

    ACTIVACIÓN

    Capacidad disponible

    Disposiciones

    Que

    Permanecen Evaluación de

    La demanda

    POLÍTICA ASIGNACIÓN

    Intenciones

    Momentáneas

    A A A Posibles

    Activaciones

    Respuesta

    Concibe la atención como una fuente limitada de recursos de almacenamiento. El punto clave es la política de asignación porque está determinada por las disposiciones que permanecen (que serían reglas innatas o reglas aprendidas: por eso cuando alguien dice mi nombre vuelvo la cabeza), también está determinado por las intenciones momentáneas (decisiones conscientes que el sujeto toma), también está determinado por la evaluación de la demanda (evaluación de la demanda que exige esa/s tarea/s, si una tarea la evalúa como difícil va a desplegar mayor atención).

    Este modelo fue criticado y por eso Wickens propone que en vez de concebir la atención como un recurso central (Kahneman) mejor concebirla como recursos múltiples: habría recursos de atención para las distintas modalidades sensoriales, recursos específicos para los códigos de memoria o de procesamiento, y recursos específicos para los tipos de respuesta y por eso es una concepción distinta a lo que propuso Kahneman.

    Esta segunda concepción también fue criticada: hay autores que proponen que una posibilidad para que los sujetos puedan realizar siempre con éxito una de las dos tareas es que una de ellas la tenga el sujeto totalmente automatizada.

    Procesamiento automático: Distintos autores caracterizan lo que es un proceso automático:

    Shiffrin y Schneider: Los procesos automáticos se caracterizan por:

    • No van a estar entorpecidos por las limitaciones de la capacidad de la MCP: no requieren atención, actúan en paralelo y actúan de forma independiente.

    • Algunos procesos automáticos se pueden iniciar bajo el control del sujeto pero una vez que empiezan siguen su curso hasta que terminan: no está bajo el control del sujeto interrumpirlos.

    • Para que un proceso automático se desarrolle es necesario que el sujeto tenga un gran entrenamiento en esa actividad y una vez y una vez que lo ha adquirido es muy difícil de modificar.

    • Los procesos automáticos son muy rápidos.

    Características de un proceso controlado: tienen limitaciones que son las mismas que las de la MCP: requieren atención, son procesos que tienen una capacidad limitada, se adaptan rápidamente sin un entrenamiento prolongado: se modifican con facilidad.

    Posner y Snyder: los llaman activación automática y atención consciente. Un proceso automático:

    • Será aquel que se lleva a cabo sin intención.

    • No debe provocar una toma de conciencia.

    • No debe interferir con ninguna otra actividad mental que lleva a cabo el sujeto.

    Los criterios de automaticidad no están claros entre los distintos autores: ese es el punto clave. Por eso algunos autores van a dividir los procesos automáticos en:

    • Totalmente automáticos

    • Casi automáticos

    • Algo automáticos

    Pero la cuestión no es dividir, el punto clave es los criterios que se usan para poder decir que un proceso es automático. Hay dos criterios con los que sí hay unanimidad entre autores:

  • Los procesos automáticos no demandan atención, no consumen recursos de procesamiento. Hay datos que avalan este criterio: los datos que se refieren a una situación de doble tarea y datos que usan el procedimiento experimental de búsqueda visual (por ejemplo en un conjunto de letras el sujeto tiene que buscar una letra dada).

  • Los procesos automáticos son inevitables y obligatorios: pueden producir interferencia en otros procesos. Ejemplo: fenómeno Stroop: ¿por qué es obligatorio e inevitable? ¿Por qué al sujeto le resulta tan difícil nombrar el color?: porque predomina en el sujeto lo verbal frente a lo visual, cuando se le pide que no te diga la palabra rojo sino el color en que está escrito el sujeto espontáneamente dice la palabra porque tiene un predominio del código verbal frente al visual y por eso se produce interferencia: comete errores y los tiempos de reacción son más largos.

  • Lo importante sería establecer y formular claramente los criterios más que dividir los procesos automáticos.

    4.- La atención como mecanismo de control: No se trata de concebir la atención como recursos o como capacidad del sujeto para analizar información sino que se trata de concebirla como un mecanismo de control y su función sería regular o dirigir los mecanismos de procesamiento. Quien propone un modelo es Norman y Shallice en 1986: Datos experimentales en que se apoyan:

  • Despistes o “lapsus” de atención en sujetos normales: a veces se rompe el control de esas acciones rutinarias que el sujeto hace. Generalmente se rompe esa acción porque el sujeto está distraído: “lapsus de atención”.

  • Pacientes con síndrome del lóbulo frontal: tienen una conducta paradójica en el sentido de que son pacientes terriblemente distraídos, incapaces de planificar cosas, tienen una persistencia en su conducta. Por ejemplo si le presentas una tarea como la de Peterson: tiene que recordar las letras VSZ: le mete una tarea distractora, por ejemplo contar, y luego le pide que recuerde esas tres letras: estos pacientes si les presentas distintas series de letras (VSZ,MTR,LKH,RSV) en la primera cambian e orden, en la segunda siguen recordando la primera, si les presentas la tercera seguirán recordando la primera, son incapaces de cambiar a otra información porque les cuesta mucho concentrarse en la tarea. Los sujetos con alzheimer perseveran enormemente y en esta tarea hacen lo mismo que los pacientes con lesiones en el lóbulo frontal y por tanto no será debido sólo a los lóbulos frontales.

  • Modelo de Norman y Shallice: Van a hacer una distinción entre distintos niveles de control cognitivo que va a estar basado en la interacción de estos cuatro niveles de procesamiento:

  • Unidades cognitivas: capacidades cognitivas básicas , tendrían substratos neuropsicológicos como pueden ser la percepción, memoria, lenguaje, etc.

  • Esquemas: Unidades que controlan acciones rutinarias y serían específicas. Por ejemplo conducir un coche, hacer el desayuno, etc. Pueden activarse de dos formas: o bien mediante estímulos que proceden del mundo exterior o bien por el resultado o output de estos esquemas. Para ilustrar cómo funcionan los esquemas proponen el ejemplo de conducir un coche: la acción estaría formada por un conjunto de esquemas que estarían organizados de forma jerárquica: para pasar a un esquema superior antes tendría que activarse el inferior. Los esquemas de nivel más bajo serían las rutinas básicas que tiene el conductor por ejemplo el control para mover la cabeza y poder mirar el retrovisor, cuando un conductor es novato realiza una serie de movimiento que le impide llevar a cabo otras actividades (por ejemplo mirar a los pedales ), un esquema de nivel superior sería una acción rutinaria compleja (por ejemplo cuando nos acercamos a un cruce deberíamos reducir la velocidad, cambiar de marcha, mirar por el retrovisor,...)

  • Programa de contención: tiene fundamentalmente la función de seleccionar el conjunto más eficaz de esquemas que va a permitir satisfacer las demandas de la situación.

  • Sistema de supervisión atencional (SSA): tiene la función fundamental de supervisar las otras tres unidades y se va a activar o bien porque el programa de contención fracasa o bien porque en el repertorio del sujeto no figura la rutina apropiada o bien cuando los esquemas se activan de forma débil: esto implica que a su vez no podrá activa a otros esquemas.

  • Los sujetos con problemas en el lóbulo frontal su sistema de supervisión atencional no funciona y por tanto los sujetos ni pueden cambiar de actividad ni pueden concentrar su atención porque el elemento que supervisa al resto no funciona correctamente.

    4.4.- CARACTERÍSTICAS GENERALES DEL ENFOQUE DE PROCESAMIENTO DE INFORMACIÓN (Centrándonos en memoria):

    La idea que subyace es que la información fluye a través de distintos sistemas. Lo que va a proponer es una concepción múltiple del sistema de memoria. Esto es importante porque las distintas teorías que hemos visto proponían una concepción unitaria del sistema de memoria y este enfoque propone una concepción múltiple: va a haber distintos sistemas de memoria que implica que cada subsistema va a tener características distintas, la capacidad del ACP tendrá que ser distinta a la capacidad del ALP porque si es igual no tiene sentido hablar de distintos sistemas de memoria.

    Lo que propone es que la memoria hay que concebirla como un sistema con tres almacenes:

  • Almacenes sensoriales: capacidad grande relativo al procesamiento en el que están. La información no se categoriza, no se analiza de forma semántica. La información dura muy poco tiempo.

  • ACP: La capacidad va a ser muy limitada, la información dura poco tiempo también, y la codificación va a ser sobre todo auditiva - verbal - lingüística y por tanto no semántica.

  • ALP: capacidad ilimitada, la codificación va a ser sobre todo semántica y la información puede o no perderse.

  • Temas claves de la ciencia cognitiva (por encima del enfoque) y también incluida la neurociencia:

  • Con respecto a atención: lo que no está claro es si la atención es un recurso mental o un mecanismo de control, ¿es esencial para todo procesamiento?: si es un mecanismo de control sí.

  • La contraposición entre procesamiento automático y procesamiento consciente: ¿puede cualquier proceso mental convertirse en automático?

  • Representación : ¿cómo está la información representada en nuestro sistema de memoria? ¿está formateada en el mismo código o por el contrario existen distintos códigos en función del tipo de conocimiento?.

  • Memoria implícita y explícita: relación entre atención y memoria, conciencia y memoria. Memoria implícita: el sujeto no tiene conciencia de que por ejemplo hemos comprado un libro, cuándo, dónde.. Memoria explícita: sí que sabemos dónde y cuándo hemos realizado esa actividad y tenemos conciencia de ello. Si es verdad que existe la memoria implícita, si el sujeto recuerda de forma inconsciente una información. ¿un proceso inconsciente puede afectar a nuestra conducta?.

  • Cerebro: a partir de los ´70 se ha cambiado totalmente el énfasis en la investigación de memoria porque en vez de preguntarse cómo y dónde se almacena una información en el sistema de memoria la pregunta es cómo y dónde se almacena en el cerebro ese hecho: neurociencia. La neurociencia va a partir de los estudios de neuropsicología cognitiva.

  • 4.5.- APORTACIONES DE LA NEUROPSICOLOGÍA COGNITIVA AL PROCESAMIENTO DE LA INFORMACIÓN:

    Se centra en tratar de explicar patrones de rendimiento en tareas de memoria en pacientes con lesiones cerebrales. Se trata de ver si esas lesiones afectan al procesamiento cognitivo general.

    Esta información es útil porque estos rendimientos podrían ser explicados por teorías cognitivas y podrían explicar las detecciones de estos pacientes en tareas de memoria, la psicología cognitiva lanza teorías o modelos para rechazarlos con estos pacientes.

    Hay interacción entre los que se dedican a estudiar amnésicos y los que se dedican a estudiar sujetos normales, es bidireccional. Con el desarrollo de las técnicas de neuroimágen se ha tratado de ver la actividad cerebral tanto en amnésicos como en normales y ello contribuirá al desarrollo de teorías y modelos.

    Ahora bien, esta labor es interdisciplinar, fundamentalmente hay que explicarlo en términos psicológicos, ya que de lo contrario sirve para muy poco.

    Por ejemplo el lóbulo frontal se inhibe o activa en la tarea X, pero explicado en términos psicológicos, en qué consiste esa falta de actividad, etc.

    La neuropsicología cognitiva ha utilizado la psicología experimental, lo que ha hecho es que pacientes con lesiones lleven a cabo tareas y ver cómo influyen dichas lesiones en el rendimiento de las tareas.

    Supongamos que las variables experimentales afectan en la misma dirección y magnitud a unas pruebas de memoria. Se han encontrado asociaciones entre esas tareas.

    Por el contrario si esas variables afectan selectivamente a esas tareas, se da una disociación/es entre esas tareas.

    La neuropsicología buscará tanto las asociaciones como las disociaciones, sobre todo estas últimas.

    Supongamos que un paciente con una lesión X haga: Mal la tarea A y bien la tarea B: encontramos una disociación simple. Otro paciente con una lesión Y hace: bien A y mal B: disociación doble.

    Tanto las disociaciones simples como las dobles no deben entenderse en términos absolutos porque las lesiones cerebrales no suelen ser tan absolutas o específicas; es decir, son relativas.

    Supongamos que las tareas A y B miden diferentes tipos de memoria, entonces la estructura X dañada participa en el recuerdo específico de la tarea A, mientras que la estructura Y participa en el recuerdo específico de la tarea B.

    La neuropsicología cognitiva ha inducido de forma experimental disociaciones en sujetos normales, sustituyendo el término lesión por manipulación experimental y el de déficit por rendimiento en prueba de memoria, esto ha provocado: Disociaciones Experimentales o Funcionales.

    Sujetos normales actúan como pacientes con lesiones cerebrales.

    Disociación simple: cuando una variable experimental afecta de forma selectiva a una tarea pero no a la otra.

    Disociación doble: La conjunción de dos disociaciones simples.

    Doble no cruzada: Dos variables afectan de forma distinta a dos tareas de memoria.

    Variable

    Tarea 1 2

    A + =

    B = +

    Doble cruzada: Niveles de una misma variable afectan de forma distinta a dos tareas de memoria.

    Tb

    Ta

    1 2 Niveles de análisis

    1,2: Niveles de variable.

    A,B: Tareas.

    A: recuerdo libre

    B: reconocimiento

    1: recuerdo de todas las palabras: juicio bajo (juicio perceptivo)

    2: reconocimiento de todas las palabras: reconocimiento bueno (juicio semántico).

    (sólo es un ejemplo, no quiere decir que sea real)

    4.6.- LOS MODELOS P.D.P.: PROCESAMIENTO DISTRIBUIDO EN PARALELO:

    Se proponen a finales de los 70 como alternativa a los modelos secuenciales y seriales del procesamiento de la información.

    Estos proponen que el procesamiento se lleva de forma distribuida y en paralelo. Se cambia la metáfora, ya no se compara la mente con el ordenador, sino que es el ordenador con el cerebro, lo que desembocará en la neuropsicología cognitiva.

    La forma de procesar estaría formada por una serie de conexiones o asociaciones que formarían una red y la información o se activaría o se inhibiría. Formado por interacciones de neuronas o asambleas de neuronas: el cerebro.

    Dos características fundamentales:

  • Distribuido o en paralelo: algunos de los procesos funcionan en paralelo. Ejemplo: por el contexto, aunque no entendamos una palabra, podemos entenderla lo que implicaría un procesamiento en paralelo. El análisis no lo realizamos viendo qué tipo de palabra es (adverbio...), sino que ascendemos al contexto. Gracias a los modelos de distribución en paralelo hemos llegado a la conclusión de que algunos procesos se llevan a cabo por distribución en paralelo.

  • Degradación elegante: en los primeros modelos (secuenciales y seriales) si una parte estaba dañada el procesamiento no podía continuar mientras que si es distribuido y en paralelo continua. Es una ventaja frente a los anteriores.

  • TEMA 5: ASPECTOS METODOLÓGICOS EN LA INVESTIGACIÓN SOBRE MEMORIA.

    5.1.-Clasificación según las instrucciones en la fase de aprendizaje:

    • Aprendizaje intencional

    • Aprendizaje incidental.

    5.2.- Clasificación según las instrucciones en la fase de memoria:

    • Pruebas directas*

    • Pruebas indirectas*

    Bibliografía:

    Sebastián M.V., “Aprendizaje y memoria a lo largo de la historia”. Cap. 14, 15*, 16*.

    5.1.- CLASIFICACIÓN SEGÚN LAS INSTRUCCIONES EN LA FASE DE APRENDIZAJE:

    Partimos del hecho de que en cualquier investigación sobre aprendizaje hay dos fases: las instrucciones y las pruebas, según lo que haga el investigador la investigación será distinta.

    En función de las instrucciones podemos hablar de aprendizaje incidental o aprendizaje intencional.

  • Aprendizaje intencional: El experimentador le dice a los sujetos que aprendan esa información con antelación porque luego van a tener una prueba de memoria.

  • Aprendizaje incidental: Las instrucciones no se refieren a que luego va a tener una prueba de memoria. Por ejemplo: se les da a los sujetos una lista de palabras y se les dice que es para una prueba de percepción.

  • 5.2.- CLASIFICACIÓN SEGÚN LAS INSTRUCCIONES EN LA FASE DE MEMORIA:

    Las pruebas o las tareas se dividen en directas o indirectas y las instrucciones son distintas. Si el experimentador hace referencia a la fase de aprendizaje: “recuerda lo que has aprendido anteriormente”, se llaman pruebas directas de memoria. Son los procedimientos clásicos de memoria..

    Si no se hace alusión a la fase previa hablamos de pruebas indirectas. Ejemplo: se les da una raíz y se le pide al sujeto que la complete. Suponemos que el sujeto las completará con las palabras que ha aprendido anteriormente. Esto sería un efecto priming. Es para lo que se hacen estas pruebas.

    PRUEBAS DIRECTAS:

    Algunos las llaman explícitas y otros indirectas implícitas, pero es mejor la primera denominación.

    Estarían todas las pruebas clásicas que se han utilizado en memoria. El material puede ser distinto: dibujos, sílabas sin sentido, etc.

    Aprendizaje serial: Se les presenta a los sujetos una serie de dígitos, visual o auditivamente, y los sujetos lo tienen que recordar en el mismo orden. Se mide la amplitud de memoria. Si los sujetos te recuerdan 6 dígitos de los que les has presentado dices que su amplitud de memoria es 6.

    Pares asociados: Lo han utilizado mucho los conductistas.

    I. Proactiva:

    Grupo experimental A-B A-C I.R.: A-C

    Grupo control ___ A-C I.R.: A-C

    I. Retroactiva:

    Grupo experimental A-B A-C I.R.: A-B

    Grupo control A-B ___ I.R.: A-B

    Se intentaba comprobar si se produce inhibición proactiva o retroactiva. Tiene que haber dos grupos. Proactiva: la prueba se hace en A-C, porque lo que se quiere ver es si el aprendizaje de A-B influye en A-C (si la primera tarea influye en el intervalo de retención). La inhibición retroactiva es lo mismo pero al revés, sería ver si el aprendizaje de la segunda tarea influye en el Intervalo de Retención.

    Pares asociados: en la fase de aprendizaje presentas los dos elementos del par y en la fase de memoria sólo presentas uno para que el sujeto recuerde el otro.

    Tareas distractoras: Se presenta generalmente (es la tarea por excelencia) un trigrama de letras (TVF) y para que el sujeto no lo repase o repita, se le da una cifra (269) para que cuente de tres en tres hacia atrás, luego le pides que recuerde las tres letras en el mismo orden que se lo has presentado. El objetivo de que cuenten es que no repasen las letras. Esta tarea es típica de Peterson y Peterson.

    Tareas de sondeo: Generalmente se muestran elementos, que normalmente son dígitos y uno se encuentra repetido. Se le pide al sujeto que recuerde el elemento siguiente al repetido, ej.:

    6198362: sería el 2 el que tendría que recordar.

    Estas técnicas se han utilizado y se siguen utilizando todavía. Se utilizan en la investigación de memoria.

    Recuerdo libre: Se diseña en los ´70. Mientras que en los otros el orden es fundamental, aquí las instrucciones es que recuerde los elementos en el orden que quiera. Dentro del recuerdo libre los estudios se centran en el agrupamiento y en la organización subjetiva:

    • Agrupamiento: se presenta al azar una serie de elementos de la misma categoría y se espera que el sujeto los recuerde a favor de las categorías, o sea, agrupa los elementos a recordar por distintas categorías. Ejemplos: animales, puede agrupar por un lado las aves, los mamíferos...

    • Organización subjetiva: el experimentador selecciona una serie de elementos y cuando le pides al sujeto que te lo recuerde varias veces siempre lo hace de la misma forma, coherencia en el recuerdo. Así que se interpreta como que el sujeto organiza el material subjetivamente, de forma consistente.

    En el recuerdo libre se ha estudiado la manipulación y recuerdo (control) de parámetros que se divide en tres partes:

    • Características del material: hay que controlar el tamaño de la lista para que no se produzca ni el efecto suelo (si la lista es muy grande el sujeto recordará pocos elementos) ni el efecto techo o cielo (si la lista es muy pequeña el sujeto recordará todos los elementos). Los elementos deben pertenecer a datos normativos: controlar la frecuencia de las palabras, que los elementos no sean muy típicos o atípicos, que los elementos no evoquen muchas imágenes, la velocidad y el orden de presentación.

    • Intervalo de retención: puede ser diferido (minutos, días, meses o años) o inmediato (pedirlo nada más acabar la tarea).

    • Características de la prueba de memoria: cómo tiene el sujeto que evocar el material a recordar (oral o escrito) y cuánto tiempo se le da para esa evocación.

    También hay que tener en cuenta en el recuerdo libre las medidas (del recuerdo libre y de la organización):

    • Medidas de organización: recuerdo total de todos los sujetos y media del grupo.

    • También me pueden interesar recuerdos parciales en función del número de categorías o del número de elementos por categorías (medidas independientes).

    • También puedo medir el recuerdo en función del significado de los elementos.

    • También se puede medir en función de lo que los sujetos agrupen o de la organización subjetiva del sujeto.

    Así que estará en función de lo que quiera el experimentador.

    Recuerdo con clave: Se dan una serie de elementos y se le dice al sujeto que le vamos a dar una clave para el recuerdo (aprendizaje intencional), por ejemplo la raíz de las palabras, podemos incluir raíces de palabras que no han aparecido para ver los errores. Se aplicaría la siguiente fórmula para corregir el azar:

    A-E

    N-1

    No hay que confundirlo con la prueba indirecta de completar palabras, ya que esta alude a la fase de aprendizaje y por tanto es directa.

    Esta prueba exige un diseño intersujetos y generalmente se compara la prueba de recuerdo con clave con otro grupo de sujetos que tenga una prueba de recuerdo libre o reconocimiento (se compara el recuerdo con clave en recuerdo libre o en reconocimiento). Las claves pueden ser de distinto tipo. Los parámetros experimentales que se ha utilizado han sido los datos normativos, el tamaño de la lista y el número de elementos por clave, la tasa de presentación...

    El rendimiento se evalúa corrigiendo el azar:

  • Se aplican fórmulas del tipo de la anterior para eliminar el azar: la TDS o la de los exámenes.

  • Otra forma es dar las claves a otro grupo de sujetos que no realiza el experimento y ver qué pasa. Esto es muy costoso y se prefiere lo otro: corrección al azar.

  • Corrección al azar: elaboras una lista de palabras que es la que le vas a presentar al sujeto y otra lista de palabras B que el sujeto no ve y de la cual no le presentas ninguna palabra, posteriormente le presentas raíces para completar de palabras pertenecientes a ambas listas: si pone al completar las raíces palabras de la lista B (que no le han sido presentadas) eso se lo restas al resultado total y así corriges el azar.

    Pruebas de reconocimiento: Se presenta en la fase de aprendizaje un material y en la de memoria ese mismo material junto a otro material nuevo; el sujeto tiene que identificar el material antiguo. Material nuevo: tiene la función de distraer la atención del sujeto. Tipos de pruebas de reconocimiento:

  • Pruebas en las que el sujeto tiene que contestar a una cuestión binaria (SI/NO, V/F).

  • Pruebas de elección forzada: se le muestran a los sujetos varios elementos nuevos junto a elementos que sí estaban en la fase de estudio. Se le fuerza al sujeto que reconozca el elemento viejo.

  • Reconocimiento en lote: se presenta al sujeto simultáneamente todas las alternativas (correctas e incorrectas), el sujeto tiene que identificar los elementos nuevos y los viejos.

  • Con el reconocimiento se puede medir:

  • Precisión de reconocimiento: porcentaje de reconocimiento correcto, hay que corregir el azar, bien sea aplicando la T.D.S. (hallando d´= proporción de aciertos menos proporción de falsas alarmas) o bien con la fórmula A-E/n-1 (n= número de alternativas). Cuanto mayor es el número de alternativas, menor será la probabilidad de que el sujeto reconozca objetos al azar.

  • Latencia de respuesta: (Tiempo de Reacción), lo que tarda el sujeto en reconocer un elemento concreto.

  • Juicios de confianza: en una escala de 1 a 5 se le pide al sujeto si está muy seguro de su reconocimiento a muy poco seguro (siendo 1 muy seguro y 5 muy poco seguro)

  • En función del objeto de estudio estas medidas se pueden combinar.

    MEDIDAS INDIRECTAS:

    Se refieren a pruebas de memoria en que las instrucciones que da el experimentador no hacen referencia a la fase de aprendizaje, nunca le dirá al sujeto que tiene que recordar o reconocer lo que ha aprendido anteriormente.

    Hay cuatro tipos de tareas indirectas:

  • Tareas de conocimiento de hechos, tareas conceptuales, tareas de conocimiento perceptivo o léxico.

  • Tareas de conocimiento de procedimientos.

  • Tareas de juicio evaluativo.

  • Otras tareas en las que se mide cambio conductual.

  • En todas las tareas indirectamente se mide el efecto Priming: se presenta anteriormente el mismo estímulo (Priming de repetición) o estímulos correlacionados con lo presentado posteriormente, se manifiesta entre otras cosas que puede que la latencia de la respuesta se reduce. Puede haber también un efecto Priming negativo.

    Tareas de conocimiento de hechos, tareas conceptuales, tareas de conocimiento perceptivo o léxico:

    Conocimiento conceptual y del conocimiento de hechos: se podrían dividir en:

    • Tareas para estudiar la reaparición de elementos de conocimiento general.

    • Tareas para examinar la generación de elementos pertenecientes a una misma categoría semántica: por ejemplo se le presenta en la fase de estudio al sujeto una serie de instrucciones: se le va a presentar una serie de palabras escritas en tarjetas, las tiene que leer en voz alta y decir si le gusta la palabra mucho, algo, poco o nada: tarea de orientación de juicios de gustar. Es un aprendizaje incidental. Se van apuntando las respuestas que da el sujeto, hay diferentes ejemplares de distintas categorías en las palabras (desde profesiones, prendas de vestir, partes del cuerpo humano...). Tienen que hacer juicios sobre elementos de distintas categorías (fase de aprendizaje). En la fase de memoria se le pide que escriba 6 ejemplares de distintas categorías, hay categorías que han visto anteriormente y otras que no han visto antes. En las pruebas indirectas hay que corregir el azar y se corrige si el sujeto al preguntarle por una categoría que no ha visto antes por azar selecciona una palabra mencionada en la lista B(lista de palabras no presentada) se le resta del recuerdo absoluto. A este azar en las pruebas indirectas se llama “línea base”. Generación correcta: generas bien los miembros de una categoría. Por ejemplo si has obtenido el 60% de generación correcta, si al pedirte otras categorías que no has visto antes si me generas otro que está en la lista B se penaliza y se resta del 60% correcto. Por ejemplo: 0.60 (generación correcta) - 0.10 (lista B) = 0.50.

    • Tareas para estudiar la verificación de pertenencia de elementos a una categoría: el sujeto tiene que verificar enunciados del tipo ¿es un canario un pájaro?, el sujeto tiene dos llaves, una para respuestas afirmativas y otra para respuestas negativas. Se mide latencia de respuesta, tiempo de reacción. Los sujetos tenían unos tiempos de reacción más cortos cuando se les preguntaba ¿es un canario un pájaro? , y antes se había presentado “un canario puede volar” eran más rápidos que si antes de la pregunta se les había presentado “un canario puede cantar”, en este último caso eran más lentos.

    • Técnicas para examinar la clasificación de los elementos.

    Conocimiento léxico: se puede dividir en:

    • Técnicas sobre decisiones léxicas: se presenta al sujeto palabras y no palabras y el sujeto tiene que decidir si es o no una palabra (por ejemplo “casa” es una palabras, pero “cdsa” no es una palabra.

    • Técnicas de completar palabras: usa aprendizaje incidental. Se presentan palabras y tienen que hacer un juicio subjetivo diciéndole si le gustan o no en una escala esas palabras. Hay dos listas (lista 1 y lista 2), en las dos hay palabras que se repiten: las dos primeras y las dos últimas porque luego se suprimen porque serían los efectos de primicia y ultimidad. Es una tarea indirecta porque en la fase de memoria se presentaban inicios de palabras y las instrucciones eran que completase esas raíces con la primera palabra que se le ocurriera y por tanto no hace referencia a la fase de aprendizaje. Hay que calcular el azar; hay raíces que pertenecen a otra lista de palabras que ha elaborado (lista 2), si por azar presentando “cue” pones “cuerpo” (palabra de la lista 2: el sujeto no la ha visto) se descuenta de lo correcto (igual que antes). O se corrige así el azar o tienes que coger otro grupo experimental y pasarle los inicios y ver cómo los completan , esta última forma no es económica y por eso se utiliza la anterior.

    • Tareas de completar fragmentos: la única diferencia con el anterior es que aquí presentas al sujeto una palabra del estilo: ASE---I---O (Asesino) y el sujeto tiene que completar, teniendo en cuenta que la palabra asesino la ha visto antes en la fase de aprendizaje.

    • Tareas de producción de homófonos:

    Tareas perceptivas:

    • Tareas de identificación perceptiva de palabras y caras:

    • Tareas de nombrar dibujos y de identificación de dibujos fragmentados: Se presentan dibujos fragmentados, en diferentes niveles de fragmentación, desde un nivel 1 (poco dibujado) hasta un nivel 8 (dibujo total), hasta que el sujeto reconoce lo que representa el dibujo, según estas tareas en la segunda presentación los sujetos van a identificar los dibujos en un nivel más fragmentado que cuando lo identificaron antes (en un nivel más próximo a 1, más inferior).

    Tareas de conocimiento de procedimientos: Se pretende ver el aprendizaje de habilidades que tienen los sujetos: tareas clásicas: dibujo en espejo: se mide lo que tarda el sujeto en llevar a cabo un dibujo en espejo.

    Tareas de juicio evaluativo: Se trata de ver cómo los sujetos evalúan los estímulos y ver si la exposición previa (desde incremento de la intensidad de los estímulos) influye o cambia el juicio del sujeto.

    Otras tareas en las que se mide cambio conductual: Se ha utilizado la respuesta galvánica de la piel y también el condicionamiento del párpado, etc., Se trata de ver en función del estímulo si ese condicionamiento se tarda más en producir (comparándolo con otros estímulos).

    TEMA 6: LOS MODELOS MULTIALMACÉN

    6.1.- Semejanzas y diferencias entre los modelos de Broadbent, Waugh y Norman y Atkinson y Shiffrin.

    6.2.- El modelo modal de Atkinson y Shiffrin.

    6.3.- Los modelos sensoriales:

    6.3.1.- El almacén icónico :Sperling

    6.3.2.- El almacén ecoico: Crowder y Morton.

    6.4.- El almacén a corto plazo (A.C.P.):

    6.4.1.- Capacidad: Miller*

    6.4.2.- Duración: Peterson y Peterson*

    6.4.3.- Codificación: Conrad

    6.4.4.- Mecanismos responsables del olvido: Reitman.

    6.5.- El almacén a largo plazo (A.L.P.)

    6.6.- Críticas a los modelos multialmacén:

    6.6.1.- Problemas experimentales:

    - Codificación: Gruneberg, Colwill, Winfrow y

    Woods.

    - Curva de posición serial: Craik*

    6.6.2.- Datos clínicos: Mayes*

    6.6.3.- Problemas teóricos: ¿estructura o procesos?

    6.1.- SEMEJANZAS Y DIFERENCIAS ENTRE LOS MODELOS DE BROADBENT, WAUGH Y NORMAN Y ATKINSON Y SHIFFRIN:

    Repaso

    ESTÍMULO MP MS WAUGH

    NORMAN

    (1965)

    El modelo de Waugh y Norman es un modelo de almacén de memoria, con dos tipos: primaria y secundaria, con un repaso que:

    • Mantiene la información en la M.P.

    • Transfiere la información a la M.S. (memorias a corto y largo plazo).

    Toman la terminología de W. James.

    Broadbent introdujo un almacén sensorial (diferencia con Waugh y Norman), así como uno a corto plazo (capacidad perceptiva limitada) que una vez atravesado el filtro pasa a la capacidad perceptiva y a la memoria a largo plazo. “Modelo multialmacén” (3 almacenes). Los procesos de repaso no los hace explícitos, como lo hacen Waugh y Norman, en el que el repaso juega un papel muy importante explicándose los procesos de memoria más detalladamente.

    6.2. EL MODELO MODAL DE ATKINSON Y SHIFFRIN:

    ENTRADA EXTERIOR

    ALMAC. SENSOR

    Olvido

    Visual

    ACP

    Olvido

    A.V.L.

    ALP

    Olvido S

    Atkinson y Shiffrin (1968)

    En el modelo de Atkinson y Shiffrin se observa un modelo prototípico de concebir a la memoria como un sistema múltiple. Neisser en (1967) “Psicología cognoscitiva” habla de concebir a la memoria como un sistema múltiple recogiendo datos y acuñando almacén icónico para la información visual y almacén ecoico para la auditiva.

    El modelo de Atkinson y Shiffrin se caracteriza en que la información que el sujeto recibe del medio fluye por distintos sistemas:

    1ª Fase = Registros sensoriales (anteriormente almacén sensorial visual), se caracteriza por:

    • Por tener una gran capacidad, entra mucha información, siendo un almacén tan primario.

    • La información dura muy poco tiempo y luego o se pierde o pasa a otro almacén para seguir el análisis.

    • Es un almacén precategórico, por no hacer ningún análisis semántico.

    2ª Fase = Almacén a corto plazo (A.C.P.):

    • Tiene una capacidad limitada (lo señalaba Miller)(en 7+-2 chunks)

    • Tiene limitación temporal, y sólo dura unos 20 segundos, a no ser que siga el análisis.

    • La codificación es auditiva, verbal, lingüística (A.V.L.)

    • El mecanismo responsable del olvido está entre la pugna del desvanecimiento y la interferencia.

    Si la información no se transfiere o se mantiene activa se olvida.

    3ª Fase: Almacén a Largo Plazo (A.L.P.):

    • Su capacidad es limitada, por eso la línea de olvido es menos probable (puede permanecer eternamente la información).

    • La codificación es fundamentalmente semántica y los mecanismo del olvido pueden ser interferencia, desvanecimiento, etc.

    La diferencia con los otros tres modelos: con Broadbent es similar (hay tres almacenes) pero Atkinson y Shiffrin se centran en memoria y Broadbent se centra en percepción; Atkinson y Shiffrin hablan de tres almacenes y Waugh y Norman hablan de dos (A.L.P. = M.S.).

    Atkinson y Shiffrin distinguen entre características funcionales y procesos de control. En Atkinson y Shiffrin la A.L.P. tiene doble sentido con ACP, así como que podría darse un sentido Almacén Sensorial - A.L.P..

    6.3.- LOS MODELOS SENSORIALES:

    Neisser hace distinción entre almacén icónico (responsable de la información visual) y ecoico (responsable de la información auditiva).

    6.3.1. El almacén icónico: Sperling:

    Sperling (1959,60) va a examinar lo que pasa si a sujetos les presentan estímulos visuales de una manera muy rápida, (utilizando un taquitoscopio: aparato que tiene por finalidad provocar en el sujeto de experimentación una excitación visual brevísima y mensurable). Presentaba letras en forma de matriz 3x4, A D J E

    X P S B

    M L B H

    y pide a los sujetos que traten de recordarlas, pidiéndoles un informe global de lo presentado. Los sujetos sólo podían recordar 3 o 4 letras, pero decían tener la sensación de haber visto más (tenían una limitación verbal).

    Se le ocurrió la técnica de informe parcial: daba un tono que podía ser de tres intensidades: alto = recordar sólo las de arriba; medio = las del medio; bajo = las de abajo. Encontró que los informes eran de un 80% fiables dándose cuenta de que la capacidad de este almacén era grande. Los sujetos almacenaban todas las letras = 12 elementos. Conclusión: la existencia del almacén icónico y de gran capacidad.

    Quería averiguar cuánto tiempo permanece la retención, viendo que se pierde a los 250 milisegundos. Transcurrido ese tiempo la información se desvanece, y el mecanismo responsable del olvido, es el desvanecimiento. También se ha encontrado lo mismo con otros procedimientos.

    Las características de esta información son: se suponían precategórica (sin ningún análisis semántico). Sólo localizaban la información visualmente según el tono, y lo demostró presentando matrices mezclando dígitos y letras aleatoriamente y se les daba una clave a los sujetos diciéndoles lo que tenían que recordar hallando que no hay diferencias y concluye que la información en este almacén sensorial es precategórica (características físicas, color, tamaño, brillo, etc.; pero nada semántico).

    6.3.2.- El almacén ecoico: Crowder y Morton:

    Los datos que muestran la existencia de un almacén ecoico aparecen después del modelo de Atkinson y Shiffrin; suponiendo que las características del almacén ecoico eran las mismas que las del icónico, es decir, almacén de gran capacidad, precategórico, y con la misma limitación temporal.

    Se presentó (Darwin, 1972) lo mismo pero en ves de tonos se usaban estímulos visuales. Se observó una gran capacidad; pero la limitación temporal es menor, la información puede permanecer hasta dos segundos; y además es precategorial.

    Otra manera de estudiar el almacén ecoico es usar el procedimiento efecto sufijo (Crowder y Morton, 1969) utilizan material verbal en los elementos y usando el aprendizaje serial (mismo orden de presentación). Hay dos grupos (experimental y control) y el grupo experimental al final tenía un sufijo (el cero en inglés) y diciéndosele mientras que al grupo control no se le decía nada. En todo aprendizaje serial se ha encontrado que los sujetos recuerdan las ultimimas.

    El efecto en el grupo experimental es menor que en el grupo control, cuando se presenta el sufijo, enmascara el final de la lista (retroactivo). También se ha encontrado que este efecto no depende del significado de la palabra, demostrándose que se precategorial; y no se ha encontrado con la modalidad visual, dicho efecto, es característico de la información acústica.

    6.4.- EL ALMACÉN A CORTO PLAZO:

    Almacén a corto plazo: se trataba de examinar sus características estructurales:

    6.4.1.- Capacidad: Miller *: Capacidad del almacén a corto plazo (lectura de Miller): Miller encontró que la capacidad de la memoria a corto plazo era limitada y el sujeto podía recodificar la información en unidades mayores a los que llamaba chuncks (ejemplo de fechas). La capacidad de este almacén a corto plazo incluso recodificando la información seguía siendo limitada y estriba en 7+-2 chuncks. Esto implica que este almacén a corto plazo tiene una limitación espacial. Otros autores, entre ellos Waugh y Norman (1965) han medido la capacidad de este almacén a corto plazo con el efecto de ultimidad:

    Primacía

    A.L.P. Ultimidad

    A.C.P.

    El almacén responsable del efecto de primicia sería el A.L.P. y el responsable del efecto de ultimidad el A.C.P.. Se podría medir la capacidad del almacén a corto plazo por el mismo efecto de ultimidad: la capacidad sería un poquito menor de lo que señalaba Miller, estaría entre 2.5 a 4 chuncks, pero seguiría siendo limitada.

    6.4.2.- Duración: Peterson y Peterson*(1965): (Lectura): presentan un trigrama de consonantes sin significado (VZH) y para que los sujetos no repitan o repasen el trigrama les piden que cuenten para atrás a partir de un número determinado que les dan en voz alta, esto sería una tarea distractora porque evitan que los sujetos repasen el trigrama. Encuentran:

    Tanto por

    ciento de

    recuerdo

    18

    Intervalo de Retención

    La información se pierde aproximadamente a los 18 segundos. Manipulan el intervalo de retención.

    6.4.3.- Codificación: Conrad: la codificación era fundamentalmente auditiva - verbal - lingüística, el experimento clásico es de Conrad (1964), presenta visualmente distintas letras (VB) y lo que analiza son los errores que cometen los sujetos en el recuerdo y el recuerdo lo hace de forma inmediata y encuentra: los sujetos confunden la “v” con la “b” que desde el punto de vista visual no tienen nada que ver, los sujetos lo que están confundiendo no son las características visuales sino la semejanza de los sonidos; por tanto, llega a la conclusión de que la codificación en este almacén es auditiva - verbal - lingüística.

    Del mismo modo Baddeley (1966) presenta palabras que se parecen entre sí desde el punto de vista fonémico y palabras que son acústicamente distintas y encuentra que los sujetos tienen un peor rendimiento con respecto a las palabras que se parecen acústicamente entre sí que las que no se parecen, cuando presenta sinónimos (semánticamente parecidas) y pide un recuerdo inmediato, la semejanza semántica no deteriora su recuerdo. Estos experimentos apoyan la idea de que la codificación en este almacén a corto plazo es auditiva - verbal - lingüística.

    6.4.4.- Mecanismos responsables del olvido: Reitman: el mecanismo responsable del olvido es el desvanecimiento, por tanto esto indica que además de haber una limitación espacial (Miller) también hay una limitación temporal en este almacén a corto plazo, se acepta que la información dura aproximadamente unos 30 segundos y que el mecanismo responsable es el desvanecimiento, sería un mecanismo distinto al del almacén a largo plazo que sería la interferencia, y por tanto sería una característica estructural específica de este almacén a corto plazo distinto del almacén a largo plazo.

    Cómo recupera esa información: cómo el sujeto una vez que ha almacenado información en ese almacén a corto plazo recupera esa información: ¿de forma serial o en paralelo?: Steinberg (1969):

    Ensayos

    1 2 3 4

    Estímulo 7 2,5 3,6,8 4,5,4,2

    Conjunto de

    Memoria 2 5 3 5

    Respuesta

    Correcta NO SI SI SI

    Tiempo de

    Reacción

    Tiempo

    De

    Reacción

    1 2 3 4 Ensayos

    Manipula el tamaño de los dígitos presentados (uno, dos, cuatro),luego presenta “un conjunto de memoria” y el sujeto con dos llaves (SI/NO) tiene que decir si ese elemento presentado es viejo o no: por tanto es una prueba de reconocimiento y mide el tiempo de reacción: aumenta linealmente en función del tamaño de los estímulos presentados, esto implica que el procesamiento sería serial porque aumenta en función del tamaño. Si fuera en paralelo el tiempo de reacción no estaría en función del tamaño, los haríamos los cuatro a la vez. También quería examinar si esta búsqueda que el sujeto hace de la información almacenada la hace de forma exhaustiva o autodeterminada: habría que comparar los tiempos de reacción entre las respuestas positivas y negativas, si fuera autodeterminadas sería menor las positivas, sin embargo los resultados mostraban que los tiempos de reacción eran iguales para las respuestas positivas y negativas y por tanto la búsqueda era exhaustiva.

    A finales de los ´70 empiezan a surgir modificaciones: algunos autores mantienen la idea de que la búsqueda es serial pero es autodeterminada, otros autores encuentran datos de que la búsqueda es en paralelo y por tanto si esto es así podría suceder que la búsqueda a corto plazo fuera serial y a largo plazo fuera en paralelo y sería una distinción más entre ambos almacenes. Polémica: a lo mejor depende del material y las situaciones que sea serial o en paralelo.

    6.5.- EL ALMACÉN A LARGO PLAZO (A.L.P.):

    Características en contraposición con el almacén a corto plazo:

  • Capacidad: La capacidad del almacén a largo plazo es ilimitada, sería el almacén responsable de todos nuestros recuerdos que pueden permanecer toda nuestra vida, no se produce olvido aunque a veces puede producirse pero en esas ocasiones más que olvido lo que se produce a veces son problemas de acceso a esa información almacenada, y al no ser olvido, una vez superados esos problemas podemos recuperar la información. No hay limitación espacial ni temporal.

  • Mecanismo responsable del olvido: El mecanismo responsable del olvido en el almacén a largo plazo sería la interferencia (como proponían los conductistas): que nuevo material transforme o interfiera viejo material o viceversa (inhibición proactiva o retroactiva). Mecanismos que se han propuesto como responsables del olvido hasta ahora: desvanecimiento: pasivo, en función de la huella de memoria; interferencia: en función de la naturaleza de la información y de la cantidad de material que el sujeto aprenda; otros autores (Waugh y Norman) aluden al desplazamiento: si la capacidad del almacén a corto plazo es tan limitada para que entre nueva información tiene que salir otra; otros autores proponen que el desplazamiento es un tipo de interferencia, interfiere con la información que está y por eso sale; otros autores proponen que más que interferencia es una puesta al día de la información.

  • Codificación: Es fundamentalmente semántica, hay datos que muestran que los sujetos confunden palabras que son sinónimas cuando les pides que las recuerden tras un largo intervalo.

  • Sujetos con amnesia retrógrada: sujetos que tienen amnesia retrógrada provocada por causas distintas (accidentes de coche, moto, estímulos eléctricos (electroshock), estímulos químicos) muestran que los sujetos son incapaces de recordar los sucesos que han tenido lugar antes de la experiencia traumática que ha provocado esa amnesia. El sistema de memoria afectado sería el almacén a largo plazo y curiosamente estos mismos sujetos tenían intacto el almacén a corto plazo: dato claro y definitivo para hablar de distintos almacenes.

  • 6.6.- CRÍTICAS A LOS MODELOS MULTIALMACÉN:

    La primera crítica en general a los modelos multialmacén va dirigida al grado de independencia que tienen estos tres almacenes propuestos: en algunos casos la independencia no es tan grande; datos de los años ´70 que caracterizan estructuras que se pensaban que eran distintas van a ser las mismas y si es así no tiene sentido hablar de distintos almacenes.

    Schab y Crowder (1995): “Memory for odors” (olores): encuentran datos que no apoyarían con los datos aparecidos con una información auditiva o visual, en principio deberían tener las mismas características. Usaban una prueba de reconocimiento en que se presentan varios olores y luego uno que lo han olido anteriormente o no y el sujeto tiene que reconocer ese olor como viejo o como nuevo. Se ha examinado cuánto tiempo dura la información en esta memoria de olores, se manipula el intervalo de retención, se encuentra que cuando el intervalo de retención es de unos 30 segundos se produce muy poco olvido, los sujetos lo reconocen correctamente, cuando el intervalo es de 2 minutos se produce el descenso en el rendimiento. Se recogen experimentos en los que muestran que no se produce olvido de olores en intervalos cortos ni largos: los datos no parecen tan claros. Pacientes Korsakoff: pacientes amnésicos que llegan a ese estado por problemas de alcohol y dieta alimenticia pobre: no tienen problemas en reconocer olores: su memoria para olores la tienen intacta y tienen en muy mal estado el reconocimiento y recuerdo de caras y material verbal: se produce una disociación entre olores y material verbal y caras.

    Almacenes sensoriales: críticas:

  • Muchos autores han relacionado la memoria icónica con el fenómeno de postimágenes: si esto es así no estamos hablando de memoria sino de un fenómeno perceptivo y por tanto los que proponen un almacén icónico se podría explicar en términos de percepción y ya no sería memoria. Postimágen: cuando te hacen una foto con flash vemos una mancha negra, pero el flash es blanco y por tanto eso sería una persistencia del estímulo; del mismo modo si miras a algo rojo brillante durante uno o dos minutos y luego miras una pared blanca, ves la pared de color verde porque es el complementario del rojo e indicaría también una persistencia del estímulo. Punto clave: si la primera fase de la memoria son los almacenes sensoriales o no, si para recordar una información la recordamos con las características de los que postulan los almacenes sensoriales o son necesarias esas primeras fases (almacenes sensoriales) para que empiece la memoria. Este fenómeno perceptivo se da en la retina y por tanto implica que es muy periférico: algunos autores están en desacuerdo porque piensan que las postimágenes deberían ser a nivel del sistema nervioso central, polémica de si son periféricas o centrales.

  • Una característica clave de este almacén icónico es que era precategórico: la información no se analizaba de forma semántica; datos posteriores van a poner en tela de juicio esta idea porque cuando se administra una clave, sean dígitos o letras, sí que se encuentra una ventaja del informe parcial sobre el global e iría en contra de la idea de que es precategórica. La información en el almacén icónico dura unos 250 milisegundos, en el ecoico unos 2 minutos: la diferencia es abismal: cómo interpretan algunos autores esta diferencia: funcionalmente por definición tienen que ser distintos un estímulo visual y a un estímulo auditivo porque un estímulo auditivo por naturaleza es un proceso, requiere la acumulación de información en función del tiempo: los elementos de un estímulo auditivo siguen uno al otro en función del tiempo; los estímulos visuales, sus elementos le pueden llegar al sujeto al ojo todos al mismo tiempo y por eso dicen que es funcional, en función ed las propias características del ojo - oído y eso podría explicar las diferencias de tiempo. Esto implica que no hablamos de características estructurales en función de memoria. Otros autores van a modificar la separación espacial de los elementos que se presentan: y con ello los sujetos eran capaces de identificar y categorizar esos elementos. Esto implica que los elementos pueden identificarse en función de su situación física de modo casi individual.

  • Sperling: experimento: presentaba por medio de un taquitoscopio matrices de letras o dígitos y pedían que lo recordaran. Críticas: los estímulos que presenta eran muy estáticos y los presentaba muy brevemente y lo que el sujeto recibe del medio no es así, los estímulos se mueven en el medio; por otro lado Sperling no permitía a los sujetos que movieran la cabeza ni que produjeran movimientos oculares y eso no es lo que el sujeto hace en su vida cotidiana, no sólo mueve la cabeza y se producen transformaciones de la imagen retiniana sino también su cuerpo. Conclusión: a lo mejor los resultados eran un artefacto experimental, un fenómeno de laboratorio.

  • Almacén ecoico:

    Uno de los datos que apoyaban su existencia era el “efecto sufijo”, implicaba un efecto de modalidad que sólo se producía con información auditiva. Datos posteriores van a poner de manifiesto que aparece un efecto de modalidad a largo plazo y que puede este efecto ser suprimido por un efecto sufijo, si esto es así pondría en tela de juicio la existencia de este almacén ecoico.

    También van a aparecer datos de que el efecto sufijo aparece cuando la presentación de la información no es puramente auditiva, cuando es articulada o vocalizada por el experimentador o por el propio sujeto también aparece este efecto. Cuando se da una lectura labial de la información también aparece e igualmente aparece cuando se leen signos del lenguaje de los sordos. Por tanto todos estos datos parecen indicar que el efecto sufijo no es exclusivo de la modalidad auditiva, si esto es así el dato experimental que apoyaba este almacén ecoico se pone en entredicho.

    Como resumen a los almacenes sensoriales. Su existencia no va a ser muy aceptada por muchos autores y no va a ser aceptada la idea de que los almacenes sensoriales responsables de la información auditiva visual sean las primeras fases del sistema de memoria.

    A.C.P. y A.L.P. :Críticas:

    1.- Capacidad: la del ACP era limitada, la del ALP ilimitada; la capacidad del almacén a corto plazo estribaba en:

    Estímulos Sílabas Palabras Chunks Sílabas por chunks

    Una sílaba 7 7 7 1

    Dos

    Sílabas 14 7 7 2

    Tres

    Sílabas 18 6 6 3

    Frases (2

    Palabras) 22 9 4 5.5

    Frases (8

    Palabras) 26 22 3 8.7

    Simon: Estudia la idea de Chunks de Miller y demuestra que el número de chunks que puede recordarse varía en función del material que se presenta y de lo que se mida. Cuando los estímulos son distintas palabras formadas por distintas sílabas (manipula el tipo de material: palabras o frases) el número de chunks va a ser distinto y lo que recuerda el sujeto puede ser distinto. Cuando los estímulos comprenden elementos de una sílaba el número de sílabas recordadas será 7, el número de palabras recordadas también serán 7 y el número de chunks también será 7. Cuando los estímulos comprenden 3 sílabas el número de sílabas aumenta a 18, el de palabras baja un poco y el de chunks también baja. El mejor rendimiento en términos de número máximo de sílabas y palabras recordadas ocurre cuando son frases formadas por ocho palabras y el peor rendimiento cuando se mide el número de chunks también son frases formadas por ocho palabras. Esto indica que la capacidad sigue siendo limitada pero es variable en función del material que el sujeto tiene que aprender y de lo que se mida: palabras recordadas o número de chuncks. Cuando se medía la capacidad del almacén a corto plazo con el efecto de ultimidad la capacidad era más pequeña: apoyaría lo que dice Simon; eso no quita que siga siendo limitada pero a lo mejor no es tan estricta como decía Miller.

    2.- Codificación: Los datos mostraban que la codificación en el almacén a corto plazo era auditiva - verbal - lingüística y en el almacén a largo plazo era semántica. Datos posteriores van a mostrar que no es así:

    Shepard y Metzler (1971): demuestran que la codificación en el almacén a corto plazo también es visual, para ello presentan a los sujetos un par de figuras geométricas que se distinguen: par A, figuras físicamente idénticas pero una está girada 80 grados con respecto al plano; par B, físicamente idénticas pero una está girada 80 grados en profundidad; par C, son dos figuras no físicamente idénticas. Medía el tiempo de discriminación y preguntaba a los sujetos si en cada par había una congruencia entre los dos miembros, encontró que el tiempo de reacción aumentaba linealmente en función de la diferencia angular: los sujetos tardaban menos tiempo en encontrar esa congruencia con respecto al par A que al B. La estrategia era rotar mentalmente un miembro del par hasta dejarlo como estaba el otro. Este experimento mostraría que la codificación en este almacén a corto plazo también es visual.

    Datos posteriores van a mostrar que se produce una codificación semántica a corto plazo y auditiva a largo plazo y por tanto la codificación es la misma tanto a corto plazo como a largo plazo y no tiene sentido por tanto hablar de almacén a corto plazo y almacén a largo plazo con respecto al menos a esta característica.

    Peterson y Peterson: el mecanismo responsable del olvido a corto plazo es el desvanecimiento, se replica el experimento y se ve que el rendimiento de los sujetos en la tarea de recuerdo de las tres letras y en la tarea distractora no es el mismo: se interpreta en términos de interferencia: el rendimiento no es el mismo porque una tarea está interfiriendo en la otra: el mecanismo responsable a corto y largo plazo es el mismo.

    Primacía Ultimidad

    ALP ACP

    Dato empírico que apoya la distinción entre ambos almacenes: curva de posición serial.

    Se trata de buscar variables experimentales que afecten a uno y no a otro: variables que afectan al efecto de primicia y no al de ultimidad:

    • Longitud de la lista

    • Tasa de presentación de los elementos

    • Frecuencia de las palabras

    • Significado

    Variables que afectan al efecto de ultimidad y no al de primicia: Un intervalo de retención largo (lectura de Craik): presenta varias listas a los sujetos y después de cada una le pide que lo recuerden y encuentra los dos efectos. Añade un “recuerdo final”, después de presentar todas las listas les pide a los sujetos que recuerden todas las palabras; suprimía el efecto de ultimidad: efecto de ultimidad negativo, permanece el de primicia, pero los sujetos no recuerdan los últimos elementos de cada lista, apoya la distinción entre almacén a corto plazo y almacén a largo plazo.

    Si no hubiera efecto de ultimidad:

    Primicia Ultimidad

    ALP ACP

    Datos posteriores van a mostrar que hay un efecto de ultimidad a largo plazo con tareas distractoras, si es así la intervención del almacén a corto plazo desaparece.

    Otros datos muestran un efecto de ultimidad cuando se presentan palabras agrupadas en categorías distintas y ese efecto de ultimidad aparece con cada una de las categorías presentadas: en contra de la existencia del almacén a corto plazo porque el efecto de ultimidad y porque la codificación era verbal - auditiva - lingüística.

    6.6.2.- Datos clínicos: Mayes *:

    En los años ´60 el estudio de la memoria se hacía en el ámbito de los laboratorios.

    Una de las aportaciones claves es la de la neuropsicología cognitiva: pacientes que no pueden recordar (amnésicos).

    Uno de los problemas es describir el término de amnesia, ver si es un deterioro y un déficit único, o si comprende varios déficits cognitivos. Distintos autores categorizan la amnesia de distinta manera: en función de su origen (consecuencia de ...); otros autores en función del área del cerebro que se supone dañada (lóbulos temporales, parietales o frontales); otros de manera funcional, en función de un déficit de memoria puro (puede ser cierto en unos pacientes pero no necesariamente en otros). [En la antigüedad los pacientes de demencia senil, no se comportaban por igual, pudiendo tener diferencias significativas sobre la región dañada].

    Los estudios basados en localizaciones tenían la pega de no poseer técnicas exactas para el estudio (aún sigue pasando).

    Tiene más precisión hablar de síndrome amnésico más que amnesia.

    Los pacientes caracterizados por funcionalidad, son pacientes puros, pero escasos, por lo que es difícil su estudio.

    Dentro de la amnesia se podría clasificar:

  • Amnesia temporal: postraumática (accidentes de circulación, y se puede perder la conciencia recuperándola lentamente). Grandes dificultades para determinar dónde están y carencia de personalidad temporal (mal carácter e irritable).

  • Amnesia retrógrada: si una persona sufre una pérdida de memoria de sucesos anteriores a la lesión.

  • Amnesia anterógrada: si se sufre pérdidas de memoria de sucesos posteriores a la lesión cerebral.

  • Uno de los pacientes más importante en el estudio de la memoria fue H.M.: padecía ataques epilépticos, y el médico Scoville la operó en 1953 a los 27 años. A partir de los 60 se comenzó a recoger datos a cargo de Milner. Se acabaron los ataques pero le fueron extirpados los lóbulos temporales tocándole el hipocampo, y produciéndole una profunda amnesia anterógrada y no era capaz de aprender nada, mientras que podía recordar cosas anteriores a la operación. Tenía problemas para almacenar nueva información en el almacén a largo plazo, mientras que acontecimientos de su infancia sí eran recuperables.

    Su almacén a corto plazo era totalmente normal si la prueba era inmediata, se recordaba: podía conversar con él e incluso la lectura, pero si se le distraía (tarea distractora) no podían continuar.

    Apoyaba la distinción entre ALP y ACP.

    El paciente Korsakoff presentaba el mismo deterioro a largo plazo.

    Estos sujetos amnésicos muestran una incapacidad para almacenar información a largo plazo, pero no para recuperarla (no consolidan sus huellas de memoria).

    Con estos datos aportaron que tenían sustratos distintos en la MLP.

    En los años ´70 surgen nuevos datos con el mismo H.M.. Con respecto a otros pacientes: K.F. en Inglaterra, y estudiado por Warrington y Sharon, presentaba déficit en la memoria a corto plazo, es decir, no podía retener tareas que implicaran un almacén a corto plazo, no así en las de almacenado a largo plazo. Este sujeto presentaba una lesión en el lóbulo parietal izquierdo (mientras que otros lo presentaban en los lóbulos frontales).

    La información puede entrar en el almacén a largo plazo cuando parte del ACP está profundamente dañado (en contradicción con Atkinson y Shiffrin)

    Una posibilidad sería que el ACP no tuviera un único componente, sino que estuviera formado por varios, y aunque se dañara un componente podría seguir rindiendo.

    Surgen datos que demuestran que sujetos con amnesia anterógrada podían ejecutar tareas perceptivo-motoras y la evaluación era distinta, de manera que se evaluara con tareas indirectas, los sujetos tenían igual rendimiento que los sujetos control. Esto implica que los datos de que H.M. tuviera dañado, no era del todo cierto, porque podía aprender a realizar una serie de tareas (cortar el césped), quizás por no tener conciencia de que se estaba realizando dicha tarea.

    Se pone en tela de juicio el modelo multialmacén de Atkinson y Shiffrin.

    6.6.3.- Problemas teóricos: ¿Estructura o procesos?:

    ¿Qué es lo que pasa? A partir de los años 70 que se comienzan las críticas al modelo multialmacén.

    En realidad nada, pues se sigue manteniendo la misma concepción.

    Unos creen en un almacén sensorial, y otros siguen el modelo multialmacén.

    Otros autores se mantienen en una concepción unitaria (sistema único) reformulando de forma global la concepción múltiple y proponiendo “niveles de procesamiento” en la codificación.

    Otros hacen reformulaciones parciales: o bien el ACP, proponiendo diferentes componentes de este almacén (la memoria en funcionamiento o memoria operativa - Modelo de Baddeley) Propone tres componentes.

    Otros autores reformulan el almacén a largo plazo, y proponen diferentes sistemas, habiendo un almacén responsable de la memoria episódica (que ha vivido el propio sujeto) en contraposición a una memoria semántica (conocimiento del mundo en general, así como el lenguaje). Una conjunción entre memoria episódica y memoria semántica. Y la memoria implícita (implica que el sujeto no es consciente de lo aprendido anteriormente).

    Tema 7: LA MEMORIA EN FUNCIONAMIENTO O MEMORIA OPERATIVA: EL MODELO DE BADDELEY.

    7.1.- El lazo articulatorio.

    7.2.- La agenda viso - espacial.

    7.3.- El efecto central.

    Bibliografía:

    Sebastián (1983) “Lecturas de Psicología de la memoria”. Alianza Universidad Textos 1991: Mitch y Baddeley. Cap. 24.

    Sebastián, M.V. (1992) “La memoria ¿si o no?”. Madrid. Alhambra, Longman Cap.5.

    Baddeley, A.D. (1998) “Memoria humana: teoría y práctica” : Madrid: Mc Graw Hill caps, 4,5 y 6.

    Baddeley va a demostrar que la memoria en funcionamiento es necesaria en tareas cognitivas como resolución de problemas, cálculo mental, lenguaje, etc.

    Baddeley y Cols critican a los modelos multialmacén por estar prácticamente centrados en la estructura, y ponen el énfasis en procesos de procesamiento y limitaciones y el papel de la atención para ejecutar en éxito la tarea.

    La memoria en funcionamiento en vez de estar formada por un único componente, lo va a estar por tres:

    • Lazo articulatorio

    • Agenda viso - espacial

    • Ejecutivo central (tiene la función de controlar los otros dos).

    7.1.- LAZO ARTICULATORIO:

    Según Baddeley lo considera de repaso verbal, y su misión es de organizar la información de forma serial y temporal. Cuando tratamos de recordar un número para poder marcarlo utilizamos el lazo articulatorio. El objetivo es mantenerlo activo con este repaso para poder marcarlo (número de teléfono).

    Está formado por dos componentes:

    • Almacén fonológico (estructural).

    • Proceso de control articulatorio (habla subrocal) (repaso articulatorio - Baddeley).

    Las huellas de memoria se borran y no pueden recuperarse

    A partir de aproximadamente 2 segundos pero no niega que pueda. Mantenerse gracias al repaso en voz baja o subvocal. Este proceso podría manejar material escrito, transformándose a un código fonológico.

    La existencia de este componente se demuestra:

  • Primer dato empírico: efecto de la similitud fonológica: parecido que existe entre dos sonidos afectando al modo en el que el sujeto lo recuerda. Lo que se pide al sujeto es recordar en el mismo orden palabras de similar sonoridad. El efecto se produce por ser más difícil recordar elementos como b-p que b-j por tener diferencias articulatorias. El almacén fonológico está basado en un código fonológico, cabría esperar que b y p tuvieran características similares y es difícil distinguir dos huellas similares. Los sujetos tienen un rendimiento más bajo cuando tienen que recordar elementos similares fonológicamente en el mismo orden.

  • Segundo dato empírico: efecto del habla no atendida: fenómeno que acontece cuando una distracción no permite la atención al habla produciendo un deterioro del aprendizaje. Es decir, por ejemplo si hay murmullo en una clase no se atiende bien a la explicación de profesor, no recordando bien lo que dice. El ruido de fondo del motor del frigorífico, es menos perjudicial que el de las voces. Hay datos experimentales que demuestran que estudiar con música (cualquier tipo) genera un deterioro del aprendizaje del material, habiendo distintas escalas de deterioro, según el tipo de música (música clásica produce un deterioro menor que otros tipos de música, pero lo produce). Estos datos empíricos hay que matizarlos con la experiencia personal del sujeto. El daño es menor en sujetos con una familiaridad musical; así como el tipo de cultura (la mediterránea es más escandalosa que las culturas nórdicas). En resumen, el estudiar con música deteriora el rendimiento de un sujeto en una tarea de memoria.

  • Tercer dato empírico: efecto del tamaño de la palabra: una característica es la capacidad limitada del lazo fonológico, por tanto uno de los factores que determinen la amplitud de memoria va a ser la duración de las palabras. Los sujetos recuerdan mejor palabras de una sílaba (pan, bar...) que palabras con varias sílabas. La amplitud de memoria del almacén fonológico está determinada por el número de palabras que pueda decir por dos segundos (los datos apoyan este efecto). Los sujetos pronuncian más rápidamente sílabas del interior de una palabra que sílabas que son palabras (es más rápido “silla” que “si ya”).

  • Cuarto dato empírico: supresión articulatoria: se le pide al sujeto que articule un material relevante como puede ser el artículo “el” mientras que se presentan dígitos. Al realizarlo se encuentra que su recuerdo es menor que cuando tienen que recordar sin repetir el artículo, porque impide que repasen los elementos a recordar, por tanto se suprime el material que tienen que recordar. Esto se explica a que la supresión articulatoria por un lado interrumpe la codificación fonológica y por otro que los elementos almacenados no pueden ser refrescados y por tanto se olvidan.

  • Quinto dato empírico: los datos de la neuropsicología: el paciente K.F. sólo podía recordar dos dígitos, pero no tenía problemas a largo plazo. Posteriormente se comprobó que además de su pequeña amplitud, tenía un efecto de ultimidad muy reducido (“recencia”). También, que en una tarea de Peterson presentaba un olvido muy rápido. Todo esto se interpreta por tener deteriorado el almacén fonológico y por ello su memoria era tan pobre. Baddeley encuentra en el paciente P.V. que por un accidente cardiovascular tenía dañado el lóbulo parietal izquierdo tenía un deterioro en tareas de corto plazo, al igual que K.F. (dos dígitos), pero con la prosa era igual que los sujetos control. Se apoya la idea de que este paciente tenía deteriorado el lazo fonológico.

  • Una de las líneas de investigación en que este modelo ha tenido importancia es el aprendizaje de lectura.

    En niños normales, pero con problemas en lectura (no se sabía que es un disléxico), se han hecho estudios sobre estos niños con retraso lector. Estos tenían un problema en el lazo fonológico, según Baddeley y por eso este modelo ha tenido influencia porque otros modelos no daban una causa en deterioro de memoria (baja amplitud o no hay repaso).

    Lazo fonológico

    Almacén fonológico proceso de repaso articulatorio

    Efecto de similitud efecto de tamaño de la

    fonológica palabra

    la supresión articulatoria

    Los problemas metodológicos: al tener que (1) utilizar un método de clasificación de retraso lector subjetivo (los profesores), se necesitaba un material baremado (que ya lo hay), para no hacerlo a ojo; además (2) hay que utilizar una muestra de niños que no tengan otro problema subyacente (pasar test de inteligencia, etc.) para no contaminar los datos; además (3) hay que usar un diseño de edad compensada y no simple.

    Curso EGB Nivel lector

    Normales 3º 3º

    Retrasados 3º 1º

    Jóvenes 1º 1º

    Se compensa la edad con el nivel lector, así se sabe la causa, si es por edad, o por nivel lector. (4) además la forma de corregir el rendimiento de los sujetos:

    Si se presenta león, pero lee peón; y luego recuerda peón n hay que penalizarle, porque es consistente con lo que aprende y recuerda.

    Los resultados muestran, por una parte, que los niños retrasados en lectura de tercero tienen una amplitud del almacén fonológico menor y se mantiene cuando se utilizan distintos tipos de material, por otro lado estos, utilizan menos que los normales, el repaso, es decir, tienen menor capacidad de repasar la información a retener, y además, tienen una sensibilidad menor a la similitud fonológica teniendo problemas tanto del almacén fonológico como del repaso articulatorio. Estos datos no son tan claros, habiendo problemas metodológicos, ya señalados.

    Experimentos españoles:

    1.-Se quería ver si los sujetos retrasados, utilizando una tarea de Peterson, podían repasar el material a recordar. Había dos grupos experimentales, a uno se le pedía que contaran números hacia atrás y al otro grupo se les permitía que repasaran la información. El material se manipulaba (nombres de animales o sílabas sin sentido), siendo la presentación visual.

    Diseño mixto 3x2x(2x5):

    3:grupos lector (normales, jóvenes, retrasados).

    x

    2: repaso y Peterson.

    x

    (2: intersujeto

    x

    5): tipo de material

    Los resultados arrojados fueron:

    LN LJ LR

    Los tres grupos recuerdan mejor el material de animales que el de sílabas sin sentido, y los tres tienen un mayor rendimiento cuando se les permite repasar que con Peterson, pero no se encontraron diferencias entre grupo lector.

    2.-se probó la amplitud de memoria con los mismos sujetos, manipulando el material (dígitos, animales, palabras sin sentido) pero de manera auditiva. 3X(3X5)

    Las únicas diferencias apreciables son dígitos (primera columna de cada grupo ) y animales( segunda columna de cada grupo) por un lado y sílabas sin sentido por otro (tercera columna).

    Se concluye que los tres pueden usar repaso, y los 3 recuerdan mejor el material cuando tiene significado, pero no se confirma que haya una amplitud menor en lectores retrasados.

    Podía ser que: los lectores retrasados podían tener un código fonológico distinto a los normales.

    3.- los sujetos deberían de acceder a una representación y entre dos sonidos decidir si se parecen o no acústicamente.

    Pa------ba

    Pa-------cha

    Decidir por escrito cuáles se parecían más.

    Se cogieron cuatro grupos de sujetos:

    • Universitarios

    • 3º E.G.B.

    • 1º E.G.B.

    • Lectores retrasados.

    Se encontró que en los lectores retrasados, se hacía al azar, y se concluye que los otros lo hacían de acuerdo a unos criterios fonológicos mientras que los lectores retrasados no lo hacían (tenían criterios distintos). Por lo que se concluye es que puede imperar lo visual aunque se muestre el material acústicamente.

    4.- a otros grupos, se quitaba la sílaba “cha” por ejemplo y se presentaba visualmente:

    p------b

    p-------t

    Los datos arrojados eran totalmente distintos a los anteriores. Se daba un acorde de respuestas entre todos los grupos. Por lo que no hay problema visual, sino de código fonológico (siendo distinto al resto de sujetos).

    La causa del retraso lector, según Baddeley era del lazo fonológico, pero era más del código de amplitud, sin haber problemas en la amplitud, ni en el repaso.

    7.2.- LA AGENDA VISO-ESPACIAL:

    El segundo componente según Baddeley es la agenda viso-espacial, compuesta por: almacén visoespacial y control de la agenda visoespacial.

    La información es distinta en la agenda visoespacial, centrando visualmente y/o espacial. Podemos almacenar esta información y manipularla. Los datos señalan la existencia de estas características.

    7.3.- EJECUTIVO CENTRAL:

    Componente más importante según Baddeley, aunque es el menos estudiado.

    Se usa en cualquier tarea, pero el sujeto tiene que poner atención sobre la información a procesar, aunque sea presentada de cualquier forma.

    Baddeley incorporó el modelo de Shallice (SSA: Sistema de supervisión atencional) al componente del ejecutivo central, siendo éste el que controle cuando los otros dos componentes fallan, y para controlar la acción del sujeto. No es automático, sino que el sujeto lo controla de manera consciente.

    Se relaciona con pacientes de síndrome de lóbulo frontal, manifestando que no pueden usar el ejecutivo central, y por eso son pacientes que tienen el síndrome del desejecutivo; incapaces de planificar acciones, y son terriblemente distraídos, pero a su vez muy reiterados, es decir, realizan de forma repetida la misma acción, o reproducen la información muchas veces.

    Los datos que apoyan esta conducta se basan en sujetos alzheimer (aunque no tengan dañado el lóbulo frontal), ya que también manifiestan este síndrome, porque cuando les pides que reproduzcan una tarea, son terriblemente reiterativos (les cuesta mucho cambiar de tarea). Manifiestan el síndrome pero no todos tienen problemas en el lóbulo frontal. También lo sujetos alzheimer tienen problemas en realizar una doble tarea, teniéndose que comparar con sujetos sanos, de la misma edad y formación.

    Se utilizan tres tipos de sujetos:

    • Alzheimer

    • Controles, sanos (misma edad y educación).

    • Grupo de universitarios.

    Se midió la amplitud de memoria; uniéndolo con la tarea doble de poner una cruz en todos los cuadrados de una hoja cuadriculada (muy repetitiva) y a la vez se le iban diciendo dígitos en función de su amplitud. Si no podían realizarlo es que su ejecutivo central estaba dañado.

    Los datos arrojaron que sí hay diferencia significativa entre alzheimer y control, habiendo diferencias entre los tres grupos en amplitud de memoria.

    Con respecto al intervalo de retención se cumple Peterson en alzheimer pero no en los otros grupos.

    Tanto tareas como grupo son significativos, pero la interacción no lo es, teniendo un peor rendimiento en tareas dobles que en únicas.

    Con respecto a dígitos, la tarea y la interacción eran significativos pero los grupos no, siendo llamativo que los alzheimer tuvieron un porcentaje parecido a los otros grupos.

    Es uno de los modelos actuales de memoria más activos e importantes.

    Críticas:

    Posible relación de este modelo de memoria operativa con el aprendizaje a largo plazo: el sujeto puede recoger información almacenada en el aprendizaje a largo plazo y lo puede llevar a esta memoria operativa. Baddeley no estudia el aprendizaje a largo plazo pero como hay que dar por supuesto que existe hay que señalar las posibles relaciones entre ambos. Ya no se habla de aprendizaje a corto plazo y a alargo plazo sino de memoria operativa y de los otros almacenes.

    Tema 8: MEMORIA EPISÓDICA

    8.1.- Distinción entre memoria episódica y semántica

    8.2.- almacenamiento en la memoria episódica:

    8.2.1.- Profundidad de procesamiento: la teoría de niveles de procesamiento (Jacob y Craik*)

    8.2.2.- Organización en el almacenamiento

    8.2.3.- Reglas mnemotécnicas.

    8.3.- Recuperación de la información episódica:

    8.3.1.- Organización y recuperación.

    8.3.2.- Factores o variables que afectan al sistema de memoria.

    8.3.3.- la memoria dependiente del contexto.

    8.3.4.- Distinción entre información disponible y accesible.

    8.4.- Procesos de memoria en el recuerdo y el reconocimiento (Mandler*).

    BIBLIOGRAFÍA:

    Sebastián, M.V. (1983) “Lecturas de psicología de la memoria”. Alianza Universidad Textos, 1991.

    81.- Soto y Sebastián. Capítulo 15

    8.2.1.-Jacoby y Craik. Capítulo 22

    8.2.2.- Tulving capítulo 12

    8.2.3.- y 8.3.- Sebastián, M.V. (1992). “La memoria ¿si o no?”. Madrid: Alhambra. Longman. Capítulos 3 y 4.

    8.4.- Mandler * capítulo 14.

    8.1.- DISTINCIÓN ENTRE MEMORIA EPISÓDICA Y SEMÁNTICA:

    En 1973 Tulving hace una distinción: almacenamos dos tipos de conocimiento en el almacén a largo plazo que son distintos:

  • Implica un conocimiento individual de lo que llama memoria episódica = recuerdos que tenemos de acontecimientos experimentados personalmente; implicaría una memoria autobiográfica del propio sujeto. Ejemplo: recordar nombres de profesores de segundo, lo que cenaste el jueves pasado.

  • Muy general: memoria semántica. Implica el conocimiento del mundo en general, estaría incluido el propio lenguaje, conocimiento de conceptos, etc. Ejemplo: saber cómo se escribe pájaro, qué es un pájaro y que jilguero es un ejemplar típico de pájaro y pingüino poco típico.

  • Esta distinción implica sistemas de memoria distintos, serían sistemas de memoria independientes, pero estarían relacionados.

    Polémica sobre si estos conocimientos distintos implican o no sistemas de memoria distintos. Muchos autores no están de acuerdo.

    Si es verdad que en esos años esa distinción ayudó a ordenar la experimentación en memoria. Muchos autores más que concederle a la distinción un valor teórico le conceden un valor heurístico.

    En términos modernos la memoria episódica implicaría una recolección explícita de la información, lo hace de forma consciente.

    Vamos a ver variables que ayudan tanto al almacenamiento como a la recuperación de la información en la memoria episódica.

    Variables que ayudan al almacenamiento. Cómo almacenamos nueva información en la memoria episódica para que en un futuro podamos acceder a ella. Tendría sentido examinar los posibles procesos de almacenamiento. El proceso por excelencia sería el de repaso o repetición: toda la enseñanza tradicional se ha basado en él.

    Otras teorías más modernas piensan que para que el sujeto almacene mejor la información estaría en función del nivel de análisis que hace de esa información, si la codificamos a niveles más profundos la recordaremos mejor.

    Hay datos que muestran que las reglas mnemotécnicas (asociar la información que tiene que recordar el sujeto con rima o imágenes mentales o la mejor estrategia que tenga) implica que el sujeto tendrá que hacer una reflexión sobre sus propias estrategias de memoria (metamemoria). La organización va a desempeñar un papel clave no sólo para almacenar la información sino también para recuperarla.

    8.2.- ALMACENAMIENTO EN LA MEMORIA EPISÓDICA:

    8.2.1.- Profundidad de procesamiento: la teoría de niveles de procesamiento (Jacob y Craik*):

    Entre la teoría de niveles de procesamiento se supone que es una alternativa a los modelos multialmacén, los pretenden reformular de forma global. Tratan de relacionar el sistema de memoria con otros procesos cognitivos como por ejemplo la atención.

    Críticas de los modelos multialmacén: son una simplificación de la concepción del sistema de memoria.

    Más que tener limitaciones estructurales, van a proponer que las limitaciones deben ser de procesamiento, ¿cuántas operaciones puede realizar el sujeto por unidad de tiempo? La limitación temporal si es que la hay va a depender del tipo de material, de lo que exija la propia tarea, esto implica que habrá tareas que impliquen unos tipos de procesamiento y otras otros tipos de procesamiento. El sistema de memoria deberá concebirse como un continuo: van a concebir el sistema de memoria como un sistema unitario; será un continuo de niveles de procesamiento.

    Superficiales profundos

    Habrá niveles más superficiales: en ellos se va a codificar la información en función de sus características físicas (brillo, tono, etc) y habrá unos nieveles más profundos en los que analiza características más abstractas, aspectos relacionados con el significado, semánticos.

    Esto implica que las huellas de memoria estarían en función del tipo de análisis o nivel de codificación que haga el sujeto y por tanto cuando la información se analice a niveles más profundos las huellas serán más fuertes y durarán más tiempo, cuando sean más superficiales serán más débiles y durarán menos.

    Hacen una distinción entre los tipos de repaso:

    • De mantenimiento

    • De elaboración

    Repaso de mantenimiento: repetición continua del material que se los presenta y no supone que los recuerdos posteriores sean más fuertes o más permanentes. Función fundamental: el sujeto va a tener disponible, va a poder mantener la información disponible en su memoria. Con este tipo de repaso lo que el sujeto fundamentalmente va a procesar vana ser los aspectos fonéticos de esa información, en la misma línea del modelo anterior del lazo fonológico. Ejemplo: repetir un número de teléfono mientras que lo marcas.

    Repaso de elaboración: procesamiento más profundo de la información, va a provocar recuerdos que van a durar más tiempo. Se centra fundamentalmente en aspectos semánticos de la información.

    Craik y Lockhar (1972): señalan que estos dos tipos de repaso están bajo el control del sujeto, el sujeto lleva un control deliberado cuando realiza estos dos tipos de repaso, pro tanto el sujeto es consciente y la atención estaría implícita.

    Estas ideas de estos autores todavía no se pueden considerar teoría porque no hay datos empíricos, habría que considerarla una hipótesis. Al principio reinterpretan datos que ellos mismos habían encontrado: ejemplo curva de posición serial, efecto de primicia: los sujetos procesan esos elementos a un nivel más profundo, efecto de ultimidad:: el tipo de procesamiento que hace el sujeto es superficial y las huellas de memoria son transitorias; dicen esto porque cuando Craik pedía a los sujetos el recuerdo final de todas las palabras este efecto de ultimidad desaparece (efecto de ultimidad negativo). Lo que no se entiende es que el efecto de ultimidad implica que los sujetos tenían un buen recuerdo, ¿un nivel de análisis superficial también provoca un buen recuerdo?. Implica contradicciones al intentar explicar su hipótesis.

    Craik y Tulving:

    Diferentes niveles:

  • Estructural: MESA ¿Está escrita en mayúsculas o minúsculas?.

  • Fonética: ¿rima con pesa?

  • Categórico: ¿es un ejemplar de artículo mobiliario?

  • Semántico: el niño está escondido debajo de la .......

  • Los experimentos para comprobar si esta hipótesis se cumple o no los hicieron Craik y Tulving. Manipulan los distintos niveles de procesamiento con una tarea de aprendizaje incidental. Se supone que el nivel estructural implicaría un nivel superficial, fonético menos superficial, categórico y semántico más semántico que los anteriores, semántico es el más semántico porque tiene que tener en cuenta el contexto.

    No se les dice que van a tener una prueba de memoria que puede ser de recuerdo libre o de reconocimiento. Además de medir la precisión de recuerdo o reconocimiento también miden el tiempo de reacción; hay dos llaves, una para respuestas afirmativas y otra para negativas, medían lo que tardaban en responder a cada pregunta.

    Encuentran que tanto el recuerdo como el reconocimiento variaba según el tipo de nivel, tenían mejor recuerdo con el semántico que con el categórico, con el categórico que con el fonético, los que peor recordaban eran los del nivel estructural.

    Apoyaban la idea de niveles de procesamiento: mayor nivel mejor recuerdo. Tiempo de reacción: aumentaba también en función del nivel, los del nivel semántico implicaban un mayor tiempo de reacción que los del nivel estructural, semántico mayor que categórico, categórico más que fonético. Combinando ambos resultados: mejor recuerdo más tiempo.

    El tiempo es el índice de profundidad de análisis.

    Otros experimentos realizados por los mismos autores no van a apoyar la idea de profundidad de procesamiento por ejemplo las preguntas sobre rima (fonético) y encaje de frases (semántico) daban lugar a distintos tipos de recuerdo pero no implicaban diferencias en los tiempos de reacción. Había diferencias entre las respuestas afirmativas y negativas, las primeras los sujetos las recordaban mejor que las negativas, esto iría en contra de la hipótesis porque no esperaban encontrar diferencias intranivel. Estas diferencias intranivel no implicaban diferencias en los tiempos de reacción. Por tanto esto parece indicar que el tiempo no era un buen índice de procesamiento.

    Para investigar esta hipótesis hicieron otros experimentos en los que van a comparar preguntas de nivel semántico con preguntas de nivel estructural: les preguntaban cómo estaba formada una palabra en relación a vocales y consonantes. Ejemplo: si la palabra es LEON, la estructura es C(consonante) V(vocal) VC. Miden tiempo de reacción y en este caso una tarea de reconocimiento. Los resultados muestran que el tiempo de reacción en la tarea estructural era dos veces mayor que el tiempo de reacción del nivel semántico; pero curiosamente el reconocimiento era mayor con el nivel semántico que con el nivel estructural, por tanto estos últimos datos indicaban que el tiempo de reacción no era el índice de profundidad de procesamiento.

    Preocupados por estos datos y por las diferencias entre las respuestas afirmativas y negativas la hipótesis que tenían era que podría ser que las respuestas afirmativas el sujeto las elaborara más que las negativas, y por tanto van a proponer dos principios que van a estar relacionados con la codificación y que de algún modo van a ser complementarios:

    • Principio de elaboración: proceso que nos va a permitir poner en relación la información que tenemos ya almacenada en nuestro sistema de memoria de una forma permanente con la información que se nos presenta nueva. Hipótesis: cuanto mayor sea la elaboración mejor será el recuerdo. Proponen un principio cualitativo.

    • Principio de singularidad o distintividad: se refiere al grado con el que identificamos como distintas dos informaciones, cuando hacemos esto tendremos un mejor recuerdo. Esto implica que cuando codificamos una información esa codificación deberá dar lugar a huellas únicas o distintivas porque si esa información que hemos codificado tiene rasgos comunes se va a convertir en poco distintiva o singular y por tanto nos va a costar más recuperar esa información posteriormente. Los experimentos de la lectura apoyan esta idea. Problema ¿cuál es el índice de esa distintividad? Muchos autores piensan que ha habido mucho cambio de nombre pero el problema sigue siendo el mismo. algunos autores lo ponen en relación con el esfuerzo cognitivo: la capacidad de procesamiento que es necesaria para poder realizar una tarea concreta, el mayor esfuerzo que realiza el sujeto implicará un mejor recuerdo pero no tiene que ser necesariamente en términos de tiempo.

    Otro problema. Un procesamiento profundo semántico lleva siempre un mejor aprendizaje y un mejor recuerdo o que dura más tiempo, para rebatir esta idea Morris y Bransford (1977) realizan una serie de experimentos en los que los sujetos tenían que llevar a cabo análisis profundos o superficiales sobre una lista de palabras, eran pruebas de memoria o de reconocimiento en función de la rima: tenían que seleccionar palabras que rimaran con palabras que habían visto anteriormente. Los resultados muestran que con la primera prueba se cumple la hipótesis de la teoría de un procesamiento más profundo que implica un reconocimiento mejor que uno más superficial, pero con la segunda prueba obtienen un resultado opuesto: un procesamiento profundo no siempre conlleva a recuerdos que duren más tiempo. Cómo lo explican: es necesario tener en cuenta la relación entre codificación y recuperación: cuando se nos presenta una lista de palabras podemos realizar distintos tipos de procesamiento y lo que recordamos sobre ese tipo de procesamiento va a estar en función de la prueba de memoria que tenemos que llevar a cabo, cuando tenemos que procesar el significado de la palabra porque hemos hecho procesamientos profundos cuando la tarea de memoria es de rima es irrelevante para lo que hemos hecho antes, si tenemos que codificar la información a un nivel superficial, la prueba de reconocimiento sobre rima será relevante para lo que hemos hecho antes y por eso se encuentra esa interacción.

    Principio de transferencia apropiada de procesamiento: lo siguen estos resultados: es decir, las condiciones de estudio o aprendizaje van a favorecer el rendimiento del sujeto en pruebas de memoria posteriores y la condición es que esas pruebas de memoria deberán permitir la transferencia del conocimiento que se ha obtenido en la fase de aprendizaje: es una crítica: que solamente se centra en la fase de codificación y no tiene en cuenta la de recuperación, en los estudios de memoria tienes qque tener en cuenta ambas fases.

    Otras de las críticas que se han hecho es que el supuesto en el que se basa es circular: parte de que los niveles más profundos de procesamiento cconllevan a un mejor recuerdo y cuando hay mejor recuerdo lo atribuyen a un nivel más profundo de procesamiento. No parece haber un método independiente para determinar antes de empezar un experimento si un proceso A por ejemplo es más profundo que B y por eso el argumento es totalmente circular. Ello no quita, siempre y cuando la prueba de memoria sea adecuada , que en teoría un nivel más profundo conlleva un mejor recuerdo y el término o la sustitución por elaboración es importante porque implicaría el tipo de procesamiento que hace el sujeto con esa información. Eso desde el punto de vista histórico era importante.

    La teoría del nivel de procesamiento puso de manifiesto lo importante que era la codificación porque cuando codificamos una información la transformamos de tal forma que nuestro sistema de memoria entienda esa información, la hacemos más legible y que la pueda almacenar ese sistema. No sólo la codificación es importante por sí misma sino también es importante para acceder a esa información. Esa teoría una vez que está bien codificada va a hacer posible que el sujeto pueda recuperarla con mayor facilidad, va a tener consecuencias en el momento de acceder a ella.

    8.2.2.- Organización en el almacenamiento:

    Los primeros estudios sobre organización se refieren a que vamos a procesar una información que puede estar influída por cómo el sujeto organiza esa información.

    Los primeros estudios se refieren a la Gestalt : aunque fue una teoría fundamentalmente clave en los estudios de percepción también tuvo consecuencias en los estudios de memoria: “a lo mejor el hecho de que se presente un material con algún tipo de organización va a inlfuir en que el sujeto lo recuerde mejor”. Trataron de examinar si presentar por ejemplo palabras asociadas entre ellas ayudaba al recuerdo. Lso resultados mostraban que así era, si se presentaban “frío y calor” por separado el sujeto als recordaba juntas. Del mismo modo si se presentaban palabras que pertenecieran a una categoría determinada el sujeto tendía a agruparlas, claramente se manifestaba en su recuerdo, si se presentaban al azar el sujeto formaba un “claster” (agrupamiento).

    Del mismo modo se comprobó qque palabras que evocaban o tenían mayr facilidad para evocar imágenes mentales ayudaba al recuerdo.

    Todos estos experimentos mostraban que el material era seleccionado pro el propio experimentador. Tulving va a mostrar que lo importante es que sea el sujeto el que imponga su propi organización, cómo se demuestra: conjunto de palabras que las recuerda varias veces y hay consistencia en el recuerdo (siemrpe de la misma forma): ha sido el sujeto el que ha impuesto una organización: a esto lo llamó “organización subjetiva”: claramente provoca que el sujeto lo recuerde mejor y por más tiempo.

    8.2.3.- Reglas mnemotécnicas:

    No sólo la organización es importante en la codificación sino también las reglas mnemotécnicas que puede usar el sujeto para recordar mejor una información. Esas reglas mnemotécnicas son: reglas o dispositivos que coje para ayudarle a recordar mejor esa información y que evidentemente va a depender de cada individuo, del conocimiento que tenga el propio sujeto de cómo funciona su memoria ya también de en qué falla su memoria, es lo que se llama “metamemoria”.

    Principios de estos dispositivos:

    • Nos proporcionan una estructura para adquirir cualquier tipo de información y que evidentemente esa estructura implique una gran elaboración.

    Rodolfo no ayuda violentamente a idiotas veteranos”

    Rojo naranja amarillo verde azul índigo violeta

    Tiene que recordar los colores del espectro. Cada inicio de palabra se refiere a un color del espectro, estoy elaborando información. Puedo hacer lo contrario, reducir información, por ejemplo: PP, PSOE, IU. Incluso me lo puedo inventar: Journal of experimental psychology: JEP.

    • Puedo valerme de imágenes visuales, rimas, ritmo o lo de antes y eso va a provocar que vayamos a tener un registro del método que va a durar más tiempo. Implica que el sujeto tendrá que practicar sobre esas asociaciones.

    • Ello nos guiará también a recuperar esa información porque lo que haremos es tratar de buscar claves específicas que nos ayuden a recuperar esa información. El problema de estas reglas es que no te acuerdes de la asociación.

    Hay que señalar que el hecho de que un sujeto tenga mayor facilidad a evocar una imagen visual no es que sea más listo ni más tonto, pero también sabe que en otros dispositivos nos ayudan a cualificar la información y a recuperarla posteriormente.

    Lo que sí está claro es que hasta lo que hemos visto serían estrategias que lleva el sujeto de forma consciente y que el sujeto tiene un control deliberado de esa información.

    8.3.- RECUPERACIÓN DE LA INFORMACIÓN EPISÓDICA:

    La organización no sólo es importante en el momento del aprendizaje sino también va a ser clave en los procesos de recuperación de esa información.

    Algunos autores, entre ellos Baddeley, ha comparado el sistema de memoria con una biblioteca porque cuando cualquier lector necesita algún tipo de información sobre un tema determinado su estrategia será ir a los ficheros de materias y tratar de buscar allí ese tema; además puede cruzar la información entre autores y temas. La búsqueda en ambos tipos de ficheros sería parecido a lo que hacemos en nuestro sistema de memoria, lo que hacemos claramente es buscar claves, la persona que trabaja en la biblioteca será la que tiene mayor facilidad para buscar ese tema porque él mismo la ha organizado, ese conocimiento le va a ayudar para hacer esa búsqueda. Esa organización a nosostros también nos va a ayudar para empezar esa búsqueda.

    Esto implica que si sabemos de antemano dónde iniciar esa búsqueda, hay muchos experimentos que vana mostrar que nuestro sistema de memoria será eficaz en función del estado en el que se encuentra, lo que han hecho es tratar de examinar qué factores o variables pueden influir en el sistema de memoria y claramente han encontrado que los estados de ánimo del sujeto afectan al recuerdo de ese sujeto. Hay datos que muestran que si un sujeto se encuentra triste va a tratar sobre todo de recordar los episodios tristes de su vida, y si está contento lo contrario. Otros estudios han inducido temporalmente estados de ánimo con drogas (también alcohol) y fármacos.

    No sólo nuestra memoria depende de los estados de ánimo sino también del contexto en que aprendemos, cuanto más parecidos los contextos de aprendizaje y memoria mejor rendimiento tiene el sujeto. Estos resultados implicarían que la memoria no sólo depende del estado del sujeto sino también del contexto en que aprende la información.

    Fenómeno de tener algo en la punta de la lengua: Brown y Mc Neill. Sugerían que a veces la información, el sujeto sabe que la tiene disponible pero por las razones que sean no puede acceder a ella y habría que distinguir entre información disponible y accesible. Experimentos para demostrarlo: presentaban definiciones de palabras y que las recordaran, todos los sujetos no podían hacerlo, en una prueba de reconocimiento las reconocían correctamente. Introspectivamente decían que lo que tenían en la punta de la lengua, incluso podían decir por qué letra empezaba y cuántas letras tenía; el sujeto tiene almacenada esa palabra en su sistema de memoria (puede reconocerla y decir por qué letra empieza y de cuántas letras consta). Por eso muchos autores piensan que la información no se pierde de este aprendizaje a largo plazo lo que no está claro es por qué no se puede acceder a ello.

    Otro punto importante es que el sujeto puede buscar indicios o claves para iniciar esa búsqueda, pueden ser desde contextuales hasta temáticos.

    Norman: tenemos la información almacenada en una especie de “mojones” (pivotes de km en la carretera): tenemos la información almacenada en bloques de conocimiento que podrían ser esquemas y lo que tratamos es de iniciar la búsqueda en cada bloque de conocimiento, esos bloques de conocimiento podrían ser temáticos y/o temporales.

    8.4.- PROCESOS DE MEMORIA EN EL RECUERDO Y RECONOCIMIENTO:

    En las investigaciones de memoria se han usado dos procedimientos distintos:

    • Recuerdo

    • Reconocimiento

    Desde el punto de vista metodológico son distintos:

    • Recuerdo: se le pide al sujeto que evoque el material que ha aprendido anteriormente.

    • Reconocimiento: se le pide que identifique el material aprendido cuando se le presenta el nuevo.

    El interés por compara estas tareas se basa fundamentalmente en la observación cotidiana de que generalmente el sujeto obtiene un mejor rendimiento en reconocimiento que en recuerdo y lo que subyace a esta diferencia de rendimiento es si los procesos implicados en una tarea de recuerdo son los mismos o distintos que en una tarea de reconocimiento. La probabilidad de responder de forma correcta en una tarea de reconocimiento es mucho mayor que en una tarea de recuerdo, el sujeto tiene mayor probabilidad de adivinar aunque no lo recuerde en reconocimiento que en recuerdo por las propias características de la tarea.

    Es tal la diferencia que atribuirlo exclusivamente a una adivinación correcta parece muy simple.

    La polémica es si los procesos que están detrás de estas dos tareas son los mismos o no.

    Ha habido fundamentalmente dos hipótesis para explicar las diferencias entre recuerdo y reconocimiento:

    • Hipótesis de un proceso único pero con distinto umbral de la huella de memoria.

    • Hipótesis de dos procesos.

    Hipótesis de un proceso único pero con distinto umbral de la huella de memoria: hipótesis del umbral. Se basa fundamentalmente en cómo está la huella de memoria al realizar la prueba, esto implicaría que una huella de memoria débil sería suficiente para que el sujeto pudiera reconocer un estímulo mientras que en la prueba de recuerdo el sujeto va a necesitar una huella de memoria más fuerte. Esta hipótesis trata de buscar factores o variables que afecten de la misma forma al recuerdo y al reconocimiento, es decir, variables o factores que afecten a una tarea de recuerdo tendrían que afectar de la misma forma a una tarea de reconocimiento. Estuvo vigente durante años hasta que llegó el enfoque cognitivo.

    Hipótesis de dos procesos: era la alternativa. Se basa en que los mecanismos de decisión son los mismos en las dos tareas (recuerdo y reconocimiento) pero la diferencia entre ambos es que la tarea de recuerdo además de un mecanismo de decisión necesita un proceso de búsqueda y ese proceso no es necesario en una tarea de reconocimiento. En una tarea de reconocimiento la decisión se tomaría en función de lo familiar que sea o no esa información; para que pueda identificar esa información como vieja implicaría un alto grado de familiaridad de esa información mientras que la información nueva implicaría que esa información no es familiar para el sujeto.

    En una tarea de recuerdo va a ser el propio sujeto el que va a generar estímulos (palabras) y sólo a partir de esa generación (genera candidatos para luego tomar la decisión de que han sido esas palabras las que ha aprendido) va a actuar el mismo mecanismo de decisión que actúa en el reconocimiento.

    Van a tratar de buscar variables o factores que afecten de modo distinto a ambas tareas.

    Uno de los autores que defienden esta segunda teoría es Kintsch y los datos empíricos que encuentra se refieren a tres variables que van a afectar de forma distinta a recuerdo y reconocimiento:

  • La frecuencia de uso de las palabras: Las palabras más frecuentes eran mejor recordadas que las menos frecuentes mientras que las menos frecuentes eran mejor reconocidas que las más frecuentes.

  • Tipo de aprendizaje: manipula aprendizaje incidental frente a intencional: el aprendizaje intencional provocaba un mejor recuerdo que el reconocimiento; en una tarea de reconocimiento el tipo de aprendizaje no tenía diferencias significativas, no afectaba el reconocimiento.

  • Interferencia retroactiva: provocaba un efecto terriblemente negativo en el recuerdo pero no tenía ningún tipo de influencia en el reconocimiento.

  • Las dos ideas básicas de este autor con estos datos son:

  • El recuerdo implica un proceso de búsqueda que no es necesario para el reconocimiento.

  • Tanto recuerdo como reconocimiento necesitan un proceso de decisión basado en la impresión de lo familiar que sea la información para el sujeto.

  • Si no hay búsqueda en el reconocimiento se podría deducir que la organización del material no debe influir en el reconocimiento.

    Mandler (lectura) va a criticar esta deducción de Kintsch, lo que hace es permitir a los sujetos que impongan su propia organización, les va a permitir que los sujetos organicen subjetivamente el material (Tulving), presentó una serie de ejemplares de categorías y encontró que cuando mayor era el número de categorías utilizadas por los propios sujetos para poder organizar ese material, el recuerdo de los sujetos eraa mejor pero lo más sorprendente es que esta introducción de las categorías por los sujetos no sólo afectaba al recuerdo sino también al reconocimiento y por tanto la idea de Kintsch de que el proceso de búsqueda fuera exclusivo del recuerdo no se cumple con estos resultados porque también está presente en una de reconocimiento.

    La segunda crítica que hace Mandler se refiere a la noción de lo familiar que sea la información para el sujeto: le llama la atención el dato empírico de que el sujeto puede reconocer mejor palabras poco frecuentes que palabras más frecuentes. Lo que plantea es la noción de familiaridad, qué se entiende por ella, y va a proponer que hay dos tipos de procesos:

    • Proceso de integración.

    • Proceso de elaboración.

    Cuando me enfrento a una información va a estar regido este episodio por un esquema y éste va a estar formado por distintos componentes, desde componentes perceptivos, semánticos, relaciones entre ambos, etc. .Se supone que estos episodios van a implicar una serie de representaciones o huellas de memoria y estos dos procesos van a actuar en estas representaciones. Diferencias entre ambos procesos:

    • A través del proceso de elaboración voy a poder generar relaciones entre elementos que antes no existían por ejemplo entre las palabras de una lsita y el contexto en donde me las han presentado. Las palabras no son nuevas: son de tu idioma, lo que es nuevo es el contexto y lo que haces es relacionar esas palabras con el contexto, lo semántico y el contexto en donde te las presentan. Lo que el sujeto hace es hacer que el material sea más accesible y lo puede recuperar mejor.

    Una diferencia clave entre elaboración e integración es que la segunda sería un proceso automático y que se va a producir cuando se le presenta ese acontecimiento, mientras que la elaboración va a depender de la conciencia del sujeto y por tanto del control deliberado por parte del sujeto. En una tarea de recuerdo va a actuar sobre todo el de elaboración, en una de reconocimiento va a actuar sobre todo el de integración.

    Luego dice que ambas tareas el sujeto tendría un recuerdo explícito mientras que en las tareas indirectas de memoria actuaría sólo el de integración porque el sujeto no es consciente.

    Algunos autores entre ellos Gardiner, han elaborado un procedimiento. La diferencia entre recordar y saber o conocer y saber, ejemplo: Tarea de recuerdo o reconocimiento y se le pide al sujeto que diga si recuerda si esa información o palabra lo ha aprendido anteriormente y se acuerda de detalles específicos de ese aprendizaje, saber o conocer se refiere a que conoce esa palabra pero no tiene un contexto específico de dónde lo ha aprendido, recordar habría una experiencia personal pero en saber NO.

    Las respuestas recordadas o reconocidas se refieren a que están asociadas a una recolección episódica de cuándo se aprendieron, a lo mejor provocaron una emoción específica etc., las respuestas que no sabe o conocidas no se refieren a ninguna recolección específica.

    Gardiner en sus estudios ha encontrado disociaciones funcionales entre los procesos que subyacen a esas respuestas reconocidas o conocidas. Las respuestas referidas a conocer dependen a operaciones que el sujeto realiza de forma consciente, van a estar afectadas por variables como. Aprendizaje intencional, tipos de instrucciones, niveles de procesamiento. Las respuestas de saber o reconocer no dependen de un procesamiento consciente y no van a estar afectadas por estas variables. Algunos autores señalan que las respuestas reconocidas serían lo mismo que la memoria explícita, las respuestas conocidas implicarían memoria implícita.

    Tema 9: MODELOS DE MEMORIA SEMÁNTICA

    9.1.- Modelos dde Redes: Collins y Quillian

    9.2.- Modelos de Rasgos: Smith, Sholen y Rips*

    9.3.- La revisión de Collins y Loftus

    9.4.- El proceso de recuperación de la memoria semántica: el efecto “priming”

    9.5.- Memoria semántica y conexionismo.

    Memoria semántica: almacenamiento del mundo general (lenguaje, conceptos, etc.).

    Sujeto humano: necesidad de organizar el conocimiento, no sólo va a ser característico dentro de la psicología sino también va a ser universal en otras ciencias.

    Memoria semántica: nos va a sugerir cómo es la estructura de esa memoria y qué procesos están implícitos para recuperar la información almacenada: desde el punto de vista teórico es importante. Desde el punto de vista metodológico también: la metodología va a cambiar radicalmente a lo usado antes, en vez de usar sílabas sin sentido, palabras o dígitos el material que se va a emplear van a ser fundamentalmente enunciados del tipo: ¿es el pingüino un ave?. Se van a presentar enunciados V/F y lo que se va a medir fundamentalmente es la precisión de la respuesta y el tiempo de reacción; hay dos llaves, una para respuesta positivas y otra para respuestas negativas.

    Tiempo de reacción: fundamental para examinar estructuras de la memoria semántica y los procesos implícitos en ella porque para que el sujeto pueda contestar tendrá que hacer una inferencia que lleva tiempo y en función del tipo de interferencia que tenga que hacer sus tiempos de reacción serán más lentos o más rápidos.

    Se van a proponer dos modelos:

    • Modelos de redes

    • Modelos de rasgos

    Modelo de redes: se supone que la estructura de la memoria semántica es una red y ello implica una organización jerárquica. Esta red implica que los conceptos van a estar unidos entre sí por medio de nudos o nodos y la forma en que los sujetos almacenan la información será por medio de asociaciones.

    Modelos de rasgos: supuesto fundamental: los ejemplos de los conceptos o categorías se clasifican comparando los rasgos de ese ejemplar y de la categoría a que pertenece. Ejemplo: si me piden que verifique si un petirrojo es un ave. El sujeto va a comparar los rasgos o atributos de petirrojo con los de ave y después podrá responder positivamente.

    9.1.-MODELOS DE REDES: COLLINS Y QUILLIAN:

    Quillian: propuso el primero que no se refirió a la memoria semántica sino a que un ordenador pudiera enfrentarse con ese modelo. Collins fue el que pensó que el entramado de lo que hacía el rdenador era prácticamente lo que podía hacer e sujeto cuando tuviera que recuperar un concepto de su memoria semántica.

    Modelo de Collins y Quillian: implicaría una jerarquía. Cada concepto está representado por medio de un nudo o nodo que es lo que va formando la red, los nodos están conectados entre sí por medio de flechas : que se refieren a características o propiedades (“puede cantar”) o bien “es un” que implicaría que tiburón es un pez. Siguiendo las flechas sabemos que avestruz y canario son ejemplares de aves y aves y peces de animales. También nos dice que un canario, avestruz, tiburón, salmón son animales porque las flechas conectan a todos con la categoría superior supraordenada animal. Las flechas indican también que las propiedades se almacenan en distintos niveles de la jerarquía pro ejemplo propiedades que son verdad de todos los animales: “come” y “respira” se almacenan en el nivel más alto, propiedades que se aplican a categorías del nivel básico “pájaros tienen alas”, “pueden volar” se almacenan en un nivel intermedio y propiedades que se almacenan en el nivel más bajo son únicas para ese miembro concreto de la categoría. Por ejemplo “puede cantar”.

    Ventaja de este modelo: nos va a proporcionar una forma económica de almacenar la información porque la información no debe repetirse en los tres niveles, esto quiere decir que no es necesario especificar que un canario come y respira porque son propiedades tanto de aves como de peces, avestruces, canarios, tiburones y salmones porque la red nos dice que son ejemplares de animales que comen y respiran. Aunque eso es verdad también tiene un coste. Si nosotros tenemos que recuperar que un canario come tenemos que hacer dos tipos de inferencias: que un canario es un ave y que un ave es un animal. Este coste implica que tenemos que llegar al nivel apropiado de esta jerarquía antes de recuperar las propiedades de ese nivel.

    Aunque este modelo en principio fue diseñado por Quillian para ordenadores Collins hizo predicciones de cómo funcionaría este modelo en el sujeto humano, de cómo funcionaría su memoria semántica:

  • El sujeto necesita tiempo para moverse de un nivel de la jerarquía a otro.

  • Necesitaría un tiempo adicional si el sujeto tiene que recuperar las propiedades de un nivel.

  • Realizaron experimentos presentando enunciados verdaderos y falsos y midiendo el tiempo de reacción para las respuestas positivas y negativas, los resultados mostraron que las predicciones fueron apoyadas. Los tiempos de reacción eran más largos cuando se le pedía al sujeto que verificara enunciados que implicaban que los sujetos tenían que moverse de un nivel a otro. Si se le pide que verifique si un canario es un canario los tiempos de reacción son muy cortos porque no se mueve de nivel. Que verifique si un canario es un pájaro requiere que cambie de nivel y se le pide si un canario es un animal que cambie a otro nivel y sus tiempos de reacción eran más lentos. Conclusión. El tiempo de reacción dependía del número de cambios de nivel que el sujeto tenía que llevar a cabo.

    Con respecto a la segunda predicción también se cumple. El tiempo de reacción aumentaba si el sujeto tenía que recuperar las propiedades.

    Otra predicción se refiere al efecto priming semántico: se manifiesta si tenemos que recuperar información relacionada o similar cuando al sujeto se le hacen dos preguntas seguidas por ejemplo será más fácil verificar una propiedad de si un canario por ejemplo puede cantar si la pregunta anterior era sobre canarios, la predicción es que la magnitud del priming va a depender de si el sujeto tiene que seguir la misma senda dentro de la jerarquía para contestar a esas dos preguntas; ejemplo: el enunciado que tiene que verificar es si el canario es un ave: ¿ Será más fácil si antes se le ha presentado un canario puede volar o puede cantar? La primera porque la propiedad de valor se almacena en el nivel de ave y cantar en el nivel de canario. Se sigue la misma senda, con ambas preguntas requiere que el sujeto recupere información del nivel de ave.

    Problemas de este modelo:

  • Hay datos que muestran que el tiempo de reacción no está en función de los niveles de la jerarquía y hay datos empíricos que muestran que el sujeto tarda más en verificar que un chimpancé es un primate que un chimpancé es un animal. La predicción de este modelo hubiera sido la contraria porque animal estaría en un nivel más alto que primate. Este dato experimental iría en contra del modelo.

  • Datos sobre tipicidad de Rosch: mostraba que los ejemplares más típicos eran más fáciles de clasificar que los menos típicos, sería más fácil que los sujeto tuvieran que verificar que un canario es un ave que un avestruz es un ave. Este modelo de redes diría que sería igual, que no deberían encontrarase diferencias en tiempos de reacción entre avestruz y canario porque están ambos en el mismo nivel y están a un nivel de ave. No encajarían estos datos experimentales en este modelo.

  • 9.2.-MODELOS DE RASGOS: SMITH, SHOLEN Y RIPS*

    Ante estas críticas algunos autores como Smith, Shoben y Rips proponen el modelo de rasgos como alternativa al modelo de redes, van a tratar de paliar estas dificultades del modelo de redes y su modelo sí explicaría claramente los datos de Rosch.

    Supuesto fundamental: el significado de las palabras lo tenemos representado en nuestro sistema de memoria por una lista de rasgos que so los que vamos a usar para definir los conceptos o categorías y van a paliar según estén asociados a esas categorías.

    Hacen una distinción entre lo que llaman rasgos definitorios y rasgos característicos, los primeros serían rasgos que deben tener todos los ejemplares para poder ser miembros de esa categoría, van a ser los rasgos que definen a esa categoría. Los rasgos característicos son rasgos que los poseen muchos miembros de esa categoría pero no son necesarios para pertenecer a esa categoría.

    De esta distinción se deduce que los definitorios son los esenciales y van a ser los que van a tener un papel clave para que el sujeto pueda llevar a cabo esas clasificaciones.

    También supone este modelo que cuando el sujeto hace comparaciones hay dos fases.

  • El sujeto compara todos los rasgos de los dos conceptos para determinar la semejanza que un concepto tiene que otro, si decide que los rasgos son muy similares la respuesta la dará muy rápido (si es obvio que es falso también respondo rápido).

  • Cuando la respuesta no es tan obvia, cuando el grado de semejanza estaría entre los dos extremos y el modelo propone que el sujeto lo que v a examinar exclusivamente son los rasgos definitorios para determinar si el ejemplar tiene los rasgos necesarios para pertenecer a esa categoría y por tanto implicaría que los tiempos de reacción serían más largos.

  • 9.6.- PROCESAMIENTO DE TEXTOS:

    Por qué están implícitas memoria episódica y memoria semántica:

    Memoria episódica: cuando un sujeto se enfrenta a un texto, lo hace en un momento y sitio determinado: delimitación espacial y temporal: autobiográfico por parte del sujeto.

    Memoria semántica: para que el sujeto pueda comprender ese texto tendrá que echar mano del conocimiento que tenga y se supone que ese conocimiento lo tiene almacenado en la memoria semántica.

    Claramente mostraría hasta qué punto es memoria episódica y hasta qué punto es memoria semántica. Sería una ilustración clara del recuerdo que tiene el sujeto en la vida cotidiana.

    Curiosamente ha sido una investigación que se ha empezado a estudiar de forma tardía, excepto Bartlett: en 1932 critica a Ebbinghaus porque estaba basada su investigación en sílabas sin sentido: hay que coger un material con significado (como en la vida cotidiana). Bartlett trataba cómo el sujeto distorsionaba esa información, se manifestaba en el recuerdo por reproducción serial o repetida. Bartlett decía que el concepto básico era el esquema, tenemos organizado nuestro conocimiento en esquemas que serían bloques de conocimiento que le sujeto alamcena en su sistema de memoria, no hacía distinción entre memoria episódica y semántica, cuando se enfrenta a un texto activa esos esquemas para aprender y recordar ese texto.

    En los años ´70 aparecen dos líneas de investigación:

    Centrada por los psicolingüistas: su énfasis va a ser analizar la estructura del texto, en vez de centrarse en cómo procesa el sujeto ese texto, sino ver si la estrutcura influye o no para que lo procese mejor. Van a proponer una serie de modelos en los que van a incluir realciones lógicas (por ejemplo conjunción/disyunción) y ver si influyen o no para que el sujeto comprenda y recuerde mejor ese texto. Van a aparecer una serie de modelos que fundamentalmente son así.

    Retoman el concepto de esquema: algunos autores por la influencia psicolingüística van a aplicar esos modelos del texto tratándolo de unir con el concepto de esquema que es lo que se ha llamado “gramática de las historias”. La idea que subyace es: si la gramática es un instrumento que sirve al sujeto para analizar los distintos elementos de una oración; por ejemplo piensan que la gramática de las historias puede ser también un instrumento para estrucurara o descomponer los distintos elementos de una historia, por tanto aplicando esta idea quiere decir que una historia consiste en un escenario, un tema, una trama y una resolución (“final feliz”) y por tanto empiezan a realizar experimentos para ver si el sujeto lo recuerda de esta forma. Encuentran que esta gramática de las historias serviría para historias muy simples y generalmente los estudios han versado sobre cuentos infantiles. Lo que muchos señalan es que la gramática de las historias no sería un instrumento útil para textos más complejos; puede ser una forma de descomponer los cuentos muy simples pero no válido para cuentos más complejos. Los estudios más fructíferos se deben fundamentalmente a Brandsford.

    Brandsford recoge la idea de Bartlett y trata de examinar qué factores pueden influir en la comprensión y recuerdo de textos; y claramente su hipótesis sería que el contexto va a desempeñar un papel clave. Lo que hace es manipular la presentación del contexto (el dibujo). Un texto (que ha leído) no tiene sentido a no ser que veas antes el dibujo.

    Manipula el contexto y lo que quiere estudiar es el papel clave que desempeña el contexto en la comprensión y recuerdo de textos. Hace distintos grupos experimentales y a un grupo no le enseña el dibujo: grupo sin contexto; a otro grupo le repite el texto dos veces pero sin dibujo: sin contexto dos repeticiones; a otro grupo le muestra el dibujo antes de que los sujetos oigan el texto: grupo experimental de contexto antes; a otro le presenta el dibujo después.

    Los datos experimentales: divide el texto en distintas unidades de ideas, el número de unidades en el texto leído eran 14 y también evalúa recuerdo de ideas (no literal) y que evalúen lo comprensible o no que les ha parecido el texto.

    Encuentra que cuando los sujetos no tenían el dibujo presente, los grupos sin contexto su recuerdo era francamente bajo: entre 3 y 4 ideas. La condición óptima sería la de contexto antes, el grupo de conetxto después fue el que juzgó como terriblemente incomprensible y el recuerdo era mucho peor que el grupo de contexto antes.

    Sebastián amplió las condiciones: quería saber lo que recordaban los grupos de sin contexto si la prueba de memoria se les pasaba a las 24 horas. Su recuerdo se les deterioraba enormemente: el grupo de con dos repeticiones. Otra condición nueva era conetxto simultáneo: ver el dibujo al mismo tiempo que oír la historia: dos grupos: a uno la prueba de memoria inmediata y a otro a las 24 horas. Otra condición nueva: sin contexto + contexto simultáneo: un grupo experimental que no viera el dibujo y luego otra vez los dos al mismo tiempo: la idea era “vamos a suponer que la repetición del texto ayuda al recuerdo”: debería de haber factores aditivos porque hay dos repeticiones y una con el contexto adecuado: debería ser la óptima; ser superior a sólo conetxto simultáneo. No se encontraron diferencias significativas con el contexto simultáneo: a lo mejor en sin contexto se imaginan una situación que no tiene nada que ver cuando se les presenta la correcta (contexto simultáneo): interferencia entre esquemas y por eso el rendimiento no es mejor a sólo contexto simultáneo. La forma de comprobarlo es invertirlo, pasar contexto simultáneo + sin contexto: aquí sí se deberían producir los efectos aditivos porque en contexto simultáneo el sujeto ha activado el esquema correcto y oír otra vez el texto le ayuda claramente a recordarlo, esa situación debería ser la óptima y en efecto así fue: esto implica que los esquemas se activan en la codificación.

    Con respecto a sin contexto dos repeticiones y prueba de memoria a las 24 horas los sujetos no recordaban nada: comparándolo con una prueba inmediata con Brandsford sus datos muestran que recuerdan más ideas, preguntaron a los sujetos qué imagen mental les evocaba el texto. A las 24 horas sí coincidía.

    Experimentos de Brandsford:

    El problema de brandsford era que sus hipótesis quedan reducidas al momento de la codificación. Una diferencia entre hombres y ordenadores era que los esuqemas humanos podrían ser sensibles de una activación también en el momento de l recuperación, a parte de la codificación.

    Realizó un experimento en el que el sujeto tenía que procesar la información de una manera metafórica. El material fue una información que apareció en el periódico el alcazaz en 1 marzo de 1981, unos días después del intento de golpe de estado y aparecían en la página 6 de opinión, 4 fotos de deportes distintos (cuando los deportes vienen al final), cada foto estaba relacionada indirectamente con el nombre de Antonio Tejero, la guardia civil, etc...

    El contexto: las fotos.

    Tres grupos de sujetos.

    Primera variable experimental: contexto:

    • Primero fotos y luego el texto.

    • Leían el texto y luego las fotos

    • Fotos y texto a la vez.

    Segunda variable experimental: clave:

    • Grupo sin clave

    • Clave previa (se le decía la procedencia del material antes de leer el texto).

    • Clave posterior (en la prueba de memoria).

    Tercera variable experimental: prueba:

    • Inmediata

    • 24 horas

    Material: se dividía el texto en unidades de ideas a nivel literal y a nivel metafórico

    Resultados: el presentar las fotos antes o después del texto no habia diferencias, pero sí en presentación simultánea.

    A nivel metafórico:

    • 24 horas

    Cuando los sujetos no reciben la clave, son incapaces de recordar nada a nivel metafórico (aunque sí literal).

    Cuando los sujetos le dan la información en la fase de aprendizaje, procesan poco a nivel metafórico en el recuerdo inmediato pero parece que los sujetos elaboran la información y la procesan mejor a las 24 horas (reestructuran la información).

    Cuando la clave era en la fase de memoria activa la infomración de manera inmediata, pero a las 24 horas no activan, y no se reestructura la información a nivel metafórico.

    Algunos autores como Romelhart & Ortony han señalado que las características de los esquemas pueden ser:

    • tienen variables

    • se pueden incluir unos en otros

    • representan el conoimiento en niveles diferentes de abstracción.

    • El conocimiento codificado en los esquemas es como una enciclopedia.

    Scripts - guiones o sucesos de acción, serían una especie de esquemas de secuencia de acción del sujeto en su vida cotidana, y que son terriblemente repetitivos y con una parte fija y otra variable.

    Schante y Abelson proponen que estos guiones serían esquemas específicos, almacenados en nuestro sistema de memoria. Lo que el sujeto hace es inferir información, sin necesidad de hacerlo explícito (cuando comentamos a alguien que hemos ido a un restaurante, no le decimos los pasos de reservar mesa, porque se supone que los conoce).

    Tema 10: SISTEMAS DE MEMORIA Y CRITERIOS DE CLASIFICACIÓN

    10.1.- La memoria permanente y e resurgimiento de la concepción múltiple.

    10.1.1.- líneas de investigación que favorecen la concepción múltiple.

    10.1.2.- criterios y clasificación de los sistemas de memoria.

    La concepción múltiple fuente unitaria no es algo nuevo. Desde Ebbinghaus, conductistas, psicoanálisis proponen un enfoque unitario, y se han ido intercalando a esta concepción las múltiples.

    Líneas de investigación (múltiple):

    1.- la investigación neuropsicológica (la amnesia es un trastorno colectivo, y las estructuras del hipocampo desarrollan un papel fundamental. El apciente H.M. no podía reproducir nueva información pero era normal en inteligencia (pérdida de memoria selectiva).

    1.- la investigación realizada por Warrington & Weiskrantz en sus experimentos pasaban dos pruebas distintas, una de recuerdo o reconocimiento y otra prueba directa de memoria. Pero pasando una prueba indirecta de memoria (tenían en esta prueba un rendimeinto superior). Los sujetos amnésicos no eran conscientes de la presentación del material de estudio, siendo muy slectiva.

    2.- resultados obtenidos con sujetos normales: hallazgo de disociaciones funcionales. Una serie de variables, manipulándolas, los sujetos tenían un rendimiento u otro. El grado de elaboración del procesamiento afectaba directamente sobre pruebas directas y no afectaba sobre pruebas indirectas. Otras variables lo hacían inversamente (cambio de modalidad).

    3.- aparición y distinción entre reconocer y saber: en pruebas de reconocimiento.

    Estos tres, favorecieron la distinción de la memoria a largo plazo, y sirven a distintos autores, para dividirla em distintos sistemas.

    Tulving (1983, 84): la primera formulación se debe a Tulving, proponiendo una serie de criterios, según los cuales, lso diferentes sistemas de memoria se deberían distinguir en los términos de: funciones cognitivas diferentes y conductuales distintas manifestadas por el sujeto; la adquisición y retención de información explicaría que fueran distintos en función del sistema.

    Los sistemas operarían de acuerdo a distintas leyes y principios.

    Las funciones cognitivas y conductuales de los distintos sistemas tendrían que estar representados cerebralmente en estructuras distintas (mecanismos neuronales distintos).

    Se supone que los diferentes sistemas tendrían que desarrollarse en distinto periodo de la filogenia. Este desarrollo está debido a cambios ambientales. Del mismo modo como resultado de la maduración cerebral, tenían que aparecen diferentes tipos de memoria a lo largo del desarrollo ontogenético.

    Los sistemas propuestos pueden diferir entre sí en función del tipo de información o del código de información adquirida.

    Para Tulving un sistema de memoria estaría definido por los mecanismos cerebrales implicados, por el tipo de información manejadas y por las reglas de funcionamiento.

    En el año ´87 Sherry y Schacter hacen una aproximación evolucionista al concepto de sistema de memoria, y lo importante sería la interacción entre adquisición, retención y recuperación. Lo importante serían las reglas de funcionamiento = dos o más ssitemas de memoria serían distintos en la medida en que tengan reglas de funcionamiento distintas. Se diferencian de Tulving en que el echo de que el sujeto tenga una representación mental de diferentes tipos de información, no implica una correspondencia directa con tipos de memoria

    24

    Psicología del Aprendizaje

    Psicología del Aprendizaje




    Descargar
    Enviado por:Sarenar
    Idioma: castellano
    País: España

    Te va a interesar