Psicología
Tipología de la Memoria
Capítulo 3. ¿Cuántas clases de memoria? Evidencias de la MCP.
En este capítulo nos centraremos en los tipos de memoria que existen basándonos en su capacidad de retención, para ello seguiremos las siguientes cuestiones:
1 ¿Qué capacidad tiene la MCP?
2 ¿Por qué ocurre el olvido a corto plazo?
3 ¿Cuál es la teoría del decaimiento de la huella?
4 ¿Cómo explica el olvido la teoría de la interferencia?
5 ¿Podemos hablar de discriminación de la huella?
6 ¿Cuántos almacenes de memoria existen?
7 ¿Qué evidencias tenemos contra la concepción unitaria?
8 ¿Qué es el Modelo Modal?
9 ¿Cuántos niveles de procesamiento hay?
1.- ¿Qué capacidad tiene la MCP?
Joseph Jacobs intentó medirla mediante el “Procedimiento de amplitud de memoria” que consistía en mostrar ítems y pedir su repetición a continuación, comenzando con un ítem y alargándolo hasta que ya no se repita correctamente la secuencia. Cuando el sujeto acierta el 50% de los casos se denomina amplitud de memoria (1887).
Ryan (1969) demostró que el recuerdo mejora insertando una breve pausa entre agrupamientos sucesivos y que los ítems mejor recordados son los que ocupan una posición central.
Wickelgren (1964) demostró que se obtenía mejor rendimiento agrupando en tríos. También concluyó con que una pausa muy breve produce agrupamiento como consecuencia de que el sistema de memoria auditiva subyacente evoluciona para detectar aspectos rítmicos y prosódicos del lenguaje hablado.
Hunter (1962) estudia las capacidades memorísticas de Aitken, matemático que se quejaba de la lentitud de las presentaciones cuando éstas se realizaban a ítem por segundo y obtuvo un rendimiento normal cuando se le presentaban cinco ítems por segundo sin encontrar dificultad para recordar quince dígitos en ambas direcciones (del primero al último y viceversa), cuando la capacidad normal es de 6 ó 7 dígitos.
Ericsson y Chase (1982) estudiaron qué ocurre con la amplitud de la memoria con grandes cantidades de información. El sujeto comenzó con un rendimiento normal y superó los ochenta ítems y podía repetirlos tras una demora utilizando estrategias de la MLP para facilitar la ejecución de una tarea de la MCP.
En ocasiones usamos reglas mnemotéticas para recordar largas secuencias de números pero en la mayoría de los casos se requiere demasiado esfuerzo para aprenderlas y utilizarlas, por tanto el esfuerzo es mayor que las ventajas. Slak (1970) descubrió que se podía incrementar la amplitud de dígitos y potenciar el aprendizaje de números a largo plazo si éstos se sustituían por letras, pero era demasiado costoso aprender la codificación.
George Miller (1956) en su artículo “El mágico número siete; más menos uno” indica que la amplitud de la memoria inmediata viene determinada por un número de bloques (pieza de información integrada en la que recordar una parte ayuda a recordar la siguiente) en lugar de número de ítems y abarca como media siete bloques. La amplitud de la memoria evaluada en función de los ítems puede aumentar incrementando el número de ítems por bloque. La memoria para las letras es seis al azar; nueve en sílabas que alternen consonante, vocal y consonante; hasta cincuenta ó más si es una frase con sentido. En todos los casos el número de bloque aparece constante alrededor de seis.
2.- ¿Por qué ocurre el olvido a corto plazo?
Brown, en Inglaterra, y los Peterson en EE.UU. idearon experimentos que demostraron un olvido extremadamente rápido de pequeñas cantidades de información si el sujeto era distraído un corto espacio de tiempo. Tras los experimentos resultó evidente que el factor decisivo en el olvido era el número de bloques a recordar y no el número de ítems.
Estos resultados indican la necesidad de suponer dos diferentes tipos de memorias, una a corto plazo con olvido provocado por decaimiento de huella y otra a largo plazo con olvido originado por la interferencia.
3.- ¿Cuál es la teoría del decaimiento de la huella?
Brown (1958) demostró el olvido rápido de pequeñas cantidades de información cuando se impedía un repaso activo de lo que debía ser recordado. La teoría del decaimiento de la huella dice que el olvido ocurre por el desvanecimiento automático de la huella de memoria. Broadbent (1958) también apoyó la teoría del decaimiento de la MCP en “Perception and comunication” libro que resultó ser el primer intento sistemático de aplicar la analogía del PC.
4.- ¿Cómo explica el olvido la teoría de la interferencia?
Según esta teoría el olvido ocurre porque una nueva huella perjudica el recuerdo de las anteriores, dependiendo el grado de interferencia de la similitud entre huellas. Existen dos tipos de interferencias:
Interferencia proactiva.- El nuevo aprendizaje se ve afectado por los viejos hábitos.
Interferencia retroactiva.- El nuevo aprendizaje perjudica los viejos hábitos.
Los Peterson concluyeron con que el olvido no estaba ocasionado por la Interferencia retroactiva por existir diferencia entre el distractor y lo que debía recordarse, por tanto se demostraba el decaimiento espontáneo de la huella en la MCP.
Keppel y Underwood (1962) argumentaban que el olvido a corto plazo estaba ocasionado por la interferencia proactiva.
Como la interferencia dependía de la similitud entre los ítems, la interferencia proactiva debería eliminarse si se cambiaban los ítems diana tras los primeros ensayos.
Wickens, Born y Allen (1963) lo investigaron y concluyeron que después del cambio del ítem diana, el rendimiento volvía a ser casi perfecto, por tanto se demostraba la supresión de la interferencia proactiva.
Loess (1968) lo investigó con tríos de palabras de diferentes categorías y el primero de cada nueva categoría se recordaba muy bien, el segundo peor y se estabilizaba en el tercero ó cuarto y se volvía a recobrar el rendimiento inicial al cambiar de categoría.
Wickens (1970) sostenía que el efecto de supresión de la interferencia proactiva implicaba que el sujeto hubiese procesado la dimensión particular del estímulo cambiado. Se podría medir indirectamente el procesamiento de la dimensión al cambiarla y producir ésta supresión de la interferencia proactiva. Lo investigó provocando cambios y la mayoría causaron alguna supresión, siendo los cambios semánticos los más efectivos.
Gunter, Beny y Clifford (1981) sostenían que la mejor retención sería si los ítems similares se separasen. En su experimento hay una clara supresión de la interferencia proactiva y el ítem de la nueva categoría se recordó mejor en la condición inmediata y en la demorada.
Loess y Waugh (1967) creían que si el intervalo entre ensayos era de más de dos segundos no existía olvido a corto plazo, cada ensayo sería equivalente al primero del experimento. No encajan en la teoría de la interferencia porque la demora daría más interferencia y mayor olvido. Por tanto concluyen con que sí se produce olvido espontáneo, pero que también es importante la interferencia entre los anteriores ítems y los objetivos. Turvey, Brick y Osborn (1970) procedieron intercalando las demoras en bloque y no existía diferencia en el nivel de olvido. En el ensayo final los que antes habían recordado con poca demora olvidaron más que los de mayor demora.
5.- ¿Podemos hablar de discriminación de la huella?
La dificultad para discriminar el último y penúltimo ítem depende del cociente de las dos demoras. Las demoras cortas tienen mejor cociente que las largas como función estándar del olvido. Se asumen don supuestos: se produce decaimiento espontáneo y la recuperación implica discriminación. Aunque dos sujetos rindan al 100% no tiene por qué existir el mismo grado de aprendizaje.
El efecto techo es la tendencia a enmascarar las diferencias en el aprendizaje cuando el rendimiento es próximo al 100%. El efecto suelo resulta al enmascararlas cuando el rendimiento se aproxima al 0%.
En la tarea de los Peterson hay algo parecido al decaimiento pero termina a los cinco segundos y no es lo suficientemente grande como para explicar el olvido sustancial que se produce en el paradigma estándar, pues éste depende de competición con ítems anteriores y es fenómeno de la MLP (Baddeley y Scott).
El efecto demora concuerda con la hipótesis de discriminación pero no con la interferencia clásica (interferencia proactiva por recuperación espontánea de ítems anteriores extinguidos). Se explica la supresión de la interferencia proactiva por medio de la discriminación si el sujeto puede usar la naturaleza del ítem para descartar los anteriores diferentes.
6.- ¿Cuántos almacenes de memoria existen?
Los teóricos de la huella están a favor de una aproximación dicotómica y los de la interferencia a favor de que MCP y MLP son el funcionamiento de un sistema unitario.
Arthur Melton (1963) cree innecesario suponer el decaimiento de la huella porque la interferencia explicaba mejor el olvido a corto plazo. Los efectos del aprendizaje a largo plazo se demuestran en varias tareas de la MCP indicando continuidad antes que dicotomía. Escogió la tarea de los Peterson y la amplitud de la memoria como dos tareas características de la MCP y demostró que mostrar un ítem varias veces potencia su nivel de retención en la tarea de los Peterson. Usó experimentos de Donald Hebb (1961) para recordar lista de números que se repetía tras tres secuencias. La probabilidad de recordar la repetida aumenta con más presentaciones y se evidencia el aprendizaje a largo plazo. Melton dice que MLP y MCP deben considerarse como dependientes del mismo sistema unitario.
Si se da por sentado que una tarea particular puede reflejar más de un sistema subyacente se muestra la contribución de la MLP a las tareas.
Waugh y Norman (1965) sostuvieron por primera vez la necesidad de diferentes tareas y sistemas de memoria subyacente. Usaron memoria primaria para sistema primario que almacenaba a corto plazo y MCP para sistema experimental en la que poca información es retenida un corto periodo. Memoria secundaria para sistema hipotético de MLP. La ejecución de tareas de MCP refleja MP y MS y el recuerdo demorado sólo MS porque MP habría sido sobrescrito por material posterior.
Atkinson y Shiffrin (1968) usaron los términos almacén a corto plazo y almacén a largo plazo para sistemas teóricos de memoria subyacente y MCP y MLP para situaciones experimentales en las que la ejecución refleje combinación de efectos de ACP y ALP.
7.- ¿Qué evidencias tenemos contra la concepción unitaria?
Tareas de dos componentes.- Existen numerosas demostraciones de que ciertas tareas tiene dos componente separables y bastante diferentes. El recuerdo libre (mostrar a los sujetos palabras inconexas y pedirles que recuerden tantas como puedan en cualquier orden) es la más estudiada. Postman y Phillips (1965) y Glanzer y Cunitz(1966) demostraron que existe tendencia a recordar muy bien los últimos ítems cuando el recuerdo es inmediato (efecto de recencia), y tras una demora breve dicho efecto desaparece y el rendimiento en ítems anteriores de la curva resulta poco afectado por la demora. Los ítems de recencia con mantenidos en algún almacén a corto plazo temporal y muy frágil, y los ítems anteriores se recuerdan desde la MLP. Glanzer (1972) exploró esta técnica concienzudamente y demostró que la zona de recencia de la curva no era afectada por variables como la familiaridad de las palabras, velocidad de presentación, edad del sujeto o exigir la realización de otra tarea concurrente. Por el contrario, estas variables influyen en el aprendizaje a largo plazo y determina el nivel de rendimiento de la parte anterior de la curva de posición serial.
Capacidad de almacenamiento.- Este argumento se basa en que la memoria primaria tiene una capacidad limitada y un input y recuperación muy rápidos y la memoria secundaria tiene una capacidad enorme, pero es muy lenta para registrar y recuperar. Los argumentos favorables a la capacidad limitada de la memoria primaria proceden de tareas como la amplitud numérica en la que el sujeto retiene unos siete bloques (Miller, 1956).
Murdock (1965) estudió el efecto de combinar una tarea de distracción con el recuerdo libre. La demanda de atención requerida por la tarea distractora aumentaba con el número de alternativas que se ofrecían al sujeto disminuyendo sistemáticamente el rendimiento en la primera parte de la curva de recuerdo libre. El efecto de recencia no se vio afectado por una carga concurrente, por tanto el input de la memoria primaria exige menos atención que el aprendizaje a largo plazo.
Waugh (1970) descubrió que las respuestas de la parte de recencia de la curva eran más rápidas que las de posiciones seriales anteriores, por lo que sugirió que la recuperación de la memoria primaria es más fácil que la de la secundaria.
Los teóricos de estos dos procesos observaron esta similitud en los ordenadores y se utilizó como respaldo adicional a la verosimilitud del modelo de la memoria de dos componentes.
Codificación acústica y semántica.- Conrad advirtió errores en el recuerdo de consonantes similares en sonido aun siendo presentadas visualmente. Sperling (1960) realizó una similar sobre la memoria icónica y concluyó que las letras presentadas visualmente estaban siendo almacenadas verbalmente antes de ser convertidas en respuesta. Conrad (1964) demostró que el perfil de los errores cometidos al recordar secuencias de consonantes presentadas visualmente era similar al de los auditivos cometidos al discriminar letras aisladas presentadas de forma auditiva con un fondo de ruido. Basándose en esto sugirió que se almacenan los ítems acústicamente.
Conrad y Hull (1964) ofrecieron nueva evidencia demostrando que las secuencias de ítems parecidos en sonido eran más difíciles de recordar que las de letras diferentes. Wickelgren (1965) mostró que el efecto se debía principalmente a la dificultad de recordar el orden; de otro modo la similitud facilitaría el recuerdo de las propias letras.
La memoria inmediata para las consonantes tendía a contar con algún tipo de código basado en el lenguaje. No queda claro si es simplemente uno o muchos códigos equivalentes en general, o si la memoria inmediata depende particularmente de tal información fonológica. Baddeley (1966ª) lo exploró contrastando semejanza fonológica y semántica de palabras. La similitud del significado la manipuló usando secuencias de adjetivos con el mismo significado o diferentes. El grupo con parecido fonológico fue mucho más difícil de recordar que el dispar y la semejanza en el significado tuvieron muy poco efecto en el recuerdo. Los sujetos recordaban los ítems en función de su sonido o características articulatorias, no por su significado.
Baddeley (1966b) comparó el rendimiento en la tarea de memoria inmediata con otra que implica aprendizaje a largo plazo. En esta ocasión la similitud fonológica dejó de ser importante y la semejanza del significado se convirtió en el rasgo determinante del aprendizaje. Se sugiere que el almacén a corto plazo se basa en un código fonológico y el almacén a largo plazo lo hace en el significado.
Las evidencias a favor procedían de varios paradigmas, incluyendo un estudio de Kintsch y Buschke (1969). Emplearon la técnica de sondeo de Waugh y Norman (1965) que consistía en presentar una secuencia de ítems y se examinaba el recuerdo mostrando uno de los ítems de nuevo y pidiendo al sujeto que dijese el que seguía. Demostraron que también tiene un componente de recencia que depende de la memoria primaria y la ejecución en ítems anteriores refleja la memoria secundaria.
Kintsch y Buchke mostraron pares de ítems semejantes por sonido ó por significado. Ambas clases perjudican el rendimiento en comparación con listas con palabras diferentes. El perfil del perjuicio fue diferente para ambas semejanzas, pero es más importante la fonológica en la zona de recencia de la curva y la semejanza en significado influye en la parte anterior de la curva basada en el almacén a largo plazo.
Sachs (1967) evidenció que la retención de pasajes de prosa podría mostrar efectos comparables a los de la codificación dual. Mostraba a sus sujetos pasajes de prosa y al repetir una frase debía decir el sujeto si era exactamente igual o había cambiado. Descubrió que siempre que la frase se ponía a prueba inmediatamente los sujetos eran hábiles en la detección de todos los cambios, tanto de sintaxis como de significado, pero tras tener otras frases interpuestas disminuye la capacidad para captar los fallos aunque la retención del significado era excelente.
Parece que se puede generalizar que el almacenamiento a corto plazo se basa en la codificación fonológica y la memoria a largo plazo está más influida por el significado.
Evidencia neuropsicológica.- Milner (1966) investigó el caso de un paciente al que se le extirparon tejidos de los lóbulos temporales y del hipocampo para tratar su epilepsia. El paciente mostró un espectacular deterioro de la capacidad para aprender nueva información, aunque su amplitud de memoria inmediata era completamente normal, lo que sugiere la combinación de un almacén a largo plazo defectuoso unido a una memoria primaria normal.
Baddeley y Warrington (1970) exploraron esto mismo más a fondo con pacientes amnésicos graves. Los sujetos mostraron un excelente efecto de recencia unido a una ejecución defectuosa en ítems anteriores; el recuerdo demorado fue muy pobre también. Podían rendir normalmente en la tarea del olvido a corto plazo de Peterson. No siempre sucede con los amnésicos porque a veces exige destrezas intelectuales bien conservadas. Encontraron que el punto en que el rendimiento se estabilizaba en la tarea de Peterson era superior al azar e idéntico en el grupo de prueba y el de control y que los sujetos de ambos grupos mostraban un aprendizaje uniforme en la tarea de números repetidos de Hebb. Los pacientes que padecen amnesia pueden presentar un almacén de memoria a corto plazo normal junto a uno de largo plazo muy deteriorado. También podía ocurrir lo contrario como demostraron Shallice y Warrington (1970) con un paciente cuya memoria inmediata se reducía a dos o tres dígitos y su memoria a largo plazo parecía ser completamente normal.
La demostración del rendimiento en la MCP en pacientes amnésicos proporcionó evidencia de dos tipos diferentes de memoria. La existencia de dos efectos opuestos es una evidencia particularmente convincente de la existencia de dos sistemas independientes.
8.- ¿Qué es el Modelo Modal?
Fue el modelo más influyente a favor de la independencia de dos sistemas diferentes de almacenamiento. Presenta similitudes con uno anterior de Broadbent (1958) pero es más detallado. Supone que la información se procesa primero en paralelo por unos almacenes sensoriales muy breves, éstos la transmiten a un almacene a corto plazo con capacidad limitada que se comunica con uno a largo plazo. El almacén a corto plazo tiene un papel decisivo pues sin él la información no podría introducirse ni extraerse del almacén a largo plazo. El almacén a corto plazo también desempeña procesos de control.
Uno de los procesos de control que estudiaron fue el repaso, proceso que mantiene la información en el almacén a corto plazo. Cuanto más tiempo se mantiene un ítem en dicho almacén mayor probabilidad de ser transferido al almacén a largo plazo, sus estudios se interesaban principalmente por el repaso verbal automático, aunque reconocían la importancia de la codificación semántica. El efecto de recencia representa el recuerdo de los ítems que se encuentran en el almacén a corto plazo y el recuerdo de ítems anteriores depende del de largo plazo.
Este modelo se basa en firmes cimientos de evidencia empírica procedente de una amplia serie de fuentes. Fue expresado de una forma matemática sofisticada que ofrecía una impresionante explicación cuantitativa de los datos experimentales. Pero la vida resultó ser más complicada de lo que los modelos indicaban y surgieron varios problemas.
Evidencia neuropsicológica.- Según el modelo modal la amplitud reducida del almacén a corto plazo indica que tiene una capacidad sumamente reducida y estos pacientes deberían estar discapacitados porque el almacén a corto plazo es crucial en el aprendizaje, razonamiento y rendimiento intelectual general. Pero los pacientes no mostraron tal deterioro general, poseían capacidad de aprendizaje a largo plazo normal y su vida era normal.
ACP y aprendizaje a largo plazo.- Varios estudios indicaban que la probabilidad de que un ítem fuese transferido a la memoria a largo plazo no dependía del tiempo de permanencia en el ACP. Tulving (1966) no obtuvo evidencia de que las repeticiones previas potenciasen el aprendizaje subsiguiente. Morton (1967) pidió que reprodujeran el patrón de números y letras del prefijo telefónico británico y ninguno acertó totalmente. Nickerson y Adams (1979) observaron algo semejante al pedir a sus sujetos que recordaran las características de un centavo americano. No parecía estar justificado que el procesamiento a través del ACP fuese un camino regio directo al ALP.
Recencia y ACP.- Este modelo explica el efecto de recencia en el recuerdo libre al suponer que representa el producto de los ítems retenidos en ese momento en el ACP. Se justifica la anulación de la recencia mediante nos pocos segundos de cuenta atrás, pues se supone que ésta desplaza las últimas palabras del ACP. Es también consecuente con esta interpretación el que los pacientes con ACP deteriorado muestren poca o ninguna recencia.
Este modelo encuentra dificultades para explicar los resultados de un estudio de Baddeley y Hitch (1977) en que los sujetos intentan ejecutar simultáneamente una tarea de amplitud de números mientras se les examinaba del recuerdo libre de listas de palabras inconexas. La amplitud de los números concurrentes perjudicó al componente a largo plazo de la ejecución, pero un hubo efecto de recencia. Según el modelo, la amplitud y la recencia deberían haber competido por la misma capacidad limitada del ACP y haber producido una interferencia masiva.
La existencia de efectos de recencia a largo plazo no es inconsecuente con este modelo, es posible que puedan haber diferentes efectos de recencia en ALP y ACP. Puede demostrarse que las dos formas de recencia se comportan de manera similar y se explican mediante una sola hipótesis.
Codificación.- En este modelo no se preocuparon excesivamente de este tema, se refería a la codificación en términos de semántica como de claves acústicas dentro del ACP, pero siempre que fuera posible la codificación semántica y pudiera integrarse en un todo significativo se emplearía en vez de la fonológica (Baddeley y Levy, 1971). Resultaba más fácil recordar pares compatibles que los de parecido semántico. Los sujetos codificarán el material verbal significativamente si pueden hacerlo en el tiempo disponible y lo reflejarán mostrando efectos de semejanza semántica, si no emplearán la codificación fonológica y mostrarán efectos de semejanza fonológica.
9.- ¿Cuántos niveles de procesamiento hay?
En 1972 Craik y Lockhart publicaron un artículo sobre los niveles de procesamiento. Indicaron que cuanto más profundamente se procese un ítem, mejor se recordará, pasando la informaci´pn sensorial a huellas de procesamiento relativamente cortas, produciendo el procesamiento fonológico una huella más duradera y el semántico profundo produce un aprendizaje más duradero. Suponían la existencia de un sistema de memoria primaria independiente cuyo papel era procesar la información entrante. El almacenamiento más prolongado resultaba de un procesamiento más profundo dentro del ALP, no dependía de la transferencia. Hacen distinción entre el repaso de mantenimiento (material se recicla sin ser procesado más profundamente) y el repaso de elaboración (se aumenta la profundidad del procesamiento).
Los niveles de procesamiento dan evidencia de que la memoria se compone de un sistema unitario simple, aunque sería mejor calificarlo como un sistema interesado en el papel de la de la codificación de la memoria a largo plazo. Los autores del artículo apoyaban el criterio dicotómico aunque dijeron poco de la memoria primaria.
Ítems de repaso.
V F El repaso es un proceso de control que se realiza en la MCP y que consiste en mantener activada la información permitiendo su disponibilidad durante un tiempo indefinido.V
V F El efecto primacía puede interpretarse como un apoyo empírico de la existencia de una memoria a corto plazo. F
V F La defensa de dos almacenes funcionalmente diferentes en el procesamiento humano de la información se apoyaba en supuestos tales como que todo el olvido se produce por interferencia o sobre la influencia de la MLP en los procesos de la MCP. F
V F El modelo modal pretende explicar todos los procesos que ocurren en el sistema cognitivo humano desde que la información ingresa en el sistema hasta que se pierde ó queda almacenada a largo plazo. V
V F Un “chunk” de información es, según Miller (1956), un conjunto organizado de información que los sujetos pueden manejar en MCP como unidad. V
Evidencias de la MCP 7
Descargar
Enviado por: | Julia |
Idioma: | castellano |
País: | España |