Psicología
Psicología del pensamiento y del lenguaje
Psicología del Pensamiento y Lenguaje
Indice
Psicología del Lenguaje:
TEMA 1. El concepto de Lenguaje …………………………………………………………………………… Pag 2
TEMA 2. La Perspectiva Psicológica en el Estudio del Lenguaje…………………….…….….…. Pag 7
TEMA 3. Lenguaje y Símbolos: La dimensión Funcional (Tª de la Mente.)..………………….. Pag 11
TEMA 4. La Percepción del Lenguaje………………………………………….…………………………….. Pag 19
TEMA 5. Reconocimiento y Comprensión de Palabras…………………………………………………. Pag 24
TEMA 6. La Comprensión de Oraciones………………………………………………………………..…… Pag 33
TEMA 7. La Comprensión del Discurso……………………………………………………………………... Pag 43
- Modelos Mentales y Escenarios en la Comprensión del Discurso……….. Pag 52
TEMA 8. Producción del Lenguaje……………………………………………………………………………. Pag 55
- Modelo de Levelt………………………………………………………………………… Pag 56
- Modelo de Schelesinger………………………………………………………………. Pag 58
TEMA 9. Producción del Discurso y la Conversación……………….…………………………………. Pag 58
- Contexto Físico y Deixis……………….……………………………………………… Pag 62
Psicología del Pensamiento:
TEMA 2. Psicología del razonamiento………………………………………………………………………. Pag 67
TEMA 3. Inducción categórica. ……………………………………………………………………………… Pag 75
TEMA 4. Razonamiento deductivo (El razonamiento silogístico y el transitivo) .……….…… Pag 83
TEMA 5. Razonamiento condicional ……………………………………………………………………...… Pag 91
TEMA 6. Razonamiento probabilístico. …………………………………………………………………..… Pag 99
- Modelos Mentales ……………………………………………………………….…..… Pag 103
TEMA 7. La toma de decisiones..……………………………………………………………….….………. Pag 106
TEMA 1: EL CONCEPTO DE LENGUAJE
INTRODUCCIÓN
El lenguaje aparece de modo natural hacia el primer año de vida, y acompaña e interviene en la mayoría de nuestras actividades, sin requerir un esfuerzo especial (aunque a veces reclama una cierta atención).
Pese a su frecuente uso, el término "lenguaje" es un término polisémico y ambiguo, y los límites de su definición "no científica" son muy imprecisos.
El estudio del leguaje es un cometido importante de la psicología científica, aunque no compete exclusivamente a ésta.
LA CONCEPTUALIZACIÓN CIENTÍFICA DEL LENGUAJE: ALGUNAS DIMENSIONES DE SU ANÁLISIS
Las definiciones del lenguaje, pese a su disparidad, permiten entrever ciertas regularidades, que constituyen las 3 VERTIENTES DEL FENÓMENO LINGÜÍSTICO:
El lenguaje puede interpretarse como un sistema compuesto por unidades que son los signos lingüísticos, cuya organización interna puede describirse estructural o formalmente ⇒ DIMENSIÓN ESTRUCTURAL O FORMAL ("cómo es").
La adquisición y uso del lenguaje por parte de los organismos, posibilita es éstos formas peculiares y específicas de relación y de acción sobre el medio ⇒ DIMENSIÓN FUNCIONAL ("para qué sirve").
El lenguaje se materializa en formas concretas de conducta, lo que permite interpretarlo tb como un tipo de comportamiento ⇒ DIMENSIÓN COMPORTAMENTAL ("cómo se utiliza").
LA DIMENSIÓN ESTRUCTURAL DEL LENGUAJE
Desde una perspectiva semiótica, el lenguaje es un sistema de elementos (señales, signos o símbolos), que resultan relevantes para un organismo, porque remiten a objetos o aspectos de la realidad distintos de ellos mismos (capacidad de representación), y adquieren y poseen la capacidad de modificar e influir sobre ciertos aspectos del comportamiento de los organismos.
El lenguaje pues, presupone la existencia de signos, independientemente de cuál sea la modalidad perceptiva concreta de éstos (acústica: lenguaje oral, visual: lenguaje escrito o lenguaje basados en signos manuales).
Los signos individuales, pueden existir y ser funcionales, sin que ello implique necesariamente, la existencia de un lenguaje o un conocimiento lingüístico propiamente dicho (sonido de campana para el perro de Paulov).
El lenguaje puede ser objeto de descripciones:
-
Semánticas: reglas y condiciones concretas que en cada sistema lingüístico, hacen posible la correspondencia entre las propiedades o características de los signos y los significados.
-
Sintácticas: condiciones en que las combinaciones de signos son aceptables.
-
Pragmáticas: condiciones en que los usos de los signos son aceptables.
La construcción de éstos 3 tipos de principios, es uno de los cometidos de la perspectiva filosófica o lingüística, en el estudio del lenguaje.
Esta perspectiva interpreta el lenguaje como un código o conjunto estructurado de signos y de condiciones formales de combinación de los signos, gracias a cuya aplicación los signos representan cosas distintas a sí mismos, y sirven como instrumento eficaz de comunicación.
La ausencia, en un sistema de comunicación dado, de un código formal bien definido, impide su consideración como lenguaje en sentido estricto (la comunicación gestual es más un sistema de comunicación que un lenguaje).
Los lenguajes humanos y los sistemas de comunicación naturales de otras especies, son sustancialmente distintos. La aclaración de las diferencias es crucial para la búsqueda, tanto de claves para la diferenciación filogenética de la especie humana, como de la explicación de los distintos tipos de mente y de conducta en sí mismos.
Cualquier lenguaje, por estar compuesto por signos, presupone una cierta capacidad para establecer correspondencias entre significantes y significados. El lenguaje se convierte así en un objeto teórico que opera como mediador entre 2 clases de fenómenos: las señales físicas de los signos lingüísticos, y los significados a los que se refieren los signos, que pueden ser inferidos a partir de la observación de la conducta asociada a su emisión y/o recepción.
Por otro lado, el lenguaje es una noción abstracta que permite dar cuenta de relaciones y correspondencias que regularmente se dan entre ciertas clases de fenómenos, observables directa o indirectamente. Desde éste punto de vista, debe ser interpretado como un objeto derivado de la observación de ciertos fenómenos, pero nunca como un objeto físicamente real.
La posesión de la capacidad del lenguaje, posibilita la capacidad para relacionar y relacionarse con los fenómenos de un modo cualitativamente distinto.
Conducta comunicativa: No es una conducta que sea una respuesta directa a las señales físicas, sino utilizando un elemento no físico, el código lingüístico, que los que realizan la conducta conocen y comparten.
El lenguaje puede ser considerado como un tipo de conocimiento.
A veces, éste conocimiento (código), está genéticamente definido en todos sus detalles (comunicación animal); Otras veces, debe ser aprendido en el curso de la experiencia vital (especie humana).
En nuestra especie además, constituye uno de los soportes básicos de la memoria, que por tanto, condiciona y posibilita la adquisición de nuevos conocimientos, y la asimilación de la experiencia acumulada por generaciones anteriores.
La facultad lingüística puede interpretarse:
-
Como el resultado de capacidades cognitivas o de aprendizaje que son comunes a otras habilidades.
-
Como una habilidad específica que comporta requisitos estructurales o funcionales particulares y específicos de nuestra especie.
LA DIMENSIÓN FUNCIONAL DEL LENGUAJE
La adquisición y desarrollo del lenguaje va ligado, desde su origen, a la realización de actividades como la comunicación y la interacción social, la expresión emocional, el conocimiento de la realidad, y, en la especie humana, a la conducta voluntaria y el pensamiento racional (entre otras) ⇒ Lenguaje como un "instrumento".
La consideración de la dimensión funcional del lenguaje, desplaza la atención del lenguaje en sí mismo hacia el usuario que conoce y usa ese lenguaje, que le permite obtener ciertos fines ⇒ Lenguaje como "mediador" simbólico (compuesto por signos), con el que se pueden "hacer cosas".
LA DIMENSIÓN COMPORTAMENTAL
El lenguaje implica un tipo de conducta, de actividad o de comportamiento, que realizan el emisor y el receptor cuando, respectivamente, codifican y producen mensajes lingüísticos.
Como conducta o actividad, el lenguaje adopta 2 modalidades básicas:
La producción.
La comprensión,
que se realizan de forma combinada y simultánea durante la conversación.
La producción y la comprensión del lenguaje, pueden ser descritas y explicadas, en muy diferentes planos:
-
Plano neurofisiológico: estructuras neuroanatómicas y fisiológicas.
-
Plano conductual: antecedentes situacionales, tipos de respuesta y consecuencias inmediatas o mediatas de la actividad lingüística.
-
Plano cognitivo: representaciones y procesos internos.
La interpretación del lenguaje como una forma de conducta, nos remite de nuevo al análisis y al estudio del sujeto usuario del lenguaje.
LENGUAJE HUMANO Y OTROS LENGUAJES: ALGUNOS RASGOS DISTINTIVOS
Concepto de lenguaje: "Sistemas de expresión, representación y comunicación que se basan en un sistema de signos y reglas formalmente bien definido, y cuya utilización por un organismo, implica una modalidad particular de comportamiento".
El concepto de lenguaje puede ser diferenciado de funciones que le son próximas aunque más generales, como la comunicación mediante sistemas o códigos no lingüísticos (gestuales) o la representación del conocimiento asentada en códigos no lingüísticos (imágenes mentales), de otros conceptos más restringidos o específicos, como el habla o producción de signos articulados).
Aún así, el concepto de lenguaje resulta extremadamente amplio, pues da cabida a:
-
Lenguajes humanos de carácter oral o no oral (signos manuales en sordos).
-
Lenguajes artificiales (Bliss, informáticos).
-
Sistemas de comunicación animal.
-
Sistemas artificiales de comunicación (señales de circulación).
La tarea prioritaria a la que debe orientarse la investigación psicológica será la génesis y la utilización de la modalidad del lenguaje más universal y genuina de nuestra especia, esto es, el lenguaje verbal oral.
CARACTERÍSTICAS ESTRUCTURALES DEL LENGUAJE VERBAL
-
Arbitrariedad de sus unidades o estructuras, es decir, la falta de relación directa entre los signos que componen el sistema lingüístico y sus referentes, y por la independencia casi absoluta de las reglas y principios gramaticales respecto de las funciones sociales y cognitivas que desempeñan.
Los signos del lenguaje, adquieren su significado en virtud de una convención social, y no en virtud de una relación directa entre los significantes y los significados.
-
Cada comunidad social o cultural dispone de un sistema convencional de signos y de reglas gramaticales. Las lenguas son manifestaciones particulares del lenguaje, cuyas unidades y gramática concretas, al ser arbitrarias, deben ser aprendidas por los hablantes (transmisión por tradición).
Pero las lenguas presentan tb numerosas características formales comunes:
-
Unidades básicas (sonidos o palabras).
-
Reglas.
-
Restricciones respecto al orden de las palabras.
-
Estructura predicativa o proposicional.
⇒ La existencia de éstas regularidades en las diferentes lenguas, ha dado pie a postular la hipótesis de que ciertas propiedades del lenguaje son universales y definen rasgos específicos de las habilidades y potencialidades cognitivas de la especie humana (gramática universal (Chomsky)).
-
Respecto a las características de las señales lingüísticas, la modalidad oral exige la participación de 2 canales: vocal y auditivo, lo que exige a los usuarios reunir ciertos requisitos y condiciones anatómicas y funcionales.
Las características físicas de los sonidos (amplitud, frecuencia, duración), se relacionan con ciertas peculiaridades de la configuración anatómica del aparato fonador
Otras modalidades (lectoescritura o lenguajes manuales), exigen soportes estructurales y funcionales distintos (canales visual y motor).
-
En cuanto a las propiedades físicas de las señales lingüísticas del habla, la señal acústica se expande multidireccionalmente, y se desvanece rápidamente. La señal se despliega de forma continua, aunque las unidades lingüísticas son discretas. Por tanto, para la comprensión del lenguaje será necesaria la participación de sistemas de memoria, así como de procesos que permitan la segmentación de la señal física en unidades lingüísticas significativas.
En el caso de la modalidad oral, la memoria ecoica permitirá prolongar la señal, mientras que en el lenguaje escrito, lo hará la memoria icónica.
-
Por lo que se refiere a la estructura interna de las unidades lingüísticas, un rasgo distintivo es la doble articulación o dualidad de patrones (el sistema lingüístico se compone de 2 tipos de unidades: no significativas o fonemas, y unidades con significado o morfemas, palabras, que resultan de la combinación de los anteriores).
Polémica acerca de si ésta dualidad es un rasgo distintivo del lenguaje verbal frente a algunos sistemas de signos manuales empleados por los sordos.
Los sistemas lingüísticos que participan de la característica de dualidad de patrones son altamente productivos, abiertos y flexibles.
A partir de un número finito de unidades y reglas es posible la construcción de infinitas unidades lingüísticas significativas (Chomsky), por tanto, la lengua puede ampliarse con nuevos signos, y los usuarios pueden usar las unidades lingüísticas de forma creativa.
-
Chomsky distinguió entre las reglas de organización de las oraciones en el plano de la estructura profunda (relaciones conceptuales codificadas en el mensaje), y en el de la estructura superficial (unidades lingüísticas que aparecen explícitamente en el mensaje). Esta distinción resulta útil para la explicación psicológica del lenguaje, así como para explicar la existencia de parafrases (mensajes lingüísticos que son diferentes en el plano superficial, pero que tienen un significado conceptual profundo equivalente).
-
Las unidades relevantes de los mensajes verbales (fonemas, palabras), admiten una representación gráfica discontinua o discreta (aunque acústica continua).
Estas unidades tienen una organización interna jerárquica y componencial (las unidades lingüísticas (signos) siempre pueden ser analizadas y descritas en base a las unidades de nivel inferior de cuya combinación resultan) (Osgood).
La combinación no es aleatoria, sino que se rige por principios o reglas recogidas en las gramáticas particulares.
-
En la modalidad oral existen además de las unidades comentadas, parámetros de organización de los mensajes, parámetros prosódicos de la voz (volumen, entonación, timbre, ritmo), que tienen una naturaleza suprasegmental y continua.
Estos parámetros transportan una gran cantidad de información emocional y pragmática.
CARACTERÍSTICAS FUNCIONALES DEL LENGUAJE VERBAL
Las características estructurales mencionadas anteriormente, modulan de forma cualitativamente distinta y superior a otras especies, la capacidad de expresión.
Además, posibilita un desarrollo complejo y distintivo de las otras 2 funciones básicas del lenguaje (Bühler): la FUNCIÓN REPRESENTACIONAL, y la FUNCIÓN COMUNICATIVA.
CARACTERÍSTICAS DE LA FUNCIÓN REPRESENTACIONAL O SIMBÓLICA:
La particular cualidad combinatoria del lenguaje verbal, se puede relacionar con numerosas características distintivas de la especie humana.
Desplazamiento referencial o apertura situacional: Los signos lingüísticos verbales no están ligados de forma necesaria o directa a referentes inmediatamente presentes en el tiempo y en el espacio.
Paulov: El lenguaje no opera tanto como un sistema de señales primarias, sino como un segundo sistema de señales, que resulta de la generalización de las vinculaciones o asociaciones del primer sistema de señales.
La posibilidad de generalización que ofrece el lenguaje verbal, se apoya en el análisis del significado y, en consecuencia, determina formas de reacción y respuesta ante el medio que son cualitativamente superiores, en tanto que mecanismos de adaptación a un medio tan flexible y variable como el medio social humano.
Estas características liberan al lenguaje y a su uso de la realidad física concreta e inmediata, y le permiten operar como un sistema representacional de propósitos generales. Así, el lenguaje amplia su funcionalidad representacional de forma ilimitada, lo que posibilita entre otras cosas describir y analizar la actividad misma del decir (utilizar el lenguaje para hablar del lenguaje) o reflexividad del lenguaje, que da lugar al conocimiento metalinguistico (descripciones, teorías y modelos sobre el propio lenguaje).
La posibilidad de analizar mediante el lenguaje la propia conducta, constituye el germen de la conciencia reflexiva y de la conducta de autocontrol.
El lenguaje humano, no representa directamente la realidad, sino que representa representaciones mentales que los sujetos tienen y construyen acerca de esa realidad ⇒ carácter metarrepresentacional del lenguaje.
El lenguaje nos describe las cosas y nos informa acerca de cómo son ("caballito": no es solo un animal concreto, tb es pequeño y masculino).
Este "ir mas allá" de la mera presentación de los objetos, resulta obvio en las formas lingüísticas más complejas (combinaciones de 2 signos), y en las oraciones.
El lenguaje verbal no sólo representa la realidad, sino que tb describe sus propiedades, y por tanto, cualifica a la misma realidad que representa ⇒ El lenguaje es un sistema analítico de representación.
Otras características del lenguaje verbal:
-
Frecuente ambigüedad de los enunciados lingüísticos.
-
Existencia de connotaciones que modulan el significado literal y convencional, en función de la experiencia y los sesgos personales o socioculturales de los hablantes.
-
La posibilidad de decir mediante el lenguaje algo falso que no se corresponde con la realidad (prevaricación).
-
La posibilidad de construir mensajes que transmiten información contradictoria o incongruente en el plano segmental o gramatical, y el suprasegmental o prosódico (descalificación).
CARACTERÍSTICAS DE LA FUNCIÓN COMUNICATIVA
-
El lenguaje verbal es un sistema de comunicación biológico o natural, especializado en la transmisión de información significativa (relevante desde el punto de vista de la adaptación y el comportamiento).
-
Esta transmisión de información puede tener lugar entre personas o intrapersonalmente (autorregulación de la actividad).
-
Los signos no son meros indicadores de la realidad, lo que presupone la realización de operaciones activas de análisis y combinación.
-
Los seres humanos pueden establecer, mediante el lenguaje verbal, formas de comunicación cualitativa y/o cuantitativamente distintas a las de otras especies.
El análisis genético de la función comunicativa humana y el estudio de los usos comunicativos dados a los signos, por chimpancés entrenados en lenguajes humanos (AMESLAN), apoya ésta hipótesis: Diferencias relacionadas con el trascender del uso primario o directo de los signos (función imperativa), y con la posibilidad de utilizar el lenguaje en nuestra especie en formas de comunicación más desinteresadas (función declarativa).
Según Luria, la designación, y las distintas formas que adopta la función declarativa, constituye una función exclusiva de la comunicación humana.
-
El lenguaje puede interpretarse como un proceso de transmisión e intercambio de información: un emisor codifica mensajes, y un receptor descodifica o descifra tales mensajes, en virtud del conocimiento del mismo código.
El modelo de Shannon y Weaver va en ésta dirección:
CODIFICACIÓN DESCODIFICACIÓN
Desde diferentes perspectivas, se ha cuestionado la validez de éste modelo, por no considerar el carácter intencional de la actividad lingüística humana, y la interpretación del significado intencional (no sólo referencial) de los mensajes.
Según Hörmann, los mensajes no proporcionan información al oyente, sólo le guían en el proceso de reconstrucción de la información que tiene que realizar el oyente por sí mismo. Por tanto, requiere tomar en cuenta ciertos aspectos pragmáticos relacionados con la actividad mental de los sujetos.
Se amplían así los análisis de los teóricos que sólo veían en el uso del lenguaje una actividad de codificación y descodificación de señales, y a sustituirlos por una interpretación del lenguaje como intercambio de símbolos y combinaciones de signos significativos e intencionales.
Modelo de Hörmann:
COMUNICACIÓN
-
El lenguaje verbal es un sistema de comunicación redundante: señales gramaticales de distintos tipos, implican la repetición de un mismo contenido informativo en distintos puntos del mensaje (ej: repetición de la información respecto al número (singular o plural) de sujetos que realizan la acción).
Esto determina que el lenguaje verbal sea fácilmente predictible por el oyente, lo que posibilita que las señales lingüísticas puedan ser percibidas e interpretadas, incluso aunque estén muy degradadas ("ruido" ambiental y/o lingüístico).
CARACTERÍSITCAS DEL LENGUAJE EN TANTO QUE MODALIDAD DE COMPORTAMIENTO
Libertad de su uso:
-
La conducta lingüística carece de dependencia necesaria respecto de los estímulos.
-
Los usuarios del lenguaje tienen la posibilidad de demorar sus respuestas lingüísticas el tiempo que quieran, diferenciando y tratando de un modo relativamente independiente, los componentes emocionales e informativos de los mensajes.
La conducta lingüística es un caso prototípico de conducta inteligente, intencional y propositiva.
El carácter propositivo de la actividad lingüística permite entender tb por qué los silencios, poseen, en la especie humana, un contenido informativo tan importante. En otras especies, la actividad comunicativa puede explicarse simplemente en función de las contingencias estimulares antecedentes.
Von Humboldt: "Poniendo a nuestra disposición el aquí no y el todavía no, el lenguaje nos permite superar el encadenamiento estímulo-respuesta, desear un acontecimiento, planear una acción, recordar y referir un suceso".
La conducta lingüística es una actividad productiva y extremadamente flexible, en la que es posible, y muy probable, la comisión de errores (gramaticales).
Esto obliga a suponer la existencia de mecanismos funcionales que les permitan percatarse de los errores y, eventualmente, corregirlos (reformular su mensaje) ⇒ retroinformación del propio mensaje.
El uso del lenguaje puede ser visto como una conducta instrumental, porque se puede relacionar con ciertas condiciones antecedentes (o estados) del emisor o del ambiente, y con ciertas consecuencias o efectos (conductuales, emocionales o cognitivos) sobre el entorno, lo que le convierte en un instrumento de regulación interpersonal y social.
Intercambiabilidad de roles entre el emisor y el receptor, y necesidad de retroinformación completa (el emisor necesita tener un feedback inmediato y completo de sus propias emisiones)
Desde un punto de vista psicológico, éstas características están relacionadas con la mayor probabilidad que tenemos como especie de cometer errores en la codificación e interpretación de los mensajes.
Además, éstas 2 propiedades, dan pie a suponer que las actividades de comprensión y producción del lenguaje, puesto que deben realizarse de forma simultánea, comparten estructuras y características funcionales, aunque, probablemente, presentan tb diferencias.
Importancia que para una correcta interpretación de la actividad lingüística, tiene el análisis del contexto en que ésta se desarrolla.
El lenguaje verbal a parece como un tipo de actividad altamente especializada y compleja:
-
No parece cumplir una función biológica primaria.
-
Sus consecuencias no se derivan directamente de su topografía física.
-
Su realización implica el concurso de tipos de conocimiento y procesos extremadamente variados.
-
Desde el punto de vista neurofisiológico, existen ciertas peculiaridades en la configuración de algunos de los sistemas periféricos ligados al lenguaje (aspectos del conducto vocal y el sistema auditivo).
La especificidad del sustrato neurológico, tanto a nivel cortical como subcortical, resulta más controvertida que la de los sistemas periféricos.
Los soviéticos, especialmente Luria, demuestran una dependencia funcional del lenguaje respecto de zonas específicas de la corteza cerebral (hemisferio izdo) frente a la localización del control de las vocalizaciones en otras especies de primates, lo que explicaría el carácter "emocional" y no autorregulable de las vocalizaciones de éstos, frente a las de la especie humana.
ALGUNAS CONCLUSIONES
La investigación científica del lenguaje constituye un tipo de habilidad o actividad particularmente compleja:
-
Exige considerar niveles de análisis cualitativamente muy diferentes entre sí, lo que aboca a una colaboración interdisciplinar.
-
La propia diversidad del lenguaje complica la elaboración de teorías o modelos de carácter general.
TEMA 2: LA PERSPECTIVA PSICOLÓGICA EN EL ESTUDIO DEL LENGUAJE
INTRODUCCIÓN
Hasta finales del XIX, el estudio del lenguaje consistió en una larga espiral de reflexiones filosóficas y gramaticales, con sus raíces en la India antigua y la Grecia clásica, generando un prolongado y multifacético debate.
Según Lounsbury, éstas discusiones sirvieron de marco a la conocida polémica entre anomalistas (los "nombres" son el resultado de un "pacto", "consenso" o "hábito" social), y analogistas (existe una razón "natural" que vincula a los nombres con sus referentes, asegurando así su exactitud).
La coyuntura de finales del XVIII y principios del XIX, sirvió de escenario para el inicio del estudio científico del lenguaje, y de su vinculación con la psicología.
Importancia de Wilhelm Vos Humboldt:
La distinción entre "ergon" y "enérgeia" (la lengua misma no es un producto, sino una potencia), logró romper con la interpretación tradicional que asimilaba el lenguaje como un mero envoltorio, estático y encerrado en sí mismo, con el que transmitir las ideas y los conceptos.
El término "logos" recuperó su sentido original tras siglos de interpretaciones filosóficas distorsionadas (simple suma de palabras y reglas), para constituirse en uno de los componentes y motores principales de la actividad psíquica humana, es decir, dejó de ser un simple producto del espíritu humano para convertirse en un proceso.
Tras Humboldt, el lenguaje es una capacidad consustancial a la especie humana, que revela y sirve de soporte a la actividad psíquica, y que existe en tanto en cuanto alguien puede recrearla en cada nuevo acto de habla.
La "psicologización" que introdujo Humboldt en la conceptualización del lenguaje, al cuestionar la posibilidad de desvincular su estudio del resto de los procesos mentales, influyó de forma determinante, en el surgimiento y cristalización de la lingüística y de la psicología modernas.
Wundt, aunque compartió el interés del lenguaje para la psicología de los pueblos, sostuvo la idea de que el lenguaje debe ser tratado como un proceso o actividad individual, que debe ser objeto de explicación por parte de la psicología general o experimental.
Saussure (para muchos el "padre" de la lingüística moderna), sostuvo la idea de que la lingüística debe interpretarse como una rama de la psicología general.
EL PROGRAMA DE INVESTIGACION DE LA PSICOLOGÍA DEL LENGUAJE: ALGUNAS CARACTERÍSTICAS GENERALES
El abandono de la interpretación del lenguaje como un conjunto cerrado de signos que "etiquetaban" la realidad física o mental preexistente, y su sustitución por una visión del lenguaje más próxima a una "capacidad o actividad" generadora de signos y de ideas, constituyó la "perspectiva psicológica" en el estudio del lenguaje.
¿En qué sentido podemos decir que le interesa el lenguaje a la psicología?:
INTERÉS POR EL SUJETO Y POR LA EXPLICACIÓN DE LA ACTIVIDAD LINGÜÍSTICA
El lenguaje no puede desvincularse de los sujetos que lo poseen. En términos psicológicos, puede interpretarse como una "capacidad" que poseen ciertos tipos de organismos, a partir de ciertas propiedades de su constitución biológica y psíquica interna.
La capacidad de hablar, es independiente del hecho concreto de que alguien, pudiendo hablar, desee o no hacerlo en un momento dado, e independiente de sufrir, de forma transitoria o permanente, condiciones que impidan ejercitar de forma efectiva, las capacidades lingüísticas.
Cuando la capacidad de hablar se hace efectiva, el análisis sistemático de tal conducta, se convierte en uno de los modos de aproximación científica, potencialmente más útiles, para su estudio y de las condiciones psíquicas y biológicas que la posibilitan o la sustentan, naturalmente en cada especie.
El desarrollo de estas habilidades naturales, requieren de un proceso de instrucción o adiestramiento, que no es particularmente largo ni complejo. Esto contrasta con las necesidades instruccionales de la adquisición de las capacidades no naturales, y con la dificultad de la adquisición de formas secundarias o tardías de una habilidad o capacidad natural (aprendizaje de una segunda lengua).
El lenguaje resulta objeto de investigación típicamente psicológico porque:
-
Es un tipo de capacidad y comportamiento que forma parte de los repertorios de capacidades y comportamientos naturales de algunos organismos.
-
Posibilita, en los sujetos que lo desarrollan, formas particulares de relación y de acción con su medio.
Preocupación sistemática de los psicólogos por la explicación de la macrogénesis y la microgénesis del lenguaje, y también un interés claro por la relación funcional del lenguaje y la conducta lingüística con otras capacidades y formas de conducta (más que un interés por la explicación del lenguaje per se).
A la psicología no le interesa el lenguaje como producto acabado o cerrado en sí mismo, lo que le interesa es que éste, en sus diferentes formas, se adquiere, se usa y resulta funcional en sujetos y organismos especialmente en la especie humana.
Los cometidos de la psicología del lenguaje se articulan alrededor de 3 grandes núcleos u objetivos:
El estudio de las actividades de producción y comprensión del lenguaje, en los monólogos y conversaciones, y en sus diferentes modalidades.
El estudio de las funciones cognitivas, comunicativas, etc., que desempeña el lenguaje y/o que sirven de soporte a su adquisición y uso.
El estudio de los procesos de adquisición y de deterioro, o no desarrollo, del lenguaje (aspectos evolutivos y patológicos).
NATURALEZA EMPÍRICA DE LA INVESTIGACIÓN PSICOLÓGICA DEL LENGUAJE Y PRINCIPALES ESTRATEGIAS METODOLÓGICAS
La psicología del lenguaje identifica su objetivo disciplinar nuclear con el estudio de la función y de la actividad lingüísticas, diferenciándose de otras disciplinas (más centradas en el lenguaje per se), y constituyéndose en una rama de la psicología científica.
Se trata de una disciplina empírica, cuyas hipótesis y conclusiones deben ser contrastadas sistemáticamente, con datos procedentes de la observación de la conducta lingüística efectiva o real de los sujetos, en situaciones naturales o experimentales, para elaborar los principios generales de la explicación de tal conducta, así como la identificación de los factores y condiciones que determinan sus diferentes formas.
MÉTODOS BÁSICOS:
METODOLOGÍA OBSERVACIONAL O CORRELACIONAL:
Se trata de la observación de la conducta lingüística tal y como se da en situaciones en las que el investigador está presente.
Cuando la observación se aplica a uno mismo se denomina introspección.
Permite describir y catalogar la actividad, establecer ciertas relaciones hipotéticas entre variables.
No permite someter a prueba directa hipótesis de tipo causal.
Implica la selección, registro objetivo y codificación, de un conjunto de conductas. Posteriormente, se pueden realizar descripciones exhaustivas de esas observaciones, y aplicar # técnicas estadísticas, para hallar los patrones de covariación de las variables y/o conductas observadas.
Los datos obtenidos son apropiados para, estudios exploratorios que requieren una descripción exhaustiva del fenómeno, para la descripción de diferencias individuales e intergrupales, y para identificar variables con potencial valor explicativo.
La conducta lingüística (sobre todo la producción del lenguaje), ha sido objeto tradicional de estudio observacional:
-
Observación de elementos o parámetros de la conducta lingüística per se:
-
Cuando se describen y categorizan los contenidos de una muestra lingüística.
-
Cuando se describe la estructura de las oraciones o textos producidos por los sujetos.
-
Cuando se analizan los puntos o momentos en que el habla espontanea contiene errores o titubeos.
-
Descripciones de otros elementos del contexto, lingüístico o extralinguistico:
-
Estudios que analizan las relaciones entre la edad y el nivel de desarrollo morfosintáctico.
-
Relaciones entre nivel de desarrollo cognitivo y social de los sujetos y sus habilidades conversacionales.
-
Cuando se compara el lenguaje de distintas patologías o grupos socioculturales.
-
Cuando se estudia la relación de forma y/o función de las emisiones de un niño ecolálico con la de las emisiones lingüísticas previas.
Riesgos o exigencias de la metodología observacional:
-
Existencia de muchas diferencias inter e intraindividuales, lo que exige el diseño de mecanismos de control que garanticen la representatividad de las muestras.
-
Influencia de determinadas variables del contexto o situación en que se desarrolla el intercambio comunicativo, lo que obliga a tomar precauciones metodológicas que garanticen la replicabilidad de las observaciones.
-
La naturaleza comunicativa de los intercambios lingüísticos y su ocurrencia en situaciones de interacción, impone también ciertas cautelas ⇒ fuertes dependencias funcionales respecto de las conductas realizadas por otros sujetos. Por tanto, la explicación de los componentes de la actuación lingüística, exige la observación de la conducta lingüística, tanto de los sujetos objeto de estudio, como de sus interlocutores.
LA METODOLOGÍA EXPERIMENTAL:
La simple observación de los hechos, y la elaboración de principios generales a partir de la generalización de las observaciones, por medio de procedimientos inductivos, no constituye un modo apropiado de hacer ciencia.
El método hipotético-deductivo, implica el paso por # fases:
Elaborar hipótesis precisas acerca de aspectos de la realidad que constituyen su objeto de estudio.
Realizar ciertas deducciones relativas al tipo de observaciones empíricas que puede esperar encontrar.
Comprobar de forma empírica la validez de las hipótesis y deducciones mediante "experimentos" (situaciones artificiales y totalmente controladas de observación que permiten la contrastación empírica de las hipótesis, sobre la relación de causalidad o relación funcional entre eventos.
Mediante el experimento se puede:
-
Manipular de forma reversible ciertas variables (VIs), a las que se les atribuye el valor de "causa". Cdo no es posible la manipulación (edad, sexo), realizará por selección o utilizando diseños "cuasiexperimentales".
-
Observación y medida de los cambios que producen las VIs en las variables que se pretenden explicar (VDs).
-
Control de otras variables (extrañas) que pueden tener papel causal pero que no están contempladas en la hipótesis.
Problemas del método experimental:
-
Garnham: Dificultad de elaborar hipótesis sobre los mecanismos implicados en la conducta lingüística suficientemente precisos como para generar predicciones empíricas que puedan dar pie a observaciones no ambiguas.
-
Herbert Clark: Interpretación de los resultados: Inadecuada generalización.
-
Dificultad de utilizar la metodología experimental en la investigación sobre la producción del lenguaje (exigiría la manipulación reversible de los contenidos mentales y motivacionales de los sujetos), frente a su fácil utilización en el estudio de los procesos de comprensión.
-
Dificultad de poder llevar a acabo un control riguroso y suficiente de las condiciones contextuales en que se desarrolla la actividad lingüística, que no atente contra la validez de los datos obtenidos.
LA SIMULACIÓN:
Los datos son proporcionados por máquinas (ordenadores digitales) a las que se les ha dotado de memorias o "bases de datos", y unos programas de funciones y utilización de dichas memorias, mediante las que se espera que resuelvan ciertas tareas de producción y comprensión del lenguaje.
Existe una equivalencia funcional entre las operaciones computacionales que pueden ser realizadas por la mente humana, y las que pueden ser realizadas por un ordenador: "paradigma computacional".
Ventajas: Evidentes cuando el objetivo de la investigación científica es una forma de actividad cognitiva e inteligente, como el lenguaje, que implica la utilización de sistemas complejos de conocimiento que deben ser revisados y actualizados de forma casi continua en función de múltiples variables, internas y externas.
La investigación del lenguaje ha ido recurriendo, cada vez más, a los métodos de simulación.
COMPLEJIDAD DE LA ACTIVIDAD LINGÜÍSTICA Y DE SU DESCRIPCIÓN CIENTÍFICA
A la psicología del lenguaje le corresponde la explicación científica de la actividad lingüística, que debe concebirse como una forma de actividad psíquica.
No existe un único "enfoque psicológico", teóricamente homogéneo, en el estudio del lenguaje. De hecho, hay tantas "psicologías del lenguaje" como modos de explicación han ido desarrollándose en la psicología científica.
4 PLANOS DE DESCRIPCIÓN BÁSICOS:
PLANO FÍSICO O NEUROBIOLÓGICO:
Implica el análisis sistemático del sustrato material en que se asientan, tanto la capacidad humana del lenguaje, como la actividad lingüística efectiva, en términos macroestructurales y microestructurales.
Términos macroestructurales:
Sistemas centrales y periféricos que participan en la producción y comprensión de las señales lingüísticas, y sus diferentes estados en los distintos periodos de evolución genética de las especies y los individuos.
Términos microestructurales:
Análisis del grado de especialización de ciertas neuronas, respecto a la realización de ciertas tareas lingüísticas específicas.
PLANO DE LA DESCRIPCIÓN CONDUCTUAL:
Descripción del comportamiento o conducta manifiesta de los sujetos. Básicamente se estudian las acciones directamente observables, en las que se manifiestan las habilidades lingüísticas de los hablantes.
Descripción de las respuestas lingüísticas: topografía, frecuencia, intensidad, así como sus antecedentes y consecuencias en el entorno.
PLANO DE LAS DESCRIPCIONES INTENCIONALES:
Descripción, tanto de los "contenidos proposicionales o semánticos" de los mensajes, como de las "actitudes" o intenciones de los usuarios lingüísticos respecto a tales contenidos.
Se presupone que los enunciados o verbalizaciones, no están tanto bajo el control externo de las circunstancias del ambiente, sino bajo el control de las actitudes intencionales de los sujetos que los producen e interpretan.
La utilización de ésta perspectiva intencional implica:
-
La introducción de elementos extralinguisticos en la descripción del lenguaje, así como el análisis de las relaciones que guarda el mensaje con esos elementos.
-
La utilización, por parte del psicólogo, de un vocabulario mentalista (no se limita a la descripción de hechos manifiestamente observables).
PLANO DE LAS DESCRIPCIONES COMPUTACIONALES:
La actividad lingüística es el resultado de la aplicación de un conjunto de reglas o algoritmos de computación específicos, sobre tipos de representaciones simbólicas que, en el caso del lenguaje, implican tanto conocimientos específicamente lingüísticos o gramaticales, como conocimientos e información de carácter más general.
La actividad lingüística se interpreta como un conjunto de procesos u operaciones metales de tratamiento y manipulación de símbolos, que, con frecuencia, operan por debajo del nivel de la conciencia de los usuarios.
Estas operaciones se rigen por principios formales que son independientes, tanto del contenido de los mensajes, como de las creencias y expectativas de los interlocutores.
Las descripciones computacionales tb emplean un lenguaje mentalista en la caracterización de la actividad lingüística (ni las representaciones simbólicas ni los algoritmos, constituyen objetos observacionales per se).
Pero, a diferencia de la descripción intencional, la caracterización funcional de éstos elementos, no requiere la referencia a elementos externos al sistema lingüístico, sino que puede realizarse a partir de criterios directamente relacionados con la organización interna del conocimiento y/o el sistema de procesamiento linguisticos.
En éste sentido, imponen una dependencia disciplinar respecto a la lingüística y otras ciencias formales (lógica, matemáticas), que no resulta necesaria en otras formas de caracterización del lenguaje.
ESTUDIO PSICOLÓGICO DE LA CONDUCTA LINGÜÍSTICA: UNA SÍNTESIS
Los distintos modos de explicación del lenguaje deben verse como compatibles aunque mutuamente irreductibles entre sí.
(Ver figura 2.1, pg 86)
Dos tipos de dominios:
Ambito correspondiente a las actividades lingüísticas.
Ambito de actividades de carácter más general (problemas no lingüísticos, comunicación no verbal, etc.).
Desde una perspectiva computacional, los mecanismos de procesamiento son distintos en función de la naturaleza de las representaciones sobre las que operan:
-
Sobre información de tipo gramatical.
-
Sobre información o representaciones extralinguisticas, que pueden servir de base a las descripciones intencionales de la conducta lingüística.
Desde un nivel de análisis neurobiológico, tb se distinguen 2 tipos de mecanismos neurales:
Los vinculados con las funciones lingüísticas, a las que se supone un carácter innato. Son mecanismos más compactos o preformados.
Los dominios más generales (no lingüísticos) de la actividad del sujeto. Son mecanismos más equipotenciales y plásticos.
Evidencia empírica: La estimulación o lesión de unos u otros tipos de mecanismos, conlleva formas de comportamiento lingüístico y no lingüístico relativamente diferenciables entre sí.
TEMA 3: LENGUAJE Y SÍMBOLOS: LA DIMENSIÓN FUNCIONAL
INTRODUCCIÓN
Lo que caracteriza al enfoque del psicólogo es la investigación del lenguaje como actividad (no le interesa el lenguaje como algo ya hecho, sino en su proceso de hacerse porro parte del alguien).
Ese modo de mirar el lenguaje (lenguaje en su uso), le compromete con la necesidad de tener en cuenta la naturaleza funcional de la actividad del lenguaje.
Según Pinker y Bloom, el lenguaje cumple la finalidad adaptativa de comunicar ideas. Pero, esto no resulta suficiente parta el psicolingúista.
Definir las funciones del lenguaje resulta muy complejo por varios motivos:
-
La ambigüedad y polisemia con que suele utilizarse en psicolingüística la noción de "función".
-
Conduce de forma inevitable al empleo de un plano descripción intencional, que tiene sus propias dificultades para hacerse compatible con las explicaciones científicas.
En una conversación se hace algo más que comunicar estructuras proposicionales (o ideas) al desnudo. Si no se separa un plano literal de significado, de otro intencional o pretendido, la conversación carecerá de sentido.
El significado intencional, en muchas ocasiones, no se refleja de manera directa en lo que se dice, sino que exige la realización de inferencias. Es frecuente que las proposiciones sean formas sutiles de expresar las intenciones de manera directa.
Afirmaciones que permiten comprender las funciones del lenguaje:
El lenguaje actúa sobre conjuntos de ideas, creencias, deseos e intenciones. Es decir, sobre los mundos internos y los contextos cognitivos de las personas ⇒ Modifica mundo mentales.
Los usuarios competentes saben que actúan sobre los mundos internos de sus interlocutores, a la vez que saben que los interlocutores son capaces de hacer lo mismo ⇒ Intencionalidad de tercer orden o intencionalidad recursiva.
Al emplear el lenguaje se comparte un amplio conjunto de conocimientos, que versan sobre 3 dominios:
Sobre el lenguaje mismo (reglas sintácticas, elementos léxicos, etc.).
Sobre relaciones generales en el mundo que comparten.
Sobre propiedades esenciales de sus mundos intencionales internos (trastornos importantes en las capacidades de atribución intencional, se acompaña de deficiencias profundas en las capacidades de usar funcionalmente el lenguaje).
Las funciones del lenguaje no residen en el lenguaje mismo, sino en las relaciones, que pueden ser muy complejas e indirectas, entre el código y el contexto en el que el lenguaje adquiere significado y sentido ⇒ Importancia del contexto.
Pero el contexto del lenguaje no es un contexto físico sino que es establecido por un sistema cognitivo, que no sólo posee estados mentales, sino que es capaz de atribuírselos a aquellos con los que se comunica. Por eso, la actividad lingüística es una actividad cooperativa, que implica intercambios de objetos intencionales.
Los enfoques mas recientes sobre las funciones del lenguaje apoyan ésta idea. Uno de los más influyentes el formulado por Dan Sperber y Deirdre Wilson en "Relevance".
TEORIA DE LA RELEVANCIA como principio básico que guía la comunicación ostensiva (que tiene la finalidad de "mostrar", de compartir creencias o experiencias).
Se basa en el concepto de contexto cognitivo (supuestos que un individuo es capaz de representarse mentalmente y evaluar en un momento determinado).
La comunicación ostensiva se dirigiría a ese contexto mental, y tendría la finalidad de modificarlo máximamente mediante el empleo de un mínimo de recursos.
La relevancia de los mensajes vendría definida por la razón entre la magnitud de la modificación y la de los recursos.
El lenguaje, por una parte, toma su sentido de la estrategia intencional; Por otra, potencia esa estrategia hasta límites de atribución y comprensión interpersonal, que no serían posibles sin el lenguaje mismo.
Precisamente porque el lenguaje se inserta en la actitud intencional, define sus funciones inmediatas sobre contextos cognitivos, y no sobre contextos externos.
Su capacidad de transformar el medio humano se deriva de su capacidad para cambiar primero los objetos intencionales que contienen las mentes de los hombres que lo usan (función "interna" del lenguaje)
Ejemplo: Lectura de un texto científico: No cambia los parámetros o valores físicos del contexto en que está, sin embargo, produce transformaciones en su contexto cognitivo.
La función más básica del lenguaje consiste en modificar estados mentales.
La inserción del lenguaje en la estrategia intencional permite que el lenguaje pueda transmitir "información evaluada" y no sólo "información en bruto" (Frith).
Pero, el lenguaje no se limita a poner una envoltura codificada a intenciones preexistentes, sino que permite al hombre hacerse a sí mismo explícitas las intenciones, estabilizarlas, convertirlas en regulaciones muy complejas de la acción humana, y acceder a un plano propositivo (de autorregulación cognitiva y comportamental), al que no es posible llegar sin el lenguaje.
METARREPRESENTACIÓN, SIMULACIÓN, SÍMBOLOS Y TEORÍA DE LA MENTE
Leslie propone que existe una diferencia importante entre la ficción y el error representacional; En la ficción se producen 2 representaciones simultáneas de algo: el niño que juega a que la cuchara vacía está llena, no le atribuye literalmente la propiedad de estarlo, sino que se la asigna, en un nivel representacional que se sobrepone al literal: la "metarrepresentación".
Entre los 2 y 5 años, se produce un proceso de "desacoplamiento", por el que ciertas formas especiales de representación (las metarrepresentaciones) se diferencian de las representaciones literales y "verídicas" de las cosas.
Importancia de la existencia de un modo metarrepresentacional para la comprensión funcional del lenguaje:
El desarrollo metarrepresentacional juega un papel decisivo en la elaboración progresiva de un mundo simbólico de ficción en el niño, que le permite situarse progresivamente en un ámbito imaginario, que implica una "ampliación de lo real", cada vez más independiente de los datos perceptivos inmediatos y de la "tiranía de lo particular".
Las metarrepresentaciones son los fundamentos de la teoría de la mente, y éste es, a su vez, la base de destrezas comunicativas que son decisivas en los usos lingüísticos.
"Paradoja de la evolución gradual del lenguaje" (Geschwind): Aquellos homínidos que desarrollaran un código lingüístico más complejo, no podrían ser entendidos por los otros, con lo que, el desarrollo de reglas complejas sería una desventaja adaptativa, que sería eliminada por la selección natural.
Esta paradoja se deshace si suponemos que la construcción de códigos más complejos fue solidaria, a lo largo de la evolución, con el desenvolvimiento de teorías de la mente más refinadas, y así, de habilidades comunicativas más poderosas. Estas permitirían a los homínidos más capaces, adaptarse a las posibilidades comunicativas de sus congéneres más limitados, de forma semejante a como las madres se adaptan a sus hijos (baby talk).
El empleo funcional del lenguaje implica una delicada adaptación de los hablantes a los estados mentales supuestos de sus interlocutores. Esa adaptación compleja, se realiza con la máxima claridad en la "conversación" (las destrezas de conversación se alteran drásticamente en las personas con trastornos importantes en las habilidades de la teoría de la mente).
La teoría de la mente puede considerarse como una elaboración compleja de la estrategia intencional, que implica la capacidad de diferenciar los estados mentales propios de los ajenos.
Su posesión se manifiesta claramente, por ciertos criterios que se refieren al engaño:
Su capacidad de engañar.
Su capacidad de reconocer cuándo otro organismo es engañado.
La capacidad de reconocer cuándo otro organismo engaña o trata de engañar.
(las destrezas de engaño activo y de reconocimiento de engaño, debieron ser ventajas adaptativas).
¿Por qué se llama a esa capacidad "teoría de la mente"?:
La noción "teoría de la mente" fue empleada por primera vez por Premack y Woodruff para explicar la capacidad de una chimpancé para reconocer que ciertos humanos se encontraban en situaciones de problema que intentaban solucionar.
Emplearon ese término porque la atribución a otros de estados mentales, implica emplear objetos teóricos como los deseos, creencias, e intenciones, con un fin predictivo: la predicción de la conducta de los organismos.
Demostraron que los chimpancés son capaces de engañar intencionadamente, lo que les hace merecedores de la atribución de una cierta teoría de la mente. Sin embargo, ésta competencia es notablemente menor que la que poseen los humanos.
Los niños normales desarrollan rápidamente su capacidad de teoría de la mente, a lo largo del periodo preoperatorio.
Una prueba de las relaciones entre las competencias metarrepresentacionales, la teoría de la mente, el juego simbólico y el lenguaje, es el hecho de que, desde un periodo temprano en la adquisición del lenguaje, los niños desarrollan un vocabulario muy rico en verbos como "querer", "saber", "creer", etc., y lo van refinando progresivamente mediante distinciones semánticas muy sutiles (entre "saber" y "adivinar"). Este vocabulario mentalista incluye, tanto verbos epistémicos (conocimiento), como emocionales. Ninguna explicación conductista de la adquisición del lenguaje puede explicar la adquisición de ese vocabulario mental, cuyos referentes no son externos sino privados ⇒ "El desarrollo del lenguaje se fundamenta en la existencia previa de un mundo intersubjetivo compartido".
La relación que existe entre la teoría de la mente y la ficción que se produce en las pautas infantiles del juego simbólico, se demuestra en el "isomorfismo profundo" que se da entre los enunciados que contienen verbos mentales (intencionales) y ciertas propiedades de esas pautas de juego (Leslie):
⇒ La enunciación de estados mentales y la ficción son actividades que dependen cognitivamente de la misma forma especializada de representación mental, y que por tanto, heredan sus propiedades semánticas.
Esa forma de representación, la metarrepresentación, implica un desacoplamiento con relación a las representaciones primarias, y permite, tanto la constitución del mundo simbólico, como la atribución simbólica de estados mentales a otros.
Josef Perner cuestiona que las primeras formaciones simbólicas de los niños requieran metarrepresentaciones en sentido estricto. Para él, los símbolos requieren tener modelos múltiples (no necesariamente metarrepresentacionales) de la realidad, y las primeras formas de actitud intencional de los niños, se derivan de una competencia lógica de inferir estados mentales por mecanismos más racionales.
Sin embargo, un amplio conjunto de datos demuestran que el desarrollo estructural explosivo que el lenguaje tiene durante el periodo preoperatorio, no se produce en el vacío, sino en el contexto de otros desarrollos estrechamente relacionados.
Las pruebas que proporciona la patología sugieren que sólo es posible adquirir adecuadamente un lenguaje cuando se comparte, antes de eso, el mundo interno de otras personas.
DESARROLLO DE LA COMUNICACIÓN Y ORIGEN DE LOS SÍMBOLOS
LA CONCEPCIÓN INTERACCIONISTA DE LOS SÍMBOLOS
Los orígenes de los símbolos y el lenguaje, en sus aspectos funcionales, deben buscarse en el desarrollo de la conducta social del niño.
La importancia de las raíces sociales de los símbolos ha sido destacada por los psicólogos interaccionistas (Vygotski, Mead) → “INTERACCIONISMO SIMBÓLICO”.
Esta perspectiva permite comprender para qué se realizan símbolos (no sólo en qué consisten).
Postura de Piaget y la Escuela de Ginebra:
Piaget, identifica las funciones simbólica y de representación. Además, establece como criterio esencial de representación, la capacidad de establecer un mundo objetivo, es decir, los objetos con una consistencia permanente, independiente de la percepción inmediata y de las múltiples apariencias (y desapariciones) de los estímulos.
Establece así un requisito importante para el desarrollo de la función simbólica que es la capacidad de evocar lo ausente.
Esta postura, no permite desvelar para qué aparecen los símbolos.
Determinadas conductas, solo adquieren sentido cuando se realizan con fines comunicativos, y por alguien que percibe que hay una mente capaz de interpretarlos (todos los símbolos, en el caso del hombre, requieren una cierta intuición mentalista en sus productores). De hecho, un niño deprivado de contacto humano en la fase de desarrollo simbólico no produce símbolos, pues ¿para qué o para quién los produciría?.
Todos los símbolos humanos, y no sólo el lenguaje, poseen un origen comunicativo y están al servicio de funciones sociales.
Los símbolos son “representaciones de representaciones”: Inicialmente, son representaciones externas, que cumplen fines comunicativos. En el desarrollo, sufren un proceso de interiorización, haciéndose instrumentos de autocomunicación, que cumplen funciones cognitivas importantes y definen el plano de la “conciencia de segundo orden” (conciencia de sí mismo).
Esta perspectiva, que insiste al tiempo en el origen y en la naturaleza comunicativa de los símbolos, y en el carácter semiótico de la conciencia humana, es la que caracteriza a las posturas interaccionistas.
No es bastante que el niño se sitúe en un mundo de objetos permanentes, ni que desarrolle ciertos mecanismos de cómputo formal. Para que se lleguen a producir símbolos y lenguaje, el niño tiene que situarse también en un mundo de seres sociales, y percibirlo así.
ALGUNAS PAUTAS SOCIALES EN BEBÉS
Las investigaciones han puesto de manifiesto que los neonatos son seres sociales desde el principio, o al menos, producen ciertas respuestas que son precursoras del desarrollo social posterior.
PRESINTONIZACIÓN:
Los neonatos están “presintonizados” atencional o perceptivamente, hacia el
rango estimular que proviene de las personas. Los bebés, ajustan en muy poco tiempo su sistema perceptivo, a contornos prosódicos característicos del lenguaje de su comunidad, dan muestras muy precoces de preferir la voz de su madre, y poseen notables capacidades de discriminación fonética.
ARMONIZACIÓN:
Además de ésta presintonización, los neonatos producen respuestas armónicas hacia los estímulos sociales:
-
“Sincronía interactiva”: Patrones de movimiento que producen cuando se les habla, y que muestran una sincronía respecto a los moldes prosódicos del habla.
-
“Imitación neonatal”: La presentación de modelos de gestos faciales a neonatos, se sigue de un aumento de su frecuencia. Indica la existencia en los bebés de la capacidad inter-modal de traducir una entrada visual en un programa motor no visible en el propio cuerpo.
La imitación no es sólo un mecanismo de aprendizaje y desarrollo de la conducta, sino tb una forma de expresión intersubjetiva: Trastornos graves en el desarrollo social y comunicativo, se acompañan de alteraciones en las pautas de imitación. En niños de 8-14 meses, existe una correlación significativa entre la imitación y las pautas comunicativas protodeclarativas, pero no entre la imitación y los protoimperativos (densidad intersubjetiva mucho menor).
La noción de “INTERSUBJETIVIDAD” es esencial para comprender el origen funcional de los símbolos y del lenguaje.
Trevarthen, acuña el concepto de “intersubjetividad primaria” para referirse a una motivación esencial en el desarrollo, que permite percibir, de algún modo inicialmente indiferenciado, la significación humana de ciertas expresiones.
Para éste autor, los símbolos son formas complejas de cooperación entre mentes (recursos de intercambio mental), cuyas raíces están su concertación emocional interna (intersubjetividad primaria). Se presupone que el acceso emocional al mundo interno de otros, es previo a otras formas complejas y más cognitivas de acceso.
Un modelo “jamesiano” de la emoción (a la manera de W. James), podría definir un mecanismo que permitiría explicar las formas primarias de intersubjetividad que aparecen en nuestra especie: al imitar las expresiones emocionales de otras personas, los bebés atenderían a reexperimentar las experiencias emocionales reflejadas en esas expresiones. Así, desde mucho antes de emplear una estrategia intencional en sentido estricto, y de poseer una “teoría de la mente”, los bebés accederían de algún modo, a las experiencias internas de otros.
Por tanto:
El origen de los símbolos no reside sólo en el desarrollo cognitivo de las capacidades de asimilación y representación del niño, sino tb en el desarrollo afectivo y emocional (efectos negativos de la deprivación afectiva temprana sobre las capacidades simbólicas y lingüísticas).
LAS PRIMERAS INTERACCIONES Y EL ORIGEN DE LA COMUNICACIÓN
Hay otras pautas, características de los bebés de 4-8 meses, que también son relevantes para el desarrollo de posterior de la comunicación intencional:
-
Competencias “prospectivas”, de anticipación activa en ciclos habituales de acción, que delimitan las primeras interacciones propiamente dichas.
Pauta de levantar los brazos cuando los adultos van a tomarles en brazos: aunque no permiten establecer en otros intenciones que aún no poseen, indican cuando menos un reconocimiento temprano y rudimentario de las intenciones de otros.
Estructura: Las interacciones son acciones cooperativas de ciclo abierto, es decir, que esperan ser completadas por la acción del otro (a diferencia de las acciones instrumentales sobre objetos, que son de ciclo cerrado).
-
Pautas de interés creciente por los objetos, y elaboración de los esquemas y acciones instrumentales respecto a ellos.
El interés por los objetos es un requisito muy importante, para el desarrollo simbólico y lingüístico del hombre.
El desarrollo de acciones instrumentales de segundo orden (pautas de elaboración de unos instrumentos con otros), a lo largo de la filogénesis, pudo tener un papel muy importante en la evolución de ese peculiar “interés desinteresado” por los objetos, tan específico del hombre (Perinat): El hecho de que los objetos puedan convertirse en instrumentos de instrumentos, la utilidad potencial de cualquier objeto del medio, constituiría una motivación hacia los objetos en la que éstos se vuelven interesantes, independientemente de su valor para la satisfacción de necesidades inmediatas.
Se denomina “triangulación” al proceso por el cual los niños se hacen capaces de comunicarse con otros sobre los objetos; Los vértices de ese triangulo relacional estarían definidos por los compañeros de interacción y el tema-objeto que comparten. Ese proceso no se completa hasta el segundo año de vida, de los 12-18 meses (Schaffer: los niños de 4-8 meses no poseen aun la capacidad de atención suficiente para asimilar, al mismo tiempo, los esquemas de objeto y persona).
A los 12-18 meses, los niños poseen conductas ya claramente intencionales, referidas a objetos, de relación comunicativa, son capaces de crear en los otros intenciones nuevas, que responden a sus objetivos de comunicación.
Estos objetivos pueden ser de 2 tipos y definen 2 grandes categorías de conductas comunicativas presimbólicas, de la fase elocutiva de la comunicación infantil:
Los protoimperativos: Realización de vocalizaciones o gestos, de carácter propositito, dirigidos a un objeto o persona, con el fin de conseguir el objeto a través de la persona.
Los protodeclarativos: Los gestos y las emisiones cumplen la función de compartir con la persona el interés o la atención respecto al objeto.
Las comunicaciones de matiz declarativo, contienen una implicación intersubjetiva mayor que las protoimperativas, porque su objeto específico, es esencialmente mental: afectar a la atención, al interés, las creencias, etc, de alguien.
Los protodeclarativos implican un nuevo nivel de intersubjetividad o “intersubjetividad secundaria”, que consiste en la motivación deliberada de compartir los intereses y experiencias con otros. Esta motivación solo se explica a partir de una intuición rudimentaria de los otros como seres con mente.
Los gestos presimbólicos y las vocalizaciones preverbales de los niños de alrededor de 1 año, tienen todavía una limitación importante: sus referentes tienen que estar necesariamente presentes.
LA ESPECIFICIDAD FUNCIONAL DE LOS SÍMBOLOS Y EL LENGUAJE
Los primeros símbolos de los niños, se ponen al servicio de funciones comunicativas anteriores a ellos.
El desarrollo de los distintos sistemas simbólicos es solidario, pero implican modos diferentes de representación, adaptados específicamente a funciones concretas.
El lenguaje no se limita a transmitir imprecisos estados internos de excitación, interés o atención hacia los objetos, sino análisis cada vez más precisos de ellos, gracias a que posee una naturaleza predicativa, es decir, que permite atribuir acciones, propiedades y relaciones a los objetos.
Función global y esencial del lenguaje: Comunicar proposicionalmente intenciones.
Pinker y Bloom: El lenguaje es un sistema especialmente eficiente para representar proposiciones. Su diseño formal establece una jerarquía con distintas unidades:
Categorías léxicas (nombre, adjetivo, preposición, etc), que distinguen ciertas categorías ontológicas fundamentales (objetos, estados, cualidades, etc).
Categorías de nivel sintagmático (sintagmas nominales, verbales…) que permiten definir objetos concretos, estados definidos, localizaciones y propiedades específicas.
Reglas que permiten establecer correspondencias entre las oraciones y sus significados, o diferenciar los papeles que juegan los diferentes objetos de los que “se dicen cosas”, en el lenguaje.
Afijos verbales que señalan la distribución temporal de los sucesos, etc.
El lenguaje es un sistema complejo y eficiente que permite desbordar, diferenciar y especificar, las funciones comunicativas más rudimentarias, que se cumplen con los “realizativos preverbales”, o con los otros sistemas simbólicos no tan especializados.
Las funciones globales, de naturaleza imperativa o declarativa, se refinan y diferencian a medida que los niños desarrollan el lenguaje.
EL DESARROLLO DE LAS FUNCIONES COMUNICATIVAS DEL LENGUAJE
¿Cómo se desarrollan las funciones comunicativas del lenguaje?.
Se han propuesto diferentes taxonomías funcionales que tratan de categorizar las intenciones con que se realizan las emisiones lingüísticas, y que son las raíces de sus características funcionales (rechazar, comentar, demandar objetos, etc.), pero, generalmente, presentan 2 problemas:
Su propia diversidad: Las diferentes taxonomías emplean, frecuentemente, dimensiones diferentes de clasificación, o, una misma taxonomía puede entremezclar dimensiones y niveles conceptualmente diferentes, en un mismo nivel clasificatorio.
Problemas metodológicos comunes a todas las categorías que derivan del plano intencional de descripción.
Por ejemplo, determinar si alguien “rechaza” o “demanda”, etc., implica hacer inferencias sobre sus intenciones, y esas inferencias:
Son difíciles de justificar con rigor científico.
Se basan en relaciones complejas entre emisiones y contextos, no siempre fáciles de observar.
Pueden llevar a estructuras muy complejas.
A pesar de esto, el estudio del desarrollo funcional del lenguaje, permite sostener ciertas hipótesis:
El curso de la evolución de las funciones lingüísticas es universal.
La evolución funcional del lenguaje es relativamente precoz.
TAXONOMÍAS:
-
HALLIDAY: Una de las más utilizadas.
Propone que el niño se va creando distintos “modelos del lenguaje”, a medida que lo emplea y desarrolla, y de esos modelos provendrían las funciones del lenguaje.
Modelo instrumental: El lenguaje se usa como un medio para que las cosas se realicen.
Modelo regulador: Lenguaje como medio para regular la conducta de otros.
Modelo interaccional: Utilización del lenguaje en la interacción entre el yo y los demás.
Modelo personal: Conciencia del lenguaje como aspecto de la propia individualidad.
Modelo heurístico: Lenguaje como medio para investigar y conocer la realidad.
Modelo imaginativo: Lenguaje para crear entornos mentales cada vez menos sometidos a la realidad inmediata.
Modelo representativo o informativo: El niño se da cuenta de que puede transmitir un mensaje a través del lenguaje.
Instrumental
Plano pragmático Regulador
Interaccional
Personal
Heurístico
Plano matético Imaginativo
Representativo
(Matético: el usuario del lenguaje lo emplea para describir la realidad o aprender sobre ella)
Las funciones no se basan en teorías implícitas o modelos mentales acerca del propio lenguaje, sino de la acción misma que el niño realiza cuando lo usa.
El desarrollo funcional posterior a la formación de los modelos mencionados, es decir la formación de las “macrofunciones” (ideativa, interpersonal y textual), halla una expresión más transparente en las emisiones prelingüísticas y lingüísticas de los niños menores de 2 años (más que en las estructuras del lenguaje adulto).
Las aportaciones de Halliday se prestan a alguna confusión conceptual:
-
Propensión a entremezclar aspectos que se refieren a la función comunicativa del lenguaje, con otros que se sitúa más bien en su dimensión representacional (todas las actividades lingüísticas incluyen propiedades representacionales y son de naturaleza pragmática, aunque sea relativamente tardía la conciencia o la utilización deliberada).
-
Dificultad para deslindar las funciones de facto del lenguaje, de los modelos mentales que los sujetos puedan tener sobre ellas.
-
DORE:
Se basa conceptualmente en la teoría de los “actos de habla” de Searle.
Derivada del estudio de los usos infantiles del lenguaje en el periodo en que sus emisiones constan de una sola palabra (holofrases).
Establece 9 “actos de habla primitivos”:
Actos de etiquetado o denominación.
Repeticiones.
Respuestas.
Demandas de acción.
Demandas de respuesta.
Vocativos (función de llamada).
Saludos.
Protestas.
Prácticas (emisiones no dirigidas a adultos ni ligadas al contexto).
-
McSHANE:
Amplia el análisis de Dore.
5 grandes funciones:
Regulación: intento de controlar la conducta de otros por medio del lenguaje.
Declaración: Emisiones que nombran o describen una situación, o proporcionan información sobre ella.
Intercambio: Acompañan a acciones de dar o recibir objetos.
Personal: Emisiones referidas a lo que el niño hace o va a hacer, rechazos y propuestas.
Conversación: Se refleja en formas de imitación, respuesta a preguntas, etc.
-
VILA:
Investigación en niños bilingües y monolingües.
Emplea las categorías de McShane con una modificación:
-
Asimila las pautas de intercambio a la función reguladora.
-
Define una primera función expresiva, que proviene de pautas del niño anteriores al propio lenguaje.
-
DALE:
Una de las más completas y elaboradas.
Para analizar las funciones del lenguaje infantil, estableció 2 niveles de análisis:
El “estatuto de diálogo” de las emisiones.
Su categoría pragmática.
El estatuto de diálogo permite diferenciar si las emisiones son:
Espontáneas.
Respuestas.
Elicitadas.
Imitaciones espontáneas de respuestas de adultos.
Repeticiones que los niños hacen de sus propias emisiones.
Otras emisiones.
13 tipos de funciones pragmáticas: denominaciones, atributos, demandas, comentarios, referencias verbales al pasado o al futuro, demandas de objetos no presentes, demandas de información, emisiones de rechazo, negaciones, indicación de no existencia, llamadas de atención, expresiones ritualizadas.
Limitaciones de la taxonomía y de los procedimientos:
-
No se incluyen ciertas conductas de clara intención comunicativa (pautas ostensivas).
-
No incluye categorías para las emisiones que cumplen funciones interpersonales o realizativas.
-
BELINCHON:
Empleó la clasificación de Dale para valorar el desarrollo funcional del lenguaje espontáneo, en situación de juego libre, en niños de 12-42 meses. Los niños fueron evaluados en tareas estructuradas diseñadas específicamente para elicitar actos comunicativos.
Resultados:
Los niños poseen funciones pragmáticas (prácticas) antes de completar su desarrollo sintáctico.
El desarrollo de las funciones pragmáticas no parece ser del todo independiente del grado de desarrollo estructural del lenguaje.
El orden de adquisición de las funciones pragmáticas es relativamente universal. Las más complejas y tardías son las relacionadas con realidades no presentes o con la negación de existencia de algo; las más precoces, las categorías de denominación, atributo, afirmación y llamadas de atención.
EN GENERAL, las investigaciones han puesto de manifiesto la relativa anticipación del desarrollo funcional respecto al estructural → las intenciones juegan un papel importante en el procesamiento top-down del lenguaje, y en su desarrollo ontogenético.
Se requiere la génesis previa de funciones básicas, que cuando no se alcanzan, se alteran los componentes pragmáticos, y algunos aspectos estructurales (no todos); Sin embargo, se puede alcanzar cierto grado de desarrollo en sujetos sin funciones comunicativas básicas → los componentes mentales dedicados al tratamiento formal del lenguaje poseen cierto grado de autonomía respecto a los aspectos funcionales.
LOS ACTOS DE HABLA
En su uso normal, el lenguaje es una actividad con sentido.
Con el lenguaje realizamos ciertos tipos especiales de actos, los “ACTOS DE HABLA”, que:
-
Son específicos de los signos (no pueden realizarse con otros instrumentos).
-
Se diferencian en 3 tipos o niveles:
-
Lo que hacemos en el hecho de decir algo → Acto locutivo.
-
Lo que hacemos al decirlo → Acto elocutivo (se expresan en verbos como pedir, solicitar, rogar, exigir, demandar, declarar, definir, aseverar, etc.).
-
Lo que hacemos por el hecho de decirlo → Acto perlocutivo (persuadir, convencer, avergonzar, confundir, etc.). Se desprenden de decir ciertas palabras, en un determinado contexto, desde el momento en que tales palabras afectan a estados internos de alguien.
-
El plano perlocutivo se define incluso antes del desarrollo de la comunicación intencional en sentido estricto (no es necesario que los signos sean intencionales, para que afecten a un intérprete potencial de ellos).
-
El plano ilocutivo exige el desarrollo de pautas de comunicación intencional, aunque no necesariamente de lenguaje (el niño que mira a su madre y levanta los brazos, define su intención de ser tomado en brazos).
-
La fase locutiva, posterior a la elocutiva, exige el desarrollo del lenguaje.
-
Un cierto tipo de contenido proposicional.
-
Un conjunto de condiciones preparatorias.
-
Una condición de sinceridad.
-
Una condición esencial, que es el objeto del acto elocutivo.
-
Objeto ilocucionario o condición esencial.
-
Condiciones de sinceridad o estados mentales intencionales.
-
Criterios de ajuste entre las palabras y el mundo: algunas ilocuciones tratan de que el mundo se ajuste a nuestras palabras (cuando pedimos algo, intentamos que haya un cambio en el mundo que se ajuste a nuestra petición), otras, buscan que las palabras se ajusten al mundo (cuando aseveramos algo, intentamos que lo que decimos se ajuste al mundo o se corresponda con él).
-
Representativos: Su propósito es comprometer al hablante con la verdad de la proposición expresada (afirmar, declarar, sostener, decir, informar, concluir, deducir, suponer.
-
Directivos: Intentos del hablante de que el oyente lleve a cabo alguna acción (ordenar, abogar por, invitar, mandar, pedir, insistir, sugerir, permitir, aconsejar, suplicar, retar, desafiar y provocar).
-
Conmisivos: Comprometer al hablante con algún futuro curso de acción (prometer, y otros como hacer, intentar, favorecer (en futuro)).
-
Expresivos: Expresar un estado psicológico del hablante, acerca del estado de cosas expresado en el enunciado (agradecer, congratularse, disculparse, alegarse, deplorar, etc.).
-
Declaraciones: Correspondencia entre el contenido del enunciado y el estado de cosas de la realidad (Declarar “os declaro marido y mujer”, expresiones como “por la presente”).
-
Proporciona un mecanismo de retroalimentación para el sistema cognitivo, un modo de preservar la vigencia de la representación a medida que es procesada.
-
Papel de control atencional de la actividad.
-
Permite alcanzar niveles de planificación y anticipación que no son posibles sin el lenguaje.
-
Ofrece un recurso representacional muy eficiente en actividades de solución de problemas.
-
Las investigaciones se derivan, sobre todo, de paradigmas teóricos, como el de la Escuela de Moscú, que no han sido los dominantes en la psicolinguistica de Occidente.
-
Dificultades y problemas metodológicos importantes.
-
La actividad instrumental es la unidad básica de las funciones superiores humanas.
-
Esas funciones implican la combinación de herramientas y signos en la actividad.
-
La transformación de lo instrumental en significativo, está mediada y permitida por la relación con los demás.
-
La conversión de la actividad en signo implica su condensación.
-
Los signos son, en su origen, mediaciones para regular la conducta de otros.
-
El desarrollo de las funciones superiores implica la internalización de los procesos de relación social.
-
La cultura proporciona las herramientas simbólicas necesarias para la construcción de la conciencia y las funciones superiores (sobre todo los signos lingüísticos).
-
El individuo, como organización consciente de procesos y funciones internas con signos, es un producto de la relación social.
-
El desarrollo no consiste en la progresiva socialización de un individuo solitario (Piaget), sino en la individualización de un individuo básicamente social desde el principio.
-
Plano lógico: Se hace cada vez más predicativo.
-
Plano fonológico: Abreviación y elisión de fonemas.
-
Plano léxico: Se suprimen y reaglutinan palabras.
-
Plano semántico: Predominio de sentidos idiosincrásicos sobre los significados del diccionario, y tendencia a aglutinar y combinar sentidos.
-
Plano sintáctico: Más desorganizado.
-
Automaticidad: Es un proceso que se realiza sin apenas esfuerzo consciente por parte del perceptor.
-
Constancia: La percepción se mantiene relativamente constante, aun cuando ciertas propiedades físicas de la estimulación varíen.
-
Flexibilidad.
-
Cada una de ellas afecta a un órgano sensorial distinto: la audición y la visión.
-
El estímulo auditivo del habla se desvanece de forma inmediata, por lo que hay que registrarlo y procesarlo a la mayor brevedad posible. El estímulo visual del lenguaje escrito, permanece todo el tiempo que sea necesario, lo que permite al lector efectuar retrocesos y correcciones en presencia del estímulo.
-
El habla es un estímulo continuo, con pocos cortes o silencios entre las unidades lingüísticas, mientras que la escritura se nos ofrece dividida en unidades.
-
El primer formante de ambas sílabas (/di/ y /du/), arranca desde los 0 Hz y asciende hasta los 300 Hz.
-
El segundo formante de /di/ asciende de 2.400 a 2600 Hz, mientras que el segundo de /du/ desciende de 1200 a 600 Hz).
-
La segmentación: Relacionado con el hecho de que la señal del habla es continua, mientras que los sonidos del habla se perciben como discretos o discontinuos. Esta percepción discreta se da a pesar de que las claves acústicas necesarias para identificar fonemas, no se distribuyen de manera separada a lo largo de fonemas adyacentes (/d/ e /i/ y /d/ y /u/, en el ejemplo anterior), sino que aparecen “mezcladas” en sonidos próximos entre sí. Cada fragmento de habla retiene información acústica del fragmento contiguo, es decir, las claves acústicas transmiten información en paralelo sobre segmentos fonéticos sucesivos.
-
Ausencia de invarianza: Falta de correspondencia biunívoca entre fragmentos de la señal acústica y fonemas discretos. Los segmentos de habla carecen de propiedades invariantes, ya que, a causa de la naturaleza continua del habla, se ven influidos por el contexto acústico en el que se encuentran.
-
Presencia indisociable, en toda emisión verbal, de características acústicas relevantes e irrelevantes (“tono” de voz masculino o femenino, o “intensidad del habla).
-
La percepción del habla se mantiene, en gran medida intacta, aun cuando se produzca una pérdida de información acústica por efecto del ruido.
-
ANÁLISIS AUDITIVO PERIFÉRICO:
-
Neuroacústicos: patrones de descarga de fibras nerviosas que sintonizan con atributos de la señal.
-
Psicoacústicos: más abstractos, independientes de sus correlatos fisiológicos. Ej: “filtro paso-banda”, que efectúa transformaciones de la señal mediante el análisis de algunos de sus componentes.
-
ANÁLISIS AUDITIVO CENTRAL:
-
ANÁLISIS ACÚSTICO-FONÉTICO:
-
ANÁLISIS FONOLÓGICO:
-
Ciertas distinciones fonéticas, #[b]/esar#, #sa/[b]/er#, dejan se ser fonológicamente relevantes para convertirse en variaciones alofónicas del mismo fonema (el mismo sonido con 2 variantes o “alófonos”).
-
Ciertos fenómenos de asimilación o transformación fonética que aparecen vinculados a procesos de derivación morfológica, se explican en virtud de reglas fonológicas que operan en éste nivel (/g/ en #ma/x/ia# #ma/g/o#).
-
Algunos piensan que las representaciones fonética y fonológica, son constructos lingüísticos que no juegan un papel psicológicamente necesario, durante el procesamiento de la señal, sino a posteriori, es decir, sólo cuando el oyente hace uso de éste tipo de información para realizar determinadas tareas.
-
Klatt, considera inadecuado un nivel independiente de representación fonética, debido a la dificultad de acoplar las claves acústicas y los segmentos fonéticos.
-
Pisoni y Luce piensan que, si se elimina el nivel fonético, tampoco habría que postular un nivel fonológico, pues se carecería de la representación de entrada a ese nivel.
-
Nos vamos a centrar en las explicaciones que sí postulan procesos de transformación acústico-fonética.
-
No todas las distinciones fonémicas relevantes se perciben de manera categorial (consonantes fricativas: según el ruido fricativo).
-
El fenómeno de percepción categorial, no sólo se produce en continuos de habla, sino tb en continuos de estímulos de no habla (ruido vs zumbido).
-
Posibilidad improbable: Que los parámetros de categorización del habla se impongan para discriminar estímulos de no habla, en cuyo caso, la percepción auditiva sería tributaria de la percepción del habla.
-
Posibilidad más plausible: La inversa, es decir, que la percepción categorial es una característica general de percepción auditiva. Esto supondría que la percepción del habla se halla sometida a procesos aplicados “horizontalmente” a través de distintos dominios estimulares.
-
Este sistema está adaptado a un código en virtud del cual, la estructura fonética del lenguaje se impone sobre las propiedades acústicas de la señal del habla.
-
El código se define en términos de las propiedades articulatorias y coarticulatorias de los sonidos, es decir, existe un vínculo directo entre los sistemas de percepción y producción del habla, que permite al oyente determinar qué gestos articulatorios realiza el hablante, y con ello, cuáles son los segmentos fonéticos que produce.
-
Procesos de extracción de información de la señal (análisis).
-
Procesos de generación “interna” de sonidos a partir de claves acústicas analizadas y del conocimiento de las propiedades articulatorias de los sonidos del habla (síntesis).
-
Los juicios perceptivos de los oyentes, varían sustancialmente, en función de la información previa sobre las características de la voz del hablante.
-
Fenómeno de “percepción dúplex”.
-
Esta prueba procede de estudios sobre integración de información visual y auditiva, en la percepción de sonidos de habla.
-
Cuando a bebés de pocos meses se les presentan estímulos de habla (vocales) emparejados con imágenes de un hablante efectuando los gestos articulatorios correspondientes, los bebés muestran un mayor interés por la estimulación visual cuando ésta coincide con el estímulo percibido auditivamente → Esto sugiere que los bebés poseen un conocimiento tácito de la relación entre las consecuencias auditivas y visuales de la articulación de fonemas.
-
“Efecto McGurk”: Cuando a un sujeto perceptor se le presentan estímulos auditivos y visuales contradictorios, los sujetos adoptan inconscientemente una solución de compromiso: lejos de producirse un conflicto “bimodal”, se origina un percepto que no es ni puramente visual ni puramente auditivo, sino fonético-articulatorio.
-
Hay autores (Blumstein, Stevens), para quienes la percepción del la señal del habla no es tan variable como se supone, sino que en el nivel acústico existen también propiedades invariantes que permiten efectuar un acoplamiento microestructural directo, entre las propiedades físicas y las representaciones fonéticas.
-
Otros (Klatt), sostienen que las propiedades invariantes de la señal acústica no emergen en el nivel microestructural, sino en niveles macroestructurales, concretamente, en el nivel léxico. La señal de habla estimula unos “patrones neurosensitivos” que representan formas léxicas almacenadas en la memoria. Estas representaciones léxicas están formadas por “plantillas espectrales” (representación de una secuencia ideal de claves acústicas) o representaciones espectrales prototípicas.
-
Efecto de la restauración de fonemas: sustitución inconsciente de material fonético, ausente de la señal acústica, por un estímulo de no habla presente en la señal (legi*latura: el fonema /s/ se sustituía por una tos o un zumbido: la mayoría de los sujetos percibían la palabra “legislatura” de manera intacta).
-
Efecto de la restauración de errores: el sujeto, de forma inconsciente, sustituye estímulos de habla erróneos (“serveza”) por las formas correctas (“cerveza”).
-
Fenómeno de “escucha selectiva”: Cuando se somete a un oyente a una tarea de escucha dicótica, instruyéndole a que efectúe un seguimiento de uno de los canales, se registran una serie de efectos originados por el material presentado por el canal no atendido.
-
Los procesos de reconocimiento del habla están abiertos a influencias de niveles superiores de procesamiento.
-
Estas restricciones operan de manera automática e inconciente.
-
No se puede concluir que la percepción del habla continua sea un proceso completamente distinto de la percepción de sonidos aislados. Más bien, que la percepción del habla, es un proceso sujeto a 2 tipos de restricciones:
-
Restricciones impuestas por las propiedades físicas de la señal.
-
Restricciones impuestas por las representaciones lingüísticas que se recuperan en niveles superiores de procesamiento.
-
No parece corresponder a un proceso mental, ya que acontece de forma repentina e instantánea, sin apenas esfuerzo de elaboración por parte de quien comprende.
-
Tampoco encaja en la categoría de estado mental pues carece de extensión en el tiempo y de las cualidades de experiencia típicamente asociadas a tales estados.
-
Respecto al TIPO DE TAREAS:
-
La comprensión de palabras supone comparar o acoplar un estímulo externo, con estructuras de información previamente representadas en la memoria.
-
La comprensión de oraciones conlleva procesos combinatorios de unidades simples (palabras) para formar otras más complejas (oraciones).
-
Las unidades lingüísticas empleadas en la comprensión de palabras son, en su mayoría, unidades subléxicas (fonemas, sílabas y morfemas).
-
Las empleadas en la comprensión de oraciones son léxicas o supraléxicas (sintagmas), aunque también incluyen ciertas partículas subléxicas (morfemas gramaticales o “afijos flexivos” que tienen un valor funcional).
-
En el caso del léxico (palabras) se asientan en reglas de yuxtaposición de afijos, que se aplican sobre elementos subléxicos.
-
En el caso de las oraciones, son reglas dependientes de estructura, que operan sobre elementos léxicos.
-
REPRESENTACIONES DE ENTRADA:
-
Los procesos de identificación léxica se ponen en marcha a partir de información, por un lado fonológica (que suministra los sistemas de reconocimiento del habla, y que incluye la estructura tanto segmental como métrica de las entradas sensoriales), y por otro morfológica (unidades subléxicas con valor funcional).
-
En los procesos de comprensión de oraciones toman como entrada representaciones léxicas dotadas de significado, así como elementos léxicos y subléxico portadores de información estructuralmente relevante (palabras de clase cerrada y morfemas gramaticales).
-
REPRESENTACIONES DE SALIDA:
-
El proceso de comprensión de palabras arroja representaciones léxicas integradas por la estructura fonológica (u ortográfica) y morfológica de la palabra, más su estructura semántica, junto con las propiedades sintácticas que definen el lugar que pueden ocupar y el papel que pueden desempeñar en la oración.
-
Los procesos de comprensión de oraciones resultan en una representación del significado de la oración, que abarca tanto su contenido proposicional, que posee valor de verdad, como la actitud proposicional que expresa, es decir, la relación que existe entre el sujeto hablante y e contenido proposicional.
-
Ambos procesos requieren el uso de reglas combinatorias.
-
Existencia, en ambas clases de procesos, de 2 niveles de representación relativamente independientes:
-
Un nivel en el que se representan las propiedades formales o estructurales del estímulo lingüístico: en el caso de las palabras, sus estructuras fonológica y morfológica, y en el de las oraciones, su estructura sintáctica.
-
Un nivel en el que se representan las propiedades semánticas de dicho estímulo (significado de la palabra o de la oración).
-
Es posible identificar una estructura fonológica y morfológica en ausencia de significado léxico (en las pseudopalabras).
-
Es posible asignar una estructura sintáctica a secuencias de pseudopalabras carentes de significado (“Los opilorios escrandaron fildamente los plandiscos avitosos”).
-
Los límites entre una palabra y una oración son a menudo difusos: Hay casos en los que una sola palabra constituye a la vez una oración completa, o incluso un texto (“ven”, “llueve”), y a la inversa, varias palabras pueden formar una única representación léxica o conceptual (“pájaro de metal”, “hombre de negocios”).
-
Información estimular o de entrada, que puede estar en formato grafémico o fonético.
-
Información léxica almacenada en la memoria, que ha de ser activada y comparada con la información estimular.
-
Información contextual, que puede ser lingüística (localizada en el texto o discurso), o extralingüística (en el entorno estimular o en la memoria del sujeto), y que puede facilitar o dificultar el proceso de identificación.
-
Representación fonológica: en la que se especifica la estructura segmental de la palabra (secuencia de fonemas con sus rasgos distintivos) → #_re#pri#mír#.
-
Representación ortográfica: compuesta por una secuencia de letras con rasgos visuales → “REPRIMIR”.
-
Representación morfológica: que refleja la estructura derivativa de la entrada léxica y, en ciertos casos, su categoría gramatical (hay sufijos como -ción, -ía o-dad, que caracterizan a los nombres; otros como -r, -ndo, o -do, típicos de los verbos; y otros como -oso, -ble, que identifican a los adjetivos) → “re-pri-mir”.
-
Representación sintáctica: que establece la categoría gramatical de la entrada y los marcos de subcategorización, es decir, los contextos estructurales en que puede aparecer → “Verbo”.
-
Representación del significado de la palabra → “castigar, aguantar, contener”.
-
Lista de términos o conceptos asociados a la entrada → “sexo, censura, miedo”.
-
De qué modo se halla representado el significado de las palabras en la memoria:
-
Modelos composicionales de significado léxico: el significado de las palabras está representado en la memoria en forma de agregados de rasgos o “primitivos semánticos”, de cuya combinación reglada, surge la representación semántica de la palabra.
-
Modelos de las redes semánticas: Los conceptos están organizados en la memoria en forma de una red de representaciones conectadas entre sí que se transmiten activación. Cada unidad de la red representa un concepto individual y lleva asociado un conjunto de rasgos semánticos primitivos.
-
Teoría de los prototipos: El criterio para asignar un objeto a un determinado concepto es la “semejanza familiar” que existe entre el objeto y los ejemplares más prototípicos del concepto, esto es, un juicio probabilístico basado en la proximidad relativa del objeto a una u otra categoría.
-
Papel que desempeñan las variables morfológicas en la organización y el acceso al léxico interno:
-
Hipótesis del listado exhaustivo (Lukatela): El léxico interno consta de una lista exhaustiva de todas las entradas léxicas de la lengua, lo que incluye, tanto las formas base de las palabras (“misa”), las palabras derivadas (“misal”), e incluso las compuestas (“misacantano”).
-
Hipótesis del listado parcial (Taft): El léxico contiene tan solo un listado parcial de entradas léxicas que comprende por separado las formas base de las palabras y los afijos, que se pueden agregar a las raíces o bases, en los procesos morfológicos de flexión y derivación, más un conjunto de reglas para llevar a cabo esos procesos.
-
Laudanna y Burani, proponen un modelo de listado exhaustivo que incluye la representación de la estructura morfológica interna de cada palabra.
-
Segui y Zubizarreta, consideran que el acceso a palabras con prefijos (“des-pedir”) y con sufijos (“pedí-güeño”) se efectúa de forma distinta: Con prefijos, mediante la representación con el prefijo incorporado; con sufijos por medio de la representación de la raíz de la palabra.
-
Morfología de Nivel I: Comprende todas aquellas palabras morfológicamente relacionadas entre sí, que tienen raíces fonológicamente diferentes, esto es, palabras cuyos procesos de flexión y/o derivación, alteran la estructura fonológica de la raíz (“dormir” → “duerme”; “toro” → “taurino”). Las palabras con una morfología de Nivel I (irregulares) requieren un listado independiente, y por tanto, exhaustivo.
-
Morfología de Nivel II: Incluye palabras cuya flexión y/o derivación, deja intacta la estructura fonológica de la raíz (“misa → “misal”). Estas palabras pueden disponer de una única representación en el diccionario mental.
-
En el léxico mental es improbable que las entradas aparezcan listadas en orden alfabético.
-
Las propiedades sintácticas de las palabras y los conceptos asociados a ellas, no figuran en los diccionarios convencionales, aunque desempeñan un papel importante en el procesamiento léxico.
-
Ciertas entradas léxicas, pueden estar incompletas, esto es, pueden verse privadas de algunas de éstas representaciones asociadas:
-
Los niños que aún no han aprendido a leer o los adultos analfabetos, no disponen de representaciones ortográficas de las palabras.
-
En algunas alteraciones de la comprensión del lenguaje, se halla perturbada la información semántica o conceptual.
-
En ciertos trastornos de producción, se ve afectada la afirmación fonológica y/o sintáctica.
-
Los individuos normales tb pueden sufrir bloqueos momentáneos en el acceso a la representación fonológica de una palabra (“punta de la lengua”), o desconocer el significado de palabras poco frecuentes.
-
Forster y otros piensan que los proceso de comprensión de palabras, constan de 2 etapas diferenciadas:
-
Reconocimiento de la palabra: se hacen accesibles al sujeto las propiedades formales de la palabra (representación fonológica u ortográfica).
-
Procesos de acceso léxico o comprobaciones postacceso: se accede al significado.
-
Morton y otros, piensan que el reconocimiento de la palabra y el acceso al léxico, acontecen simultáneamente, por lo que habría una sola etapa-
-
Existencia de una representación abstracta y relativamente superficial:
-
Existencia de representaciones de acceso, que difieren de una palabras a otras en función de ciertas propiedades de la entrada léxica en cuestión:
-
Hay modelos que consideran innecesario postular representaciones de entrada de acceso léxico, y sostienen que los procesos de reconocimiento tienen lugar de forma “directa”, sin mediación lingüística entre la señal acústica y la entrada léxica.
-
Algunos destacan el papel de la sílaba como unidad de segmentación.
-
CONTACTO LÉXICO INICIAL:
-
ACTIVACIÓN:
-
Las palabras de uso más frecuente, se encuentran más activadas o más disponibles, por lo que es más fácil que resulten seleccionadas (podría llevar a cometer errores de identificación (“graso” sustituiría a “craso”).
-
La mayor o menor adecuación al contexto, tb determina el nivel de activación.
-
SELECCIÓN:
-
Activación diferencial de los candidatos que forman la cohorte inicial, de modo que, a medida que se va acumulando evidencia relevante, los candidatos incompatibles reciben señales inhibitorias, que reducen su activación.
-
Disminución progresiva del tamaño de la cohorte. Los más desestimados van siendo eliminados hasta que solo queda uno.
-
Proceso de búsqueda exhaustiva de candidatos a través de la lista de entradas léxicas, ordenadas por la frecuencia de uso, de modo que los candidatos más frecuentes se localizarían antes que los menos frecuentes.
-
RECONOCIMIENTO:
-
Las “propiedades físicas” del estímulo (longitud, calidad acústica).
-
Sus propiedades intrínsecas (frecuencia de uso).
-
Número de vecinos o competidores.
-
ACCESO AL LÉXICO:
-
Tareas en curso (on-line): Permiten examinar los procesos subyacentes de forma simultánea y concurrente a su desarrollo en tiempo real.
-
Tareas fuera de curso (off-line): Recogen respuestas inmediatamente posteriores, o con una mayor demora, a la ejecución de los procesos.
-
El más tradicional es la IDENTIFICACIÓN TAQUISTOSCÓPICA DE ESTÍMULOS VISUALES, para hallar el umbral de identificación de distintas clases de estímulos.
-
Una variante que intenta soslayar el inconveniente es la TAREA DE DECISIÓN LÉXICA: Se le muestra al sujeto una secuencia de letras (o fonemas), para que la clasifique lo más rápido posible como palabras o no-palabras, pulsando un botón para unas y otros para las otras.
-
El único modo de resolver el problema es rebajar al máximo la necesidad de tomar decisiones conscientes durante la identificación.
-
Una variante de las tareas de decisión es el PROCEDIMIENTO DE DETECCIÓN DE ESTÍMULOS (monitoring). Consiste en responder, cada vez que se identifique un estímulo lingüístico (fonema, sílaba, palabra), estipulado de antemano.
-
Paradigma de apertura sucesiva: Presentación sucesiva de segmentos cada vez mayores de la onda sonora de la palabra, en incrementos de 30 msg cada uno. La tarea consiste en intentar identificar el estímulo.
-
Registro de movimientos oculares: Se utiliza en estudios de procesamiento visual de palabras.
-
FRECUENCIA DE USO DE LAS PALABRAS:
-
Las palabras de contenido se reconocen mediante mecanismos sensibles a la frecuencia.
-
Las palabras contextuales se reconocen en el contexto estructura de la oración, por medio de procesos de análisis sintáctico.
-
PALABRAS VS NO-PALABRAS:
-
Una no-palabra tarda más en ser rechazada, cuanto mayor sea su semejanza con una palabra, a causa de las interferencias que genera esa semejanza.
-
Este fenómeno solo es efectivo si se usan como no-palabras secuencias legales de letras (el tiempo invertido en rechazar secuencias de letras como “nhgtdrt”, es inferior a la latencia de reconocimiento de la palabra más frecuente del vocabulario).
-
EFECTO DE PRIMING:
-
Priming de repetición: Disminución de la latencia de respuesta a una palabra cuando ésta ha sido presentada con anterioridad en la misma lista o en la misma oración.
-
Priming semántico: Disminución de la latencia cuando la palabra utilizada como prime es un elemento léxico de significado similar o relacionado con la palabra crítica (“enfermera-hospital”). La magnitud de éste efecto se cifra en unos 80 msg.
-
Priming contextual: El fragmento de la oración que antecede a la palabra crítica, ejerce efectos excitatorios sobre palabras altamente predecibles y adecuadas a ese contexto (e inhibitorios sobre las inadecuadas).
-
El fenómeno de priming sólo es efectivo cuando afecta a palabras reales, salvo el de repetición que afecta por igual a palabras y no-palabras, lo que demuestra que se trata de un efecto lingüístico.
-
Intraléxica o autónoma:
-
En el priming de repetición, la presentación del estímulo inductor (prime), origina una “apertura” de la representación léxica almacenada en la memoria; Al presentar después la misma palabra, la entrada léxica ya se encuentra preactivada.
-
En el priming semántico o contextual, la “preactivación” se verifica mediante asociaciones entre entradas léxicas pertenecientes a un mismo campo semántico.
-
Extraléxica o interactiva:
-
Las representaciones supraléxicas (semánticas, pragmáticas), ejercen un influjo de arriba-abajo sobre los procesos de reconocimiento de palabras.
-
AMBIGÜEDAD LÉXICA:
-
Acceso directo guiado por el contexto, al significado apropiado de la palabra ambigua, de modo que los restantes significados ni siquiera resultan activados.
-
Acceso múltiple a todos los significados de la palabra, desplazando la desambiguación hasta una etapa post-léxica de interpretación.
-
Cuando la tarea experimental se realiza justo después de percibir la palabra ambigua, todos los significados de la misma se hallan igualmente accesibles, aun en presencia de un contexto fuertemente sesgado.
-
Si la tarea de identificación se demora entre 700 y 1000 msg (3 ó 4 sílabas), se aprecia una latencia menor ante la palabra relacionada con el significado contextualmente apropiado del término ambiguo → El efecto desambiguador del contexto, sólo se deja sentir tras una breve demora, durante la cual se produce acceso rápido, automático, e inconsciente, guiado por la forma de los significados de la palabra.
-
Los modelos interactivos o de una sola etapa, postulan un influjo temprano de representaciones supraléxicas (pragmáticas y semánticas) sobre los procesos de identificación de palabras, a la par con la información perceptiva procedente de la señal. Se denominan modelos de activación.
-
Los modelos autónomos o de dos etapas, reclaman la existencia de una serie de procesos, destinados a recuperar las entradas léxicas, que funcionan a partir de representaciones perceptivas (acústica, fonológica y ortográfica), y en los que no influyen variables contextuales de orden superior.
-
El modelo mixto de Marslen-Wilson, postula una fase inicial de carácter autónomo, y otra posterior en la que hay interacción entre distintas clases de información.
-
Información acústica y gráfica.
-
Información sintáctica y semántica (del contexto lingüístico).
-
Las conexiones entre niveles diferentes de representación (fonemas y palabras) son excitatorias y bidireccionales.
-
Las conexiones internas a un mismo nivel (entre unos fonemas y otros) también son bidireccionales aunque inhibitorias.
-
Primera etapa:
-
Ortográfico, para entradas visuales.
-
Fonológico, para entradas auditivas.
-
Semántico, empleado en los procesos de producción de palabras.
-
Segunda etapa:
-
Efecto de frecuencia: se explica en virtud de la ordenación de las entradas léxicas en los archivos periféricos, donde los elementos más frecuentes ocupan posiciones de orden anteriores a los menos frecuentes.
-
Efecto palabra-no palabra: Es consecuencia de una búsqueda infructuosa (y exhaustiva) en los archivos periféricos. Las no-palabras tardan más en ser rechazadas.
-
Efectos contextual o de priming: obedecen a conexiones entre representaciones semánticas de las entradas léxicas en el archivo central.
-
ETAPA AUTÓNOMA: Tiene por objeto la activación simultanea de un conjunto finito (o “cohorte”) de candidatos léxicos, y se basa exclusivamente, en propiedades acústico-fonéticas de las entradas sensoriales.
-
ETAPA INTERACTIVA: Se produce la selección del candidato óptimo mediante un proceso de “desactivación” de los candidatos.
-
Dificultad para dar cuenta del efecto de frecuencia. Necesidad de incorporar la noción de activación para explicar por qué, cuando 2 palabras comparten un mismo punto óptimo de reconocimiento (“puer∆ta” y “puer∆ro”), se identifica antes la palabra más frecuente.
-
Incapacidad para explicar, cómo logra el sistema recuperarse de los errores que comete y corregirlos sobre la marcha. Si se produce un error perceptivo o de pronunciación que afecte a la porción inicial de la palabra (“barra por “parra”), no habrá posibilidad de efectuar una corrección sobre la marcha, dado que, la cohorte inicial sólo contendrá candidatos que empiecen pro la secuencia /par/.
-
Numerosos datos apoyan la idea de que la comprensión de palabras funciona, al menos en sus primeras fases, como un sistema autónomo de procesamiento, es decir, libre del influjo de la información de niveles superiores, tanto lingüísticos como extralingüísticos, y emplea exclusivamente, información fonológica y léxica.
-
Debate sobre el papel del contexto en el reconocimiento y la comprensión de palabras:
-
Propuesta de que el contexto tiene que influir en mayor medida en la comprensión del lenguaje hablado (constricciones temporales y mayor degradación estimular).
-
Diferentes clases de contextos pueden producir diferentes efectos sobre la identificación de palabras.
-
Los modelos autónomos de procesamiento léxico explican los efectos del contexto paradigmático sobre el reconocimiento de palabras, proponiendo una red de conexiones internas al léxico que pueden facilitar o inhibir la recuperación de las representaciones semánticas de ciertas palabras. Es el caso del modelo de búsqueda (Forster).
-
El influjo del contexto sintagmático, resulta más fácil de explicar dentro de un modelo de activación interactiva, que permite un influjo relativamente temprano de la información supraléxica.
-
El contexto lingüístico (sintagmático o paradigmático), impone restricciones diferentes sobre la comprensión de las palabras, de las que crean los contextos extralingüísticos (físico, social, intersubjetivo, etc.), en que tienen lugar los intercambios comunicativos ordinarios.
-
Literal o directo.
-
Indirecto o pretendido.
-
EN ANÁLISIS SINTÁCTICO (parsing): proceso cognitivo que consiste en asignar una estructura de constituyentes a la oración. Para ello, hay que establecer las relaciones estructurales entre las palabras y entre otros constituyentes oracionales más amplios.
-
LA INTERPRETACIÓN SEMÁNTICA: Proceso de asignación de papeles temáticos a los constituyentes oracionales, con vistas a recuperar la representación proposicional del enunciado. Es decir, cada sintagma de la oración debe recibir un papel semántico (agente, paciente, tema, instrumento, etc.), y todos los papeles se deben organizar en torno a un predicado (normalmente un verbo), que define la estructura semántica del mensaje.
-
SEGMENTACIÓN de una representación de entrada (una secuencia de elementos léxicos) en unidades estructurales (como las cláusulas o sintagmas).
-
ASIGNACIÓN de papeles estructurales o etiquetas sintácticas a los constituyentes lingüísticos segmentados.
-
ESTABLECIMIENTO DE DEPENDENCIAS o relaciones entre los constituyentes segmentados y etiquetados.
-
ACOPLAMIENTO SINTÁCTICO-SEMÁNTICO, o búsqueda de correspondencias entre papeles sintácticos (SN, SV, o sujeto, objeto, etc) y papeles temáticos (agente, paciente, tema, meta, instrumento, etc.).
-
Que el procesador sintáctico compute inicialmente las posibles opciones de análisis, para que el procesador semántico evalúe, a la luz del contexto, cuál es más plausible.
-
Que el procesador semántico dirija desde el principio al procesador sintáctico, hacia el análisis más adecuado al contexto.
-
CONSTRUCCIÓN DE LA REPRESENTACIÓN PROPOSICIONAL de la oración.
-
Explicar de qué forma y en qué momento se tiene acceso a la información implícita.
-
Poner un límite al número de inferencias que el procesador semántico tiene que realizar en cada momento del proceso decomprensión, para evitar la inflación desmesurada de representaciones, que sobrepase las capacidades de procesamiento del sistema.
-
Las teorías de orientación formalista, sostienen que los procesos de análisis estructural en la actuación, son un reflejo más o menos directo de las reglas y principios de la competencia. Se inclinan por la especificidad gramatical de los procesos de análisis, y defienden la autonomía de la sintaxis en materia de procesamiento.
-
Las teorías de orientación funcionalista, defienden la idea de que las estrategias de análisis estructural, tienen su origen en propiedades generales de la percepción y cognición humanas. Por mantener una caracterización cognitiva de éstos procesos, tenderá a favorecer una posición interactiva.
-
Los mensajes (sobre todo los orales), se segmentan y organizan en la memoria inmediata del oyente por cláusulas, es decir, por unidades lingüísticas organizadas en torno a un verbo.
-
La información de cada cláusula, se va registrando literalmente, y a su término, se efectúa el análisis sintáctico y decodifica el contenido semántico en un formato más abstracto, para almacenarlo en la MLP.
-
El análisis y la interpretación de cada cláusula imponen una sobrecarga computacional en torno a la frontera de la cláusula, y no durante su reopción.
-
Cuando los chasquidos o el cambio de canal se sitúan hacia el final de la cláusula, los TR son más largos que cuando se introducen en otros lugares del texto → Al término de cada cláusula, el sistema de comprensión dedica un trabajo extra a procesos de integración sintáctica, lo que le resta recursos atencionales.
-
El recuerdo de la cláusula en curso ha de ser más fiel que el que se conserva de cláusulas previas a ella.
-
El recuerdo del material verbal se degrada drásticamente cuando el sujeto tiene que reproducir literalmente partes del texto que acaba de oír, pues tan solo es capaz de retener textualmente en la memoria, la información de la última cláusula percibida.
-
Las unidades de segmentación perceptiva en la comprensión se definen en términos exclusivamente estructurales.
-
Porque la cláusula no solo codifica unidades sintácticas, sino tb unidades conceptuales, siendo muchas veces imposible establecer una distinción cara entre ellas.
-
Porque la tendencia a segmentar el texto por cláusulas depende, a su vez, de un número de factores ajenos a la cláusula, como pe el grado de cohesión o dependencia entre las cláusulas (las cláusulas con mayor dependencia, tienden a procesarse de forma más integrada, que las que gozan de mayor autonomía), o la posición relativa de las cláusulas subordinada o principal, en el caso de oraciones compuestas de subordinación (la anteposición de la cláusula subordinada a la principal, minimiza el efecto perceptivo de la cláusula, ya que la interpretación de la cláusula principal puede verse afectada por el contenido de la subordinada, pero no a la inversa).
-
Experimentos de seguimiento de Marslen-Wilson, donde se hacía patente el influjo de la información semántica y pragmática, en la percepción de las oraciones.
-
Experimento de Tyler y Marslen-Wilson:
-
“Efecto de la vía muerta”.
-
Efecto de ambigüedades estructurales locales.
-
La estrategia empleada para procesar cualquier oración que produce un efecto de la vía muerta es la estrategia de “adjunción mínima”: el procesador debe optar siempre por la estructura menos compleja, es decir, aquella que postule “menos nodos sintácticos potencialmente innecesarios”.
-
Estrategia de cierre tardío o principio de asociación hacia la derecha:
-
Ligamiento de categorías vacías: Asignación de constituyentes sintácticos a las “huellas” que aparecen en la estructura superficial del enunciado, como resultado de la aplicación de la regla transformacional “muévase &”.
-
Si se mantienen constantes otros factores, las oraciones cuya interpretación requiere la estrategia del “antecedente más reciente” (“Este es el hombrej que la policíai fue capaz de ei matar ej a sangre fría”) recibían respuestas mas rápidas, que las que requieren la estrategia del “antecedente distante” (“Este es el hombrei que la policía creía capaz de ei matar a sangre fría”), aún cuando en éstas últimas solo hubiera que ligar una categoría vacía y dos en aquellas.
-
Un “tema” expresado mediante un SN.
-
Una proposición (cláusula sintáctica completa).
-
“El psicólogo le dijo a la mujer que tenía problemas con su marido”.
-
“El psicólogo le dijo a la mujer que tenía problemas, que consultase a un abogado”.
-
Como una cláusula de complemento (lo que el psicólogo le dijo a la mujer es que tenía problemas).
-
Como una cláusula de relativo (“hay una mujer que tenía problemas”).
-
Los sujetos no empleaban la información estructural de manera autónoma, sino que evalúan la probabilidad de éxito de las diferentes alternativas estructurales en función de la representación conceptual que tienen del discurso previo → El trabajo del procesador sintáctico es guiado por los sesgos conceptuales que introduce el contexto lingüístico previo a la oración, por o que resulta innecesario postular estrategias estructurales de análisis independientes de la información semántica accesible al procesador.
-
Son herederos del desencanto de la psicolingüística contemporánea por las teorías de la actuación, que incorporaban de manera transparente y directa, las reglas de la competencia.
-
Sin embargo, las 3 insisten en la necesidad de incluir conocimiento lingüístico en los procesos de actuación, aunque con distinto grado de aquiescencia, y por medios bastante diferentes.
-
Los 3 pretenden dar cuenta de la “microarquitectura” del sistema de comprensión (nivel molecular de la explicación).
-
Es un sistema jerarquizado compuesto por 2 clases de redes o niveles:
-
Nivel superior o “red de oración”: nivel de los constituyentes oracionales principales (sintagmas).
-
Nivel inferior o “red de los sintagmas”: nivel de los constituyentes oracionales inferiores (palabras).
-
Es un sistema de transición, constituido por un conjunto de estados (nodos) que se suceden, y un conjunto de instrucciones (arcos), que se deben recorrer para acceder de unos estados a otros. Las transiciones entre estados (arcos del sistema) son las operaciones de etiquetado sintáctico.
-
El sistema opera de forma recursiva, es decir, una misma regla o acción se puede ejecutar sobre diferentes clases de unidades.
-
Se trata de un procesador serial que funciona de “arriba-abajo”, o sea, aplicando reglas de estructura sintagmática, sobre las secuencias de los símbolos que recibe.
-
CAT: Para identificar la categoría sintáctica de las palabras (N, V, Adj, etc.).
-
SEEK: Para identificar sintagmas (SN, SV, SP, SAdj, etc.).
-
JUMP: Permite proceder de un estado al siguiente cuando no se identifica ningún constituyente nuevo.
-
SEND: Para enviar constituyentes ya etiquetados desde la red de los sintagmas a la red de la oración.
-
HOLD: Para almacenar transitoriamente constituyentes que luego han de adjuntarse a un nodo distante.
-
Consta de 2 etapas ordenadas secuencialmente.
-
Está formulado en términos abstractos (no ofrece una descripción “realista” de los procesos de parsing, como los ATNs o los modelos conexionistas).
-
Un analizador de la estructura superficial, que consta de 2 componentes independientes:
-
Un empaquetador preliminar de sintagmas (PPP), que es propiamente la “máquina de embutidos”. Su misión es segmentar la entrada perceptiva en “paquetes” de unas 6 palabras.
-
Un supervisor de la estructura oracional, cuya misión es ensamblar y analizar los paquetes de constituyentes que recibe del PPP, asignándoles una estructura sintagmática. Este componente opera sólo con la estrategia de adjunción mínima.
-
Un procesador temático que asigna papeles temáticos a los constituyentes sintácticos analizados.
-
No requieren el empleo de representaciones estructuradas (como la estructura sintagmática en el nivel sintáctico, y las proposiciones en el nivel semántico).
-
No utilizan reglas de transformación de unas representaciones en otras.
-
Información de entrada: secuencia de palabras que forman una oración, más concretamente, la representación de los significados de esas palabras y las estructuras temáticas asociadas a ellas.
-
Un entorno o contexto. Es lo que podríamos llamar el “conocimiento previo” del sistema.
-
Dado que estos sistemas se conciben como programas de computador que han de ser ejecutados por una máquina, se les debe someter a una fase de aprendizaje o adiestramiento. En ésta fase, se establecen los nodos y las conexiones del sistema y se fijan ciertos parámetros, como los pesos de las conexiones.
-
Al tratarse de un fenómeno que se desarrolla en el tiempo, la comprensión de las oraciones se concibe como un proceso “incremental” (el patrón de activación que se crea en el sistema se va modificando sobre la marcha, al recibir cada nueva palabra).
-
Un grupo de problemas, afecta más a los modelos de arquitectura clásica, y se derivan de la naturaleza “no discreta”, “difusa” o “probabilística” de las representaciones lingüísticas, que se computan durante la comprensión del lenguaje.
-
Otros, afectan más a los modelos conexionistas, debido a su carácter “componencial”, “estructurado” o “combinatorio”, de otro tipo de representaciones que intervienen.
-
Aunque las unidades significativas del lenguaje (cláusulas, oraciones, proposiciones), son producto de la combinación reglada y sistemática de componentes más elementales (palabras, conceptos, papeles temáticos), la interpretación de esas unidades, dotadas de significado, no emerge directa y exclusivamente de esa combinación pautada de elementos, sino que, a menudo, dependen de otras clases de información, que resulta difícil restringir a priori.
-
La noción de papel temático plantea un problema similar. Es imposible, establecer un conjunto finito de papeles temáticos, que permita captar todas las distinciones que se dan en la experiencia humana.
-
Dos casos concretos:
-
La noción de “agentividad” (cualidad de ser “agente” de un predicado) sufre variaciones de interpretación en función de matices como el grado de voluntariedad atribuida al agente en la atribución de la acción (“El niño engañó a su padre”, mayor grado de voluntad que en “El niño sorprendió a su padre”).
-
La interpretación de un mismo papel temático varía en función de las propiedades semánticas de verbo con el que aparece (el tema “la muerte del perro” es distinto en “Juan lamentaba la muerte del perro” y en “Juan deseaba la muerte del perro”).
-
Respecto a la información extralingüística, existen elementos implícitos en los enunciados, cuya activación resulta muchas veces imprescindible para una adecuada comprensión.
-
Aumentando la capacidad de cómputo del sistema, para multiplicar las interpretaciones alternativas (misma solución que ofrecen los modelos clásicos a la ambigüedad léxica).
-
Restringiendo esa capacidad y obligando al sistema a contraer un “compromiso temprano” con una de las posibles interpretaciones, descartando las restantes (lo mismo que en la interpretación de oraciones de vía muerta, en la comprensión de las oraciones).
-
La postura clásica defiende un modelo “logicista” de la mente: lo que regula el funcionamiento son las propiedades formales o estructurales de los estados que lo constituyen.
-
La postura conexionista representa el regreso hacia una concepción más “naturalista” de la mente: lo que regula el funcionamiento son las propiedades referenciales o el contenido de los estados mentales, y no la estructura de esos estados.
-
En algunos casos, esa información se necesita para completar la interpretación semántica de la oración y mantener la cohesión del discurso.
-
En otros, se trata de información útil para interpretar la intención comunicativa del interlocutor, y juzgar la adecuación contextual y pragmática del enunciado.
-
Procesos de integración:
-
Procesos constructivos o inferenciales:
-
Situaciones o referentes que se mencionan o describen en las oraciones o en el texto.
-
Intenciones o creencias que se atribuyen a la persona que lo produce o lo escribe.
-
Plano del significado inmediato o literal (“la mujer se encerró en el despacho porque quería estar sola”).
-
Plano del significado elaborado o pretendido (“el cabello de la princesa era de oro, y sus ojos, dos brillantes esmeraldas”).
-
Inferencias perceptivas: Automáticas, obligatorias y de realización inmediata, durante el procesamiento perceptivo del lenguaje.
-
Inferencias cognitivas: No se derivan de forma automática e inmediata, y se hallan bajo el control cognitivo. Dependen de estrategias que hacen uso del conocimiento general (semántico y pragmático), y que operan de manera controlada, y por tanto, más lenta y elaborada.
-
Por identidad de referencia: la anáfora y su antecedente se refieren a la misma entidad del mundo real (“Rosa acompaño a Felipe al cine aunque él no quería”).
-
Por identidad de contenido: Ambos tienen el mismo significado aunque no compartan el mismo referente (“Alberto le dedicó una canción a Luisa y otra Φ a Maribel”).
-
Los procesos de interpretación del significado oracional, discurren en 2 velocidades:
-
Procesos rápidos, obligatorios, automáticos, específicos de dominio (solo aprovechan información presente en el discurso), y encapsulados.
-
Procesos más lentos, cognitivamente controlados, inespecíficos de dominio (abiertos a información de distintas clases), y no encapsulados.
-
El tipo de representaciones que se computan:
-
Los procesos encapsulados producen representaciones del significado literal e inmediato de la oración.
-
Los no encapsulados, representaciones del significado indirecto, pretendido o elaborado de la oración.
-
El oyente construye el significado literal del enunciado.
-
Decide si ese significado es el apropiado al contexto semántico y pragmático en que se encuentra el enunciado.
-
En caso de que ese significado sea inadecuado al contexto, se deriva un significado figurado que se ajuste a tales características.
-
Observado por Gibbs en peticiones o promesas expresadas de forma indirecta como “¿Te importaría pasarme la sal?”.
-
Un caso similar se da en expresiones metafóricas.
-
Si es preciso diferenciar un nuevo nivel psicológico autónomo, un plano discursivo, en la comprensión y la producción.
-
¿Puede caracterizarse como lingüístico ese plano?.
-
No se individualizan con los mismos límites de las oraciones.
-
No están siempre explícitamente representadas en ellas.
-
Parte del supuesto de que el proceso de comprensión del discurso se guia por entidades muy abstractas, de carácter proposicional o conceptual (las “conceptualizaciones”), compuestas a su vez de de primitivos conceptuales, que son los principios últimos en que se descomponen los elementos léxicos.
-
De acción, cuya forma general es “Actor-Acción-Objeto-Dirección”.
-
De estado, de forma “Objeto-Estado”.
-
El núcleo principal de las conceptualizaciones son los “actos primitivos”, que pueden entenderse como los primitivos semánticos que se incluyen, principalmente, en el significado de los verbos.
-
“ATRANS”: transferir una relación de posesión o control.
-
“PTRANS” localización física de un objeto, o información “MTRANS”.
-
“PROPEL”: aplicar una fuerza sobre un objeto.
-
“MOVE”: mover una parte del cuerpo.
-
“INGEST”: hacer entrar en , o salir algo de él “EXPEL”.
-
“SPEAK”: producir sonidos.
-
“MBUILT”: elaborar información nueva.
-
“ATTEND”: atender a un estímulo.
-
Respecto a los “estados”, también se reducen a ciertos primitivos y se organizan en escalas.
-
La razón de que Schank recurra a concepciones y representaciones tan abstractas y tan complicadas, de oraciones tan simples es que, es necesario dotar al ordenador de representaciones explícitas de relaciones conceptuales y causales simples (que no le resultan accesibles), para hacerle capaz de comprender una secuencia elemental de acontecimientos.
-
Son necesarias para explicar el importante componente inferencial de esos procesos.
-
Se recurre a ellas para formalizar algo que se recuerda de diferente manera que la forma explícita de las oraciones (y que corresponde de la noción de significado).
-
La idea de que la mente es una maquinaria simbólica, que se sirve de un cierto lenguaje abstracto y conceptual (para Fodor el “mentalés”) para realizar sus procesos de cómputo.
-
La suposición de que los significados no son modales (el significado de una oración no es otra oración que signifique lo mismo, sino algo más abstracto que las 2 oraciones, y común a ambas); el significado de una oración no es una imagen mental externa que represente lo que dice la oración, sino algo que tiene naturaleza no-modal, y que es común a la oración y a la imagen.
-
Unidades de conocimiento de carácter analítico.
-
Que tienen naturaleza abstracta.
-
Poseen valor de verdad.
-
Se definen pro reglas de formación explícitas.
-
Diferencias externas o notacionales. Algunos emplean estructuras de árbol para representar las proposiciones, otros, redes estructurales, sistemas de paréntesis o listas de proposiciones.
-
Diferencias más sustantivas. De ellas, destaca una:
-
“Agente” (A): El que realiza la acción.
-
“Paciente de experiencia” (E): Quien experimenta un fenómeno psicológico.
-
“Instrumento” (I): Objeto o fuerza que se implica causalmente en una acción o en una experiencia.
-
“Objeto” (O): El objeto de una acción que supone cambio o movimiento.
-
“Fuente” (F): La fuente de una acción, en el tiempo, el espacio o como fuente de transferencia.
-
“Meta” (M): La finalidad o resultado de una acción.
-
(SI, a, b)
-
(ENGAÑA, A: María, M: Juan) = a
-
(TONTA, María) = b
-
RECUERDO CON CLAVES:
-
RECUERDO LIBRE:
-
FACILITACIÓN POR PRIMING EN TAREAS DE RECONOCIMIENTO:
-
SEGUIMIENTO DE PALABRAS DE ORACIONES PRESENTADAS A RITMO RÁPIDO CONSTANTE:
-
INVESTIGACIONES SOBRE EL TIEMPO DE LECTURA:
-
Que la presentación palabra por palabra, mediante la ventana móvil, induzca un tipo de procesamiento diferente al que se produce cuando se presentan textos completos.
-
Que el análisis estadístico mediante ecuaciones de regresión múltiple, ajuste las ediciones de tal modo que quede oculto el efecto de las proposiciones.
-
Que el número de proposiciones no afecte realmente a la velocidad de la lectura.
-
Explicación en función de estrategias de codificación:
-
Otros modelos, explican el efecto, por como se representa el texto base en la memoria.
-
Por último, los que explican el efecto por cómo se recupera de la memoria.
-
Las palabras y cláusulas que corresponden a proposiciones de niveles jerárquicos superiores, reciben tiempos de lectura más altos que las de niveles inferiores.
-
Cuando una misma frase se incluye en 2 textos de tal manera que, en uno de ellos, se corresponde con una idea que ocupa el nivel más alto en la jerarquía proposicional, y en el otro un nivel más bajo, el tiempo de lectura de la misma frase es mayor en el primer caso.
-
Los tiempos de fijación ocular en las palabras que corresponden a los niveles jerárquicos superiores, son más largos incluso en la primera lectura, y, esas palabras son blancos de movimientos regresivos de ojos, durante la lectura.
-
Los textos y discursos se organizan en torno a ideas esenciales que corresponden a unidades globales de significado, irreductibles a otras más moleculares.
-
Una parte importante de la actividad de comprensión del discurso, consiste en el descubrimiento de la abstracción, y tb de la explotación inteligente, de los componentes esenciales de significado (comprender es dar coherencia a los textos o discursos).
-
Supresión: Dada una secuencia de proposiciones, se eliminan todas las que no constituyen condiciones de interpretación de otras proposiciones (las de nivel más bajo de la estructura del texto).
-
Generalización: Dada una secuencia de proposiciones, ésta puede sustituirse por otra, más general, que las incluye y recoja su sentido esencial.
-
Construcción: Las secuencias de proposiciones que son condiciones, consecuencias o componentes de otra más global, pueden ser sustituidas por ésta.
-
Colecciones.
-
Causaciones.
-
Respuestas.
-
Comparaciones.
-
Descripciones.
-
Variables del texto:
-
Los propósitos y las metas con que se leen los textos:
-
Características personales de los que tratan los textos:
-
Apuntar los conocimientos extradiscursivos relevantes para comprender.
-
Organizar internamente el propio discurso.
-
Titular un texto.
-
Asignar valor temático a una idea con un comentario manifiesto (“lo importante es…”).
-
Que el tema se mencione inicialmente y no al final.
-
Que el tema se mencione frecuentemente.
-
Que cumpla el papel gramatical de sujeto de una oración.
-
Que corresponda al contenido más general, relevante y abstracto del discurso.
-
Integración y elaboración de textos.
-
Facilitación de inferencias y predicciones.
-
Selección y control de información.
-
Esquemas perceptivos o “marcos”.
-
Esquemas abstractos de dominio.
-
Esquemas sociales.
-
Esquemas de autoconcepto.
-
Los esquemas situacionales o “guiones” (scripts) han sido los más estudiados.
-
EMPÍRICA:
-
TEÓRICA:
-
Igual que los modelos interactivos, los modelos mentales proponen que ciertas representaciones referenciales, intervienen desde las fases iniciales del procesamiento.
-
Los modelos mentales proponen la intervención de “escenarios mentales” no lingüísticos, desde el procesamiento inicial.
-
Son representaciones dinámicas que se transforman y elaboran, a lo largo del proceso de comprensión.
-
Poseen algún grado de isomorfismo con sus referentes (son diferentes de las proposiciones, que son entidades abstractas y formalmente arbitrarias), es decir, preservan aspectos determinados de las formas y las relaciones de los “mundos” a los que representan (posible identidad con las “imágenes mentales”).
-
Especifican objetos, sucesos, personajes y papeles de éstos, que se mantienen activados y accesibles en la memoria, y que guían el procesamiento del discurso.
-
Los modelos mentales no definen claramente sus primitivos representacionales, ni el código en que se representan (que pueden ser imágenes o no), ni la importancia de su expresión fenomenológica.
-
No definen modelos cognitivos suficientemente precisos que permitan una explicitación paso a paso, de la microgénesis de la comprensión del discurso (con excepción de la teoría reciente de los modelos mentales de Jonson-Laird y Byrne).
-
En cuanto a los argumentos teóricos, el modelo permitiría explicar y reinterpretar fenómenos como los de correferencia (las expresiones del discurso remiten a un mismo modelo de situación), coherencia global y perspectiva.
-
Respecto a los datos empíricos, hay evidencias claras de que, al menos ciertas inferencias discursivas se guían por los escenarios, y se hacen más difíciles en la medida en que implican la modificación de los propios modelos de situación, o la incorporación de informaciones difíciles de compatibilizar con ellos.
-
Los escenarios se forman en las fases iniciales del procesamiento de los discursos.
-
Dirigen los procesos de inferencia.
-
Hacen innecesaria la abstracción de proposiciones-puente (o inferencias-puente), entre proposiciones explícitas en el texto, debido a que los contenidos informativos de éstas se integran on-line.
-
Las que separa a los investigadores que mantienen puntos de vista “modularistas” de los que defienden perspectivas “interactivo-contextuales”.
-
La que diferencia las “teorías basadas en el texto” de las “teorías basadas en modelos de situación”.
-
Dicotomía entre “comprensión y memoria”, o entre “fases iniciales o avanzadas”.
-
Inferencias necesarias:
-
Inferencias optativas o elaborativas:
-
Diferenciar la información dada de la nueva.
-
Encontrar, en la memoria, antecedentes de la información dada.
-
Añadir información nueva a esos núcleos de memoria.
-
No puede manipular o controlar todas las variables que influyen en el input (ideas, creencias, motivaciones).
-
No puede restringir los tipos de respuestas que el sujeto debe dar, sin limitar la validez de sus conclusiones.
-
Puede disponer de un output que sí es directamente observable y medible.
-
Los objetivos e intenciones comunicativas del hablante.
-
El contexto social en que tiene lugar el habla.
-
El conocimiento y supuestos que los interlocutores tienen sobre si mismos.
-
Los contenidos expresados en el discurso previo, etc…
-
Psicológico-cognitivos.
-
Lingüístico-gramaticales.
-
Comunicativo-instrumentales.
-
Década de los 50:
-
Como un proceso markoviano, en el que la selección de palabras viene determinada, fundamentalmente, por su valor de probabilidad asociativa, respecto a las palabras inmediatamente precedentes en la serie lingüística.
-
Como una conducta operante, cuya realización podría explicarse por las mismas leyes o principios, con que se explicarían otras conductas no verbales.
-
Década de los 60:
-
Década de los 70:
-
Década de los 80:
-
Primera fase: Fase de planificación o conceptualización:
-
Segunda fase: Fase de codificación lingüística del mensaje o de formulación:
-
Tercera fase: Fase de articulación:
-
Idea de que el habla es un acto intencional e instrumental, que implica elementos extralingüísticos (el emisor, sus actitudes proposicionales, el contenido referencial de sus mensajes).
-
Por tanto, la explicación psicológica de la producción del habla, debe incluir, tanto a los procesos de la codificación lingüística de los mensajes, como a los procesos previos y más centrales de conceptualización.
-
Supuesto de que ciertos factores no lingüísticos pueden influir en los procesos de codificación modificando aspectos de la forma lingüística de los discursos.
-
Los procesos responsables de la formulación de los mensajes son procesos computacionales, distintos e independientes de los implicados en la decisión intencional de realizar un determinado acto de habla.
-
La explicación psicológica del habla, debe quedar circunscrita a la definición de las operaciones formales específicas, que el sistema de procesamiento del lenguaje ha de realizar, durante la construcción de los mensajes lingüísticos en sí mismos.
-
Supuesto de que es posible identificar procesos en la codificación lingüística que operan de forma autónoma, respecto de los procesos encargados de fijar o definir los contenidos semánticos y comunicativos de los mensajes.
-
Modelos de producción de oraciones o enunciados individuales:
-
Influencia de la gramática generativa de Chomsky.
-
Centrado en el estudio de la producción de oraciones individuales.
-
Centrando por tanto la atención en el análisis de respuestas relativamente independientes del contexto.
-
Supuesto de que, el hecho de que se emita una sola oración, o un conjunto de ellas en un discurso, no modifica mucho la naturaleza de las operaciones implicadas, en la construcción de las oraciones individuales.
-
Encaja en la utilización de métodos observacionales y experimentales.
-
Modelos de producción de discursos complejos (años 60):
-
Consecuencia de los desarrollos de la lingüística textual.
-
Interés por el análisis de unidades más molares de representación, y el desarrollo de técnicas de simulación del lenguaje con ordenadores.
-
Metodología preferencial: simulación con ordenadores.
-
Más cerca de la Inteligencia Artificial que de la psicología Experimental.
-
Las representaciones o MENSAJES PREVERBALES contienen información acerca, tanto de los referentes del mensaje (el “sobre qué” o “sobre quién” se dice algo), como de sus predicados básicos (el “qué” o los “qués” se dicen en concreto sobre cada referente). Idea de que, aunque las proposiciones correspondientes a los enunciados de un discurso deben ser planificadas individualmente para su codificación gramatical, su contenido conceptual y pragmático, no es del todo independiente de los contenidos de otras proposiciones, del discurso.
-
2 TIPOS DE PROCESOS DE CONCEPTUALIZACIÓN:
-
PROCESOS DE MACROPLANIFICACIÓN DEL MENSAJE:
-
Selección de los contenidos y estructuras globales de los discursos y del sentido retórico.
-
Definición de los contenidos semánticos y pragmáticos de los grupos de enunciados individuales del discurso (“párrafos”), y de su orden o posición relativa en la secuencia lineal del discurso.
-
Selección del contenido informativo básico de los enunciados.
-
Selección de los predicados y argumentos (estructura temática) del mensaje).
-
PROCESOS DE MICROPLANIFICACIÓN DEL MENSAJE:
-
La forma lingüística específica de la presentación de los referentes de la oración (determinada o indeterminada, referencia a sujetos/objetos ya conocidos o nuevos, etc.).
-
Perspectiva con que los distintos núcleos temáticos deben ser presentados.
-
La actitud del hablante ante el contenido de su mensaje.
-
La posición de las piezas léxicas en al oración (linealización).
-
El tiempo y modo verbales requeridos por la perspectiva.
-
“Marcadores de entrada”: Representaciones compuestas por unidades protoverbales, relativas a elementos y a relaciones entre elementos, que contienen información conceptual, pero que no son en sí mismas palabras.
-
Estas representaciones contienen ya información especifica acerca de cómo deben de construirse los enunciados lingüísticos, por lo que, deben diferenciarse de nociones pre-teóricas más generales y abstractas (de “significado” o “intención”).
-
Guardan tb una estrecha semejanza con la noción de “proposición”.
-
Estas representaciones se transformarían en oraciones, mediante la aplicación, por parte del hablante, de REGLAS DE REALIZACIÓN similares a las propuestas por las gramáticas generativas:
-
Encontrar un ítem léxico adecuado para cada elemento protoverbal (conversión de los I-markers en palabras: lexicalización).
-
Asignar una categoría gramatical a cada elemento protoverbal
-
Asignar una posición relativa a cada elemento protoverbal. Reglas de relación
-
Introducir afijos flexivos y términos funcionales.
-
Imponer un contorno de entonación adecuado mediante reglas de entonación.
-
Convertir la secuencia generada por la realización de las reglas a-d, en una forma propiamente fonológica, que pueda servir de entrada al sistema de procesamiento articulatorio. Reglas fonológicas.
-
Implica la elaboración de enunciados lingüísticos gramaticales, lo que presupone en el hablante una competencia lingüística.
-
Tales enunciados suelen constituir contribuciones aceptables en relación con los objetivos de la interacción o intercambio comunicativo en que se producen, lo que presupone tb una competencia pragmática.
-
Normalmente, tienen lugar “cara a cara”. En estos casos el lenguaje adopta la forma de diálogo, que presenta una estructura secuencial que implica una toma o intercambio de turnos, a través del cual el discurso va adquiriendo continuidad semántica y pragmática.
-
En otras ocasiones, adopta la forma de un monólogo (pe, cuando alguien da una conferencia, dicta un mensaje que se ha de enviar,…). En éstos casos, el interlocutor, por razones de distancia física o conveniencia social, no puede intervenir ni responder “sobre la marcha”, para resolver el problema de la continuidad del discurso. Esto exige, por parte del hablante, la utilización de recursos lingüísticos y no lingüísticos, que garanticen la coherencia interna del discurso, y su “interpretabilidad”, tanto en el plano microestructural como macroestructural.
-
Todo discurso, por su carácter comunicativo, puede interpretarse como una forma reconversación.
-
Toda conversación o discurso, en función del grado de coincidencia espacio-temporal de los turnos de los participantes, puede ser interpretado como un diálogo o como un monólogo.
-
Los monólogos y los diálogos, pueden desarrollarse en modalidad oral (más usual), o escrita.
-
Como objeto empírico: Conjunto de actos de habla concretos que tienen lugar en un contexto espacio-temporal y comunicativo dado, y que pueden ser observados durante su realización en tal contexto.
-
Como objeto teórico: Abstracción de las propiedades generales de una forma de actividad lingüística.
-
Como una forma de representación: La que los sujetos construyen de significado proposicional e intencional global de los mensajes que se emiten en una conversación dada.
-
Un objeto empírico: Conjunto estructurado e interdependiente de oraciones o enunciados lingüísticos, que han sido emitidos durante un discurso o conversación.
-
Un objeto teórico: Abstracción referida a las relaciones de interdependencia conceptual, gramatical y/o funcional, que existen entre las oraciones, producidas durante un discurso o conversación.
-
Son unidades completas (tienen un sentido pleno independiente del de las otras emisiones lingüísticas).
-
Son unidades topicalizadas (poseen una unidad en sus contenidos semánticos).
-
Cumplen una función comunicativa (realizan una intención).
-
Se emiten en una situación espacio-temporal concreta.
-
Son conductas intencionales que se realizan en situaciones cooperativas de interacción social (conversaciones).
-
Constituyen unidades del lenguaje “en uso” (en c contextos específicos y cambiantes).
-
Suelen ser unidades superoracionales que poseen regularidades estructurales y funcionales, cuya descripción debe hacerse en un plano distinto al que se aplica a las propiedades sintácticas y semánticas de los enunciados individuales (en un plano gramatical del “texto”, y no en un plano de “gramática oracional”).
-
El conocimiento factual de que dispone el sistema: conjunto de descripciones simbólicas, normalmente proposicionales, referidas al estado actual de mundo o de sus dominios (aquellos respecto a los cuales el sistema puede definir objetivos).
-
Un conjunto de operadores o acciones, que permiten al sistema influir sobre el estado del mundo y modificarlo.
-
Sus condiciones de aplicabilidad (pre-condiciones).
-
Los efectos que pueden derivarse de su ejecución.
-
Los medios a través de los cuales puede el sistema ejecutar las acciones.
-
Un sistema o motor de inferencias que permite establecer correspondencias entre los 2 anteriores. Se identifica formalmente por un conjunto de pares condición-acción.
-
El sistema dispone de, y utiliza, una representación o conocimiento del mundo (conocimiento factual).
-
Conocimiento general o enciclopédico.
-
Conocimiento de la situación comunicativa en la que se realiza el discurso.
-
Conocimiento de los modelos de mundo que poseen los interlocutores.
-
Conocimiento esquemático o general: el que cada uno tiene de sus interlocutores por el hecho de ser “personas”.
-
Conocimientos o metarrepresentaciones más episódicas y cambiantes acerca de los conocimientos, las creencias y los deseos actuales de los interlocutores concretos (“teoría de la mente”).
-
Para un sistema inteligente, la generación de un plan, presupone la elaboración de un objetivo, la elaboración de una representación respecto a un estado no actual y deseable del mundo, que puede ser alcanzado mediante a realización de ciertas acciones.
-
Los planes subyacentes a los actos de habla definen secuencias de acciones a realizar por el sistema, para la consecución de una meta. En la medida en que la noción de plan identifica un tipo particular de representaciones simbólicas (un cierto tipo de “estado mental”), la definición de los planes del discurso se sitúa en un plano computacional incompatible con el plano fenomenológico.
-
La realización de conductas complejas como los discursos, implican la definición inicial de una meta u objetivo global, y, a partir de éstos, la derivación mediante inferencias de objetivos parciales o sub-metas.
-
El fracaso de alguna de las sub-metas o la decisión de realizar una sub-meta incompatible con el objetivo global, obliga al sistema a revisar su plan y planificar una secuencia nueva de acciones, por tanto, el sistema tiene la posibilidad de autorregulación en base a los análisis de los resultados obtenidos en actividades previas (retroinformación).
-
Capacidad de los hablantes para elaborar planes alternativos que pueden ser apropiados para la realización de una cierta intención comunicativa: son modelos de competencia pragmática.
-
Los hablantes adaptan automáticamente ciertos parámetros (intensidad de la voz, frecuencia de emisiones, velocidad de habla, etc.) a las de sus interlocutores.
-
Los hablantes seleccionan y estructuran, los contenidos informativos de sus mensajes, en función de las necesidades de información que atribuyen a sus interlocutores.
-
La presentación del acto de habla, por el hablante, del contenido elocutivo de su contribución, que presupone la creencia del hablante de que su contribución puede ser entendida por el oyente.
-
La aceptación, por el interlocutor, de la contribución realizada por el hablante, que presupone tanto su reconocimiento de que la suposición del hablante era acertada, como el reconocimiento de que ambos comparten ciertos supuestos e informaciones comunes.
-
La co-presencia física de los participantes en la situación comunicativa.
-
La co-presencia lingüística (participación conjunta en un discurso).
-
Su identificación como miembros de una comunidad o grupo social concretos.
-
Los hablantes elaboran instrucciones más largas y explícitas, en los turnos iniciales que en los turnos posteriores.
-
Que, a medida que avanza la tarea, se producen “ajustes” mutuos entre los interlocutores que determinan que, en pocos ensayos, los hablantes adopten estrategias de descripción más eficaces para cada interlocutor.
-
La manipulación experimental, del grado de conocimiento que los interlocutores poseen sobre el tema central de la conversación en el momento de inicio de la misma, reveló que las diferencias en el grado de conocimiento previo de los interlocutores, son detectadas y subsanadas en pocos turnos por los hablantes, mediante un proceso dirigido de construcción de un conocimiento común mínimo.
-
El conocimiento social de la situación.
-
El texto en sí mismo (contexto, en un sentido literal).
-
Los elementos paralingüísticos o extralingüísticos que acompañan a la realización de los textos (co-texto).
-
Representaciones generales, esquemáticas y estables: relativas a las situaciones en que habitualmente se desarrollan las acciones sociales, y a ciertos aspectos de los roles sociales convencionales (“marcos” o “guiones”).
-
Representaciones episódicas sobre la situación física y social actual de los discursos.
-
Gazdar presenta ejemplos procedentes de la observación de # lenguas:
-
Utilización, por algunos grupos aborígenes australianos, de un dialecto llamado “Dyalnguy” cuando los hablantes conversan con sus suegros y/o yernos, frente al dialecto “Guwal”, que utilizan en las demás circunstancias.
-
Utilización en japonés de # estructuras morfológicas en función del grado de amabilidad que desea mostrar el hablante.
-
Experimento de Graumann y Sommer:
-
En el ámbito de la I.A, Eduard Hovy ha demostrado recientemente, mediante la construcción de un programa de simulación llamado PAULINE, que, tanto el conocimiento de ciertos aspectos de la situación social como las relaciones interpersonales entre los interlocutores o el clima emocional de la “atmósfera conversacional”, resultan funcionalmente tan importantes como el conocimiento de los objetivos previos del hablante o el de los objetivos de los interlocutores.
-
Deixis de persona: “tú” pe, señala a aquella persona a la que se dirige el hablante en un momento dado del discurso, que no es una persona fija, sino que varía con cada turno conversacional.
-
Deixis de lugar: “esto”, “aquí”, que indican una proximidad física respecto al hablante.
-
Deixis de tiempo: “antes”, “ayer”.
-
Deixis de discurso: “lo” que remite anafóricamente a algo de lo que se ha hablado previamente.
-
Los “inicios”: Son siempre prospectivos y permiten establecer predicciones acerca de los tipos de respuesta posibles.
-
Las “respuestas”: Son siempre retrospectivas, y realizan las predicciones derivadas de un movimiento de inicio anterior. Estos movimientos, satisfacen las condiciones perlocutivas de los inicios.
-
Desde un enfoque referencial, los tópicos se interpretan como unidades semánticas relativamente abstractas, que se infieren del hecho de que los distintos enunciados del discurso, comparten referentes similares, es decir, “dicen algo” acerca de unos mismos objetos, entidades o actividades.
-
Desde una perspectica proposicional, los tópicos se interpretan como proposiciones, tb generales y abstractas, que contienen el centro de interés del hablante o el “común denominador que permite describir una situación o secuencia de hechos como un todo” (Van DijK).
-
La definición de un acto de habla global (definición del contenido pragmático del discurso).
-
La elaboración de la macroproposicion que define los contenidos semánticos generales de acto de habla global.
-
La construcción, a partir de la macroproposición, de una jerarquía de tópicos más específicos (input de la planificación de unidades menores como los párrafos o las oraciones individuales).
-
Los hablantes son capaces de identificar con relativa claridad, los límites de los tópicos de los discursos, a pesar de que en las conversaciones suelen entrecruzarse varios temas, y cambios de temas sin puntos claros de demarcación.
-
Tb son capaces de reconocer cuando los cambios de tópicos son “ilegales” (rompen la coherencia del discurso).
-
Los hablantes cambian de tópico, siempre que consideran que es necesario para ajustarse a las necesidades informativas de sus interlocutores.
-
En concreto, se cambia de tópico en el discurso en 4 casos:
-
Para introducir un tópico nuevo que se interpreta como relevante para el tópico inmediatamente anterior de la conversación: “cambio de tópico inmediato”.
-
Para introducir un tópico que se interpreta como relevante para alguno de los tópicos abordados en algún momento de la conversación anterior: “cambio de tópico previo”.
-
Para introducir un tópico que se interpreta como relevante respecto a la información que los interlocutores comparten y que puede ser recuperada a patir del contexto físico o social de la situación comunicativa: “cambio de tópico ambiental”.
-
Cuando interpretan que el nuevo tópico puede guardar relación y ser integrado en los esquemas de conocimiento previos de sus interlocutores: “cambio de tópico no especificado”.
-
Los textos son o no son coherentes en a medida en que los enunciados que los componen puedan integrarse en una estructura de conocimiento o de l acción previa más global (ya sea “macroestructura”, “modelo mental del discurso” o “acto de habla global”).
-
Los discursos y conversaciones serán por tanto coherentes, en la medida en que sean “interpretables”, y serán más interpretables en la medida en que puedan relacionarse con los contenidos de conocimiento previo.
-
Por parte del oyente, la posibilidad de relacionar el contenido proposicional de los enunciados del discurso con un conjunto de proposiciones (emitidas o implícitas) y de presuposiciones que:
-
Se conocen previamente.
-
Pueden ser recuperadas de a memoria en el punto exacto en que la conversación lo requiere.
-
Resultan relevantes para la interpretación del significado de los enunciados.
-
Por parte del hablante, presupone la capacidad de establecer un modelo mental con realidad psicológica también para el oyente, y la elaboración de enunciados sucesivos relevantes para este modelo mental.
-
La actividad comunicativa humana se rige por criterios de economía cognitiva, lo que determina que el hablante intente producir la máxima relevancia con el mínimo esfuerzo cognitivo, y destaca tb la estrecha dependencia entre los procesos implicados en la producción de los discursos, y otros procesos cognitivos de carácter “central” (mecanismos inferenciales).
-
Destaca la naturaleza primariamente conversacional y metarrepresentacional de la actividad discursiva, y la dificultad de establecer una barrera tajante, entre los procesos responsables de su producción y de su comprensión.
-
Desde el punto de vista del oyente (comprensión), las superestructuras, proporcionan una base de conocimiento relativamente invariable en condiciones normales que facilita la realización de inferencias causales tanto “hacia delante” como “hacia atrás”, y tanto durante la comprensión de los textos orales como escritos.
-
Desde el punto de vista del hablante (producción), las superestructuras, determinan jerárquicamente algunas de las decisiones iniciales de la planificación de los discursos, pe, la selección de las unidades temáticas centrales del discurso (tópicos), o la organización lineal y jerárquica de los subtópicos del texto.
-
El número de unidades recordadas y la actitud o valoración de los jetos hacia ciertos aspectos de la información presentada, variaba de unos textos a otros: los contenidos factuales se recordaban peor cuando se presentaban en forma de anuncio, que en formatos de descripción o narración. Pero, la comprensión de éstos últimos se valoraba como más difícil que la de los anuncios o conversaciones.
-
En algunas, se pasa de una información a otra sin ir más allá de lo expresado en los enunciados (“Su hija de 7 años es la más alta de los tres”) Inferencias deductivas.
-
En otras, se va más allá de lo expresado en los enunciados (“Su sobrino es muy bajito”) Inferencias inductivas.
-
RAZONAMIENTO DEDUCTIVO: Se parte de unas premisas para alcanzar una conclusión que se siga necesariamente de las mismas.
-
RAZONAMIENTO INDUCTIVO: Se alcanza una conclusión que se encuentra más o menos apoyada por las premisas. Las premisas sugieren o apoyan la conclusión.
-
Un argumento deductivo es válido, sólo si es imposible que su conclusión sea falsa mientras que sus premisas son verdaderas (concepto de validez).
-
Un argumento inductivo es fuerte, sólo si es improbable que su conclusión sea falsa cuando sus premisas son verdaderas (concepto de probabilidad).
-
Silogística aristotélica:
-
Las proposiciones se convirtieron en la unidad básica de análisis y Frege, a finales del XIX, considera que las proposiciones pueden tratarse como funciones matemáticas, y desarrolla un marco de análisis más flexible y potente que la silogística aristotélica.
-
A principios del XX, Whitehead y Russell, desarrollan el cálculo de predicados, y amplían el análisis de las proposiciones a otras formas relacionales que no sean sólo la cópula “es”.
-
No existe acuerdo sobre la forma de medir la fuerza inductiva de un argumento, ni consenso sobre las reglas para construirlos.
-
Tb existe el problema de la justificación de la inducción, es decir, por qué se consideran válidos los juicios sobre casos futuros o desconocidos.
-
Método directo de concordancia: Se utiliza para determinar las condiciones necesarias, y requiere la búsqueda de la ocurrencia de la propiedad condicionada, en un abanico variado de circunstancias.
-
Método inverso de concordancia: Para identificar las condiciones suficientes. Para ello, se busca, en un número determinado de ocurrencias, las propiedades condicionantes que se encuentran ausentes, cdo la propiedad condicionada también lo está.
-
Método de la diferencia: Para identificar las condiciones suficientes cdo las propiedades condicionantes se encuentran presentes en una ocurrencia determinada.
-
Método combinado: Para identificar las condiciones que son tanto suficientes como necesarias.
-
El doble método de concordancia, combina el método directo e inverso de concordancia.
-
El método conjunto, combina el método directo de concordancia y el de diferencia.
-
Método de variaciones concomitantes: Identifica las relaciones funcionales entre las variaciones de un fenómeno (en los métodos anteriores se identificaba la presencia o ausencia de las condiciones necesarias y/o suficientes para producir un efecto. Ahora, se trata de determinar el grado de correlación entre la presencia o ausencia de éstas condiciones).
-
Método de los residuos: Separa los efectos que podemos asignar a causas conocidas, asumiendo que el resto de los efectos, pertenece a causas aun por determinar.
-
Errores formales o de forma: Se viola alguna de las reglas de inferencia (pej, cdo en el condicional se afirma el consecuente).
-
Errores informales o de contenido: Son debidos al uso o a la inadecuada interpretación del contenido.
-
Sesgos en la selección de la información.
-
Sesgos de confirmación.
-
Sesgos de contenido y contexto.
-
Información prominente o saliente:
-
Interés emocional de la información para el sujeto.
-
Concreción de lo datos.
-
Carácter vívido de la información.
-
Proximidad temporal y espacial del argumento.
-
Familiaridad de la información.
-
Fuente de la que proviene la información:
-
Simpatía.
-
Autoridad.
-
Carisma.
-
Experiencia.
-
Errores debidos a la propia estructura sintáctica del problema:
-
Efecto atmósfera:
-
Efecto de la figura:
-
Sesgo de emparejamiento (tema 7):
-
Restricciones estructurales propias del sistema de procesamiento de la información:
-
Disponibilidad o accesibilidad de la información:
-
Cómo se haya organizado la información.
-
De la familiaridad de la información.
-
De las expectativas de los sujetos.
-
De la primacía o lejanía de la información presentada.
-
Relevancia de la información para el problema a resolver:
-
Conocimiento y creencias de los sujetos:
-
Tareas de razonamiento probabilístico como cdo los sujetos tienen que evaluar el diagnóstico de una enfermedad en función de los resultados positivos de una prueba (no consideran que los resultados tb sean positivos para el diagnostico de otra enfermedad distinta de la hipotetizada).
-
Tareas de inducción en las que el sujeto tiene que descubrir una regla (“tarea 2 4 6” de Wason).
-
Trabajos experimentales de razonamiento condicional.
-
Procesamiento de la información positiva:
-
El contenido y el contexto de los problemas:
-
Contenido abstracto.
-
Contenido conocido pero arbitrario (“si es un artista, entonces pertenece a la sociedad de amantes del cine”).
-
Contenido familiar (“si eres psicólogo cognitivo, entonces conoces los principios del razonamiento humano”).
-
Si el argumento entra en conflicto con las creencias del sujeto, éste lo considera inválido.
-
Si el argumento es consistente con las creencias del sujeto, éste lo considera válido sin analizar si la conclusión se sigue o no de las premisas Sesgo de creencias previas.
-
Aceptan una generalización basada en pocas observaciones en un dominio con poca variabilidad.
-
No aceptan una generalización basada en pocas observaciones en un dominio con alta variabilidad.
-
Los errores de razonamiento ocurren en la comprensión de las premisas.
-
Las respuestas sesgadas, por la interpretación que hacen los sujetos.
-
Un componente deductivo, que comprende reglas sintácticas libres de contenido, que no tienen por qué ser equivalentes al conjunto de reglas lógicas, sino comprender el repertorio de reglas de inferencia que utilizan los sujetos.
-
Un componente de interpretación, que establece la correspondencia entre los enunciados del lenguaje y el conjunto de reglas sintácticas.
-
Sloman:
-
Razonamiento reflectante: sistema conexionista cuyo cómputo refleja estructuras de semejanza y relaciones de contigüidad.
-
Razonamiento deliberado: Sistema de representación simbólica basado en reglas.
-
El sistema conexionista, aprovecha los recursos de procesamiento al obtener sus inferencias aprovechando el conocimiento que se encuentra representado, y que puede generalizarse a contextos diferentes.
-
El sistema basado en reglas, utilizaría sus recursos de procesamiento para aquellas situaciones novedosas, y en las que sea necesaria la precisión de las inferencias.
-
Evans y Over:
-
Racionalidad1 o racionalidad personal: Comportamiento que resulta eficaz y fiable para la obtención de metas.
-
Racionalidad2 o racionalidad impersonal: Comportamiento sustentado en una razón que se encuentra fundamentada en una teoría normativa.
-
Implícito: Sistema conexionista en el que se representa el conocimiento tácito que depende de la experiencia.
-
Explícito: Limitado por la capacidad de memoria a corto plazo, por ser un procesamiento secuencial y costoso, y por depender tb del sistema implícito.
-
Procesos heurísticos: Selección de la información relevante.
-
Procesos analíticos: Operan sobre la información que ha sido seleccionada.
-
La teoría de los modelos mentales no está exenta de problemas, y tanto esa teoría como la basada en reglas, podrían ser valiosas para explicar el razonamiento de distintos sujetos, o del mismo sujeto en distintas situaciones.
-
La racionalidad2 no aporta buenos modelos de razonamiento. Los resultados experimentales subrayan que el razonamiento no ocurre aisladamente, sino que depende del contenido, del contexto y de las metas del sujeto.
-
No hay 2 tipos de racionalidad, sino un solo sistema de razonamiento que puede ajustarse al modelo normativo, si las circunstancias pragmáticas son adecuadas.
-
Falta de especificación de ambos sistemas:
-
Sigue existiendo polémica respecto al modelo normativo del sistema explícito (racionalidad2).
-
Tampoco hay una especificación del procesamiento implícito, ni un criterio para establecer el grado de eficacia que se espera del sistema implícito (racionalidad1).
-
La limitación entre ambos sistemas es difusa: puede haber metas que el sistema explícito se proponga alcanzar, e inferencias que sean implícitas.
-
No se establece la interacción entre ambos sistemas, ni las circunstancias que ponen en marcha un sistema frente al otro.
-
Seguimos con una concepción circular del razonamiento.
-
El ahorro cognitivo que supone la agrupación de las experiencias particulares en clases: Los sujetos no parecen actuar en función de cada una de las experiencias (como únicas), sino que extraen lo que puede ser común a un conjunto de objetos o situaciones. La categorización constituye una de las formas paradigmáticas de la inferencia inductiva, por medio de la cual las experiencias particulares, se agrupan en una clase general.
-
Posibilidad que ofrece la pertenencia categórica, de inferir más información de la que ha sido presentada, en una situación determinada. La categorización tb permite aplicar a un nuevo ejemplar de la categoría la información adicional sobre lo que previamente ya ha sido agrupado.
-
El concepto se refiere a conceptos artificiales: estímulos que se generan para ser utilizados en los experimentos, o términos que pertenecen al lenguaje técnico.
-
Categorización: proceso básico que organiza el entorno.
-
Concepto: Representación mental de la información.
-
Individualmente necesarias: una propiedad es necesaria si está presente en cada uno de los ejemplares.
-
En su conjunto suficientes: un conjunto de propiedades es suficiente si cada ejemplar que presente dicho conjunto pertenece al concepto en cuestión.
-
Falta de especificación de las propiedades definitorias de algunos conceptos. Los conceptos no se ajustan fácilmente a una representación por definiciones.
-
Además, el propio uso que hacían los sujetos de los conceptos, tb estaba en contra de los principios de éste enfoque, pq:
-
Algunos ejemplares se consideraban más típicos o representativos que otros, aunque la igualdad era l esperado.
-
Estos efectos de tipicidad permitían predecir el comportamiento de una amplia variedad de tareas (respuestas más rápidas con los ejemplares típicos, o recuperación más rápida de los ejemplares típicos frente a los atípicos).
-
Nivel supraordenado: grado más alto de generalidad (fruta).
-
Nivel intermedio o básico, en el que ubicaría el prototipo (manzana).
-
Nivel subordinado: el más concreto (manzana golden).
-
No todos los ejemplares eran equivalentes en cuanto a su pertenencia categórica.
-
Los efectos de tipicidad parecen deberse a las propiedades no necesarias.
-
Es una medida directa de la frecuencia de las propiedades del concepto.
-
Una medida indirecta de la semejanza de un ejemplar con respecto a los otros miembros del grupo.
-
Se correlaciona con la tipicidad.
-
El orden de los ejemplares (tabla 4.2, pg 145), se debe a las propiedades no necesarias.
-
El supuesto principal de éste enfoque es que la tipicidad de un ejemplar es una medida de la semejanza de dicho ejemplar y su prototipo.
-
Por “parecido familiar” se entiende la semejanza media de un ejemplar con respecto a otros miembros de la categoría, y la desemejanza media con respecto a los miembros de otras categorías de contraste.
-
La estructura interna del concepto no es homogénea, ya que los miembros se ordenan según la graduación de tipicidad. El parecido familiar es la base de la graduación de tipicidad, y una categoría se define por el parecido familiar entre sus miembros.
-
Los resultados sobre los efectos de tipicidad dependen de un criterio de semejanza, de las categorías particulares que se han elegido, y de los ejemplares que se han puesto a prueba (una naranja y una pelota son más semejantes entre sí respecto a la forma que 2 ejemplares de la misma categoría como una naranja y un plátano).
-
El prototipo puede ser muy diferente en función del contexto en el que ocurra (“El pájaro voló sobre el mar” (una gaviota), o “el cazador disparó contra el pájaro” (una perdiz)).
-
Necesidad de contemplar las generalizaciones que se producen durante el aprendizaje.
-
Necesidad de especificar el criterio de coherencia interna que limite el ámbito de proceso categorizador.
-
Los sujetos evaluaban la tipicidad del ejemplar del concepto compuesto (“sangre roja”) como mayor que la del concepto simple (“sangre”).
-
Cuando los conceptos compuestos reunían conjunciones incompatibles (“sangre azul”), en la que los adjetivos denotan un valor poco frecuente, estas conjunciones incompatibles eran evaluadas como más típicas, tanto en el caso del concepto compuesto (“sangre azul”) como del compuesto simple (“sangre”), que las conjunciones compatibles (“sangre roja”).
-
Además, cdo se pedía que se evaluara a tipicidad de un ejemplar que no pertenencia a esa categoría (“sangre roja” para el concepto “sangre azul”), la tipicidad era menor para el caso del compuesto (“sangre azul”) que para el simple (“sangre”).
-
Cuando se evalúa un ejemplar del compuesto “sangre roja” éste se considera más típico del concepto “sangre roja” que del concepto “sangre”, porque el atributo color rojo ha incrementado su valor diagnóstico y su prominencia en el concepto compuesto.
-
Para el caso de los conceptos incompatibles como “sangre azul”, un ejemplar de “sangre azul” reconsidera más típico del concepto “sangre azul” que del concepto “sangre”.
-
Este modelo es muy simple y limitado, y está diseñado para conceptos compuestos con una sintaxis determinada (sustantivo-adjetivo). Sin embargo, la conjunción de 2 conceptos bajo otra forma sintáctica, como “sangre” y “rojo”, puede dar lugar a que “rojo” se considere un concepto al igual que “sangre” y su combinación conceptual se ajuste a la intersección entre ambos.
-
El modelo trata adjetivos simples que presumiblemente solo afectan a una propiedad del prototipo. Sin embargo, hay adjetivos más complejos con consecuencias múltiples para el sustantivo que modifican. Además, adjetivos simples como el color, tb se encuentran relacionados con otros (color verde de la fruta y su grado de acidez).
-
El cambio en el valor de una de las propiedades del concepto, provocaba tb el cambio en los valores de las propiedades relacionadas:
-
Con respecto al contexto, el patrón de semejanza variaba en función del sustantivo sobre el que se aplicaban los adjetivos.
-
Una misma propiedad puede ser más crítica para un concepto que para otro.
-
Por una relación entre el concepto base y el concepto que lo modifica (perro perdiguero: perro que caza perdices).
-
Por una o más propiedades que se aplican sobre el concepto base (pez martillo: pez con forma de martillo).
-
Por una combinación híbrida de los 2 conceptos (aparta-hotel: una combinación de alguna de las propiedades de hotel y apartamento y una conjunción de las propiedades de ambos conceptos).
-
Salvando las diferencias entre los distintos enfoque, buen a parte de las investigaciones se apoyan en la NOCIÓN DE SEMEJANZA:
-
En el enfoque de las propiedades prototípicas, determinados ejemplares se consideran más típicos o más representativos que otros con respecto a su pertenencia categórica, y la tipicidad de un ejemplar es una medida de la semejanza del ejemplar con su prototipo.
-
En el enfoque de los ejemplares, la categorización consiste en el cómputo de la semejanza entre los ejemplares.
-
Otros enfoques proponen que es el conocimiento propio que tienen los sujetos y sus teorías ingenuas sobre el mundo lo que restringe la construcción de una categoría: Enfoque guiado por el CONOCIMIENTO PREVIO O LAS TEORÍAS INGENUAS.
-
El sistema se concibe como un aplicador de reglas, en el que las agrupaciones de reglas consolidadas, se denominan esquemas.
-
El procesamiento es paralelo, y las reglas se encuentran distribuidas en varias estructuras, de forma que en un momento dado, puedan ser complementarias o inhibitorias.
-
Las restricciones impuestas sobre el mecanismo de procesamiento, con el fin de que éste pueda efectuar la ponderación, se encuentran determinadas por el propio sistema y el contexto.
-
Reglas diacrónicas: Representan las transiciones temporales entre el ambiente y los estados del sistema, y comprenden el repertorio de teorías causales sobre el ambiente.
-
Reglas sincrónicas: Comprenden reglas atemporales entre descripciones alternativas del ambiente o de los objetos.
-
La flexibilidad del proceso categorizador: Se fundamenta en la ejecución en paralelo de un conjunto de reglas. Las reglas que muestren ser efectivas serán ponderadas, y aquellas que no lo sean se modificarán o eliminarán.
-
El emparejamiento de los hechos y reglas para determinar qué reglas satisfacen las condiciones.
-
La selección de un subconjunto de reglas emparejadas para que sean ejecutadas.
-
La ejecución de las reglas seleccionadas para que lleven a cabo las acciones especificadas.
-
Organización implícita: Si la acción que es consecuencia de una regla satisface la condición de una segunda regla, entonces la ejecución de la primera conducirá a la ejecución de la segunda regla.
-
Organización explícita: La conexión entre reglas viene indicada directamente.
-
Cdo existen pocos niveles excepcionales, la generalización con pocos ejemplares será automática.
-
Cuando existen muchas excepciones, las generalizaciones serán débiles o tentativas.
-
El sistema se encuentra constituido por redes de activación que comprenden un conjunto amplio de unidades de procesamiento unidas por conexiones con pesos diferenciados.
-
La información se transmite por las propiedades estadísticas de los patrones de actividad en un conjunto de unidades, y no por unidades particulares.
-
Las unidades son unas entidades de procesamiento que asumen unos valores de activación basados en la suma ponderada de lo que entra en el sistema, y de las otras unidades que están dentro del sistema.
-
El papel que desempeña una unidad se define por la fuerza de sus conexiones, tanto excitatorias como inhibitorias. Por tanto, el conocimiento está en las conexiones, y no en las representaciones estáticas y monolíticas de los nodos.
-
La actividad de procesamiento es el resultado de las interacciones de procesamiento que se dan entre un número importante de unidades. Por eso se conoce a estos modelos como modelo PDP o procesamiento distribuido y paralelo.
-
No existe ninguna noción sobre una estructura interna, aunque solo fuera por defecto. La aparente aplicación de reglas, emerge de las interacciones entre unidades de activación, en lugar de explicarse por la aplicación de reglas propiamente.
-
El procesamiento es realmente activo, ya que da lugar a más procesamiento, sin necesidad de un procesador central o de un mecanismo de emparejamiento y aplicación de producciones.
-
En éste tipo de modelo, el conocimiento adopta la forma de una red que satisface restricciones, que vienen impuestas por el contexto.
-
Razonamiento silogístico: proposiciones con cuantificadores.
-
Razonamiento transitivo: proposiciones con relaciones internas.
-
Razonamiento proposicional: proposiciones con el condicional, bicondicional, negación y disyunción.
-
Universal afirmativa (A): “Todos los A son B”
-
Universal negativa (E): “Ningún A es B”
-
Particular afirmativa (I): “Algún A es B”
-
Particular negativa (O): “Algunos A no son B”
-
Chapman y Chapman, explican los resultados de sus experimentos por la conversión ilícita de las premisas y por la inferencia probabilística.
-
Revlis, formula una propuesta basada en la conversión de las premisas en todos los silogismos.
-
Si ambas representaciones son congruentes, se acepta el silogismo como válido.
-
Si son incongruentes, se procede a la comparación de las representaciones en sus versiones originales, hasta encontrar un argumento válido.
-
Si aún así no se obtiene el argumento válido o se ha superado el límite de tiempo, se puede proceder o con un modelo para la selección aleatoria de una de las alternativas presentadas, o con un modelo de selección de rasgos (cantidad y calidad), cuyas predicciones son casi las mismas que las del efecto atmósfera.
-
Para explicar la interacción entre validez lógica y credibilidad, Evans y cols, propusieron 2 modelos para mostrar como se realiza e proceso de evaluación de las conclusiones:
-
Silogismo inválido indeterminado: Daría lugar a conclusiones posibles pero no necesarias, y los sujetos se encontrarían influidos por la credibilidad.
-
Silogismo inválido determinado: No se sigue ninguna conclusión y la credibilidad no ejerce ninguna influencia
-
Begg y Harris:
-
Erickson propuso una teoría de razonamiento silogístico basada en los círculos de Euler.
-
Interpretación de las premisas, influida por el contenido del argumento.
-
Combinación de las representaciones de las premisas en una sola representación, para evaluar o producir una conclusión.
-
Selección de una etiqueta verbal que se corresponda con la descripción de la combinación obtenida en la etapa anterior, para dar la respuesta.
-
Modelo de la cadena transitiva de Guyote y Sternberg:
-
En la etapa de combinación las interpretaciones de las premiosas se van integrando en “cadenas transitivas” (enlaces entre el primer y último término de las premisas a través del término medio). En esta etapa se pueden producir errores debido a la capacidad limitada de la memoria a corto plazo.
-
En la etapa de comparación, se elige una conclusión concordante con las representaciones combinadas. En esta etapa se pueden producir errores debido a la falta de consideración de alguna conclusión concordante con la combinación de premisas y tb del “efecto atmósfera”.
-
Asume que no hay errores en la primera etapa de interpretación de las premisas, cdo hay datos experimentales que demuestran que sí los hay.
-
Al igual que en el modelo de Ericsson, no se contemplan los efectos de la figura y se recurre al efecto atmósfera como un sesgo de respuesta sin explicación psicológica.
-
Los modelos basados en los círculos de Euler, predicen que la dificultad de los silogismos dependerá del número de diagramas necesarios para la interpretación y combinación de las premisas. Sin embargo, los datos muestran que, alguno de los silogismos que los sujetos resuelven sin dificultad, precisan un mayor número de diagramas que otros que son más difíciles para el sujeto (aunque requieran menor número de diagramas).
-
Newell, propone un modelo basado en los diagramas de Venn.
-
MODELOS MENTALES DE CONJUNTOS de Johnson-Laird:
-
Etapa de comprensión: El sujeto utiliza su conocimiento sobre el lenguaje y su conocimiento en general para comprender las premisas. Se construye un modelo mental del contenido de las premisas del argumento.
-
Etapa de descripción: El sujeto genera una descripción, lo más sencilla posible, de los modelos construidos a partir de las premisas. Esta descripción debe enunciar algo que no se encuentre explícito en las premisas, y es la conclusión tentativa del argumento.
-
Etapa de búsqueda de modelos alternativos de las premisas que puedan falsar la conclusión tentativa. Si no los encuentre, la conclusión será válida. Si los encuentra, regresa a la etapa 2 para seguir probando conclusiones, mediante la búsqueda de contraejemplos.
-
Cuanto mayor sea el número de modelos mentales necesarios para encontrar una conclusión válida, más difícil será el problema y mayor probabilidad de error al ejecutarse las operaciones en la MCP, con capacidad limitada.
-
La figura del silogismo tb aumenta la dificultad, y la probabilidad de que una conclusión sea del tipo C-A o A-C. Esto es debido a que las conclusiones se leen en el modelo mental en la misma dirección en que se han representado, y cdo las representaciones de las premiosas no reencuentran en la misma dirección, hace falta una operación que invierte el orden para poder realizar la combinación de modelos mentales (ver representación pg 254).
-
El contenido o las creencias tb puede ser una fuente de error, que influya en la interpretación, en a combinación de los modelos y en el proceso de aceptación o rechazo de la conclusión tentativa.
-
8 afirmativas
-
8 con la primera premisa negativa
-
8 con la segunda premisa negativa
-
8 con ambas premisas negativas
-
A>B C<B
-
B>A B>C
-
Los problemas más difíciles serian:
-
Principio de la preferencia relacional:
-
Principio de anclaje de los extremos:
-
Principio de la primacía de las relaciones funcionales:
-
Principio de marcado léxico:
-
Principio de la congruencia:
-
Si la pregunta se presenta antes que las premisas, se adopta la estrategia lingüística.
-
Si se presenta después de las premisas, se adoptará una estrategia espacial.
-
Modus ponens: es la más fácil.
-
Error de afirmación del consecuente.
-
Error de negación del antecedente.
-
Modus tollens, es la más difícil porque requiere más pasos al incluir inferencias sugeridas por el contexto.
-
Modus ponens: Se infiere que se va a quedar a dormir la próxima vez que se nos diga que va a cenar a casa de sus padres.
-
Falacia de afirmación del consecuente: Se infiere que cenó con sus padres cuando alguien nos comenta que durmió en casa de sus padres.
-
Falacia de negación del antecedente: Se infiere que no durmió en casa de sus padres cuando alguien nos comenta que no cenó con ellos.
-
Modus tollens: Se infiere que no ha cenado con sus padres cuando alguien nos comenta que no se ha quedado a dormir.
-
Basadas en las cuatro inferencias básicas del condicional:
-
Basadas en las tablas de verdad:
-
Tarea de selección de Wason:
-
Los sujetos tienen reglas de inferencias semejantes a las reglas lógicas, y que éstas reglas, se aplican sobre una representación proposicional de los silogismos condicionales, con el fin de probar la conclusión.
-
Los problemas de razonamiento serán más difíciles en función del procedimiento de selección y aplicación de las reglas de inferencia y de las limitaciones en los recursos de procesamiento de la información.
-
El primer componente CODIFICA la entrada de información lingüística del término “si” en unos esquemas de inferencia independientes del contexto.
-
El segundo, constituido pro procesos de comprensión pragmática, INTERPRETA el condicional en función del contexto en el que ocurre.
-
El tercer componente es un PROGRAMA DE RAZONAMIENTO con los pasos a seguir desde la información que ya ha sido interpretada hasta la conclusión.
-
La regla del modus ponens: permite inferir “q” a partir de las premisas “si p, entonces q” y “p”.
-
La regla para la prueba del condicional: permite inferir “si p, entonces q” a partir de cualquier proposición “q” que se siga de la suposición “p”. Esta prueba permite introducir suposiciones en el procedimiento de prueba siempre y cuando éstas sean consistentes con las premisas, evitando de esta manera caer en contradicciones dentro del propio argumento.
-
Estructuras de memoria.
-
Rutinas de inferencias.
-
Una configuración jerárquica de asertos (árbol de asertos), que incluyen las premisas y proposiciones que se derivan de las mismas.
-
Una configuración jerárquica de submetas (árbol de submetas), que incluye la conclusión y las proposiciones que la garantizan.
-
Regla del modus ponens hacia delante: Va de las premisas a la conclusión, y permite inferir “q” si en el árbol de asertos se encuentran las proposiciones “si p, entonces q” y “p”, es decir, si el antecedente (“p”) concuerda con la premisa del árbol de asertos.
-
Regla del modus ponens hacia atrás: Va de la conclusión a las premisas, y se aplica sobre el árbol de submetas para aquellas situaciones en las que las condiciones iniciales tienen como meta deducir “q” y cuentan con el aserto “si p, entonces q”.
-
No cuenta con un procedimiento directo para la detección de los argumentos inválidos [hay evidencia de que, cuando las premisas contradicen la conclusión, los sujetos declaran el argumento inválido de forma inmediata (directa)].
-
Sólo evalúa argumentos, pero no puede producir conclusiones cuando se requiere la aplicación de las reglas hacia atrás que necesitan una submeta para poder activarse.
-
Si se va a realizar la acción, entonces debe satisfacer la precondición.
-
Si la acción no se va a realizar, entonces no se necesita satisfacer la precondición.
-
Si se satisface la precondición, entonces puede realizarse la acción.
-
Si no se satisface la precondición, entonces no debe realizarse la acción.
-
Esta teoría mantiene que los sujetos tb utilizan reglas de inferencia apropiadas al dominio sugerido por el problema, aunque estas reglas son distintas y tienen distinto origen.
-
La tª de Cosmides queda asumida como parte de los esquemas de regulación. Los contratos sociales no son más que otra denominación para los permisos y obligaciones.
-
beneficio aceptado, “p”.
-
beneficio no aceptado, “¬p”.
-
costo pagado, “q”.
-
costo no pagado, “¬q”.
-
Sólo los hombres casados llevan tatuajes, cuando un hombre se casa tiene que llevar un tatuaje en la cara.
-
Sólo los hombres casados pueden tener relaciones sexuales.
-
La comida duiker es deseable y escasa.
-
Para poder comerla, hay que encontrar un huevo de avestruz.
-
Girotto y cols:
-
Politzer y Nguyen-Xuan:
-
Promesa condicional: punto de vista del que hace la promesa y del que la recibe.
-
Advertencia condicional: punto de vista del que hace la advertencia y del que la recibe. Resultados:
-
Cuando el sujeto adopta el punto de vista del que hace la promesa, la regla de permiso se convierte en una obligación y, para detectar las posibles violaciones del compromiso, aplicará la regla de permiso (de su interlocutor).
-
Cuando el sujeto adopta el punto de vista del que recibe la promesa, la regla es de permiso y, para detectar las posibles violaciones del compromiso, aplicará la regla de obligación (de su interlocutor).
-
Cuando el sujeto adopta un punto de vista neutro o no sesgado, hará una interpretación bicondicional de la situación.
-
Gigerenzer y Hug:
-
Platt y Griggs:
-
Manktelow y Over:
-
Condicional con términos indicativos: tarea abstracta.
-
Condicional con términos deónticos (“debe”): tarea con esquemas de permiso y con contratos sociales. Los términos deónticos son los que producen efectos facilitadores.
-
Jackson y Griggs:
-
Los procesos heurísticos de naturaleza pragmática: procesos preatencionales de naturaleza pragmática, determinados por factores individuales y lingüísticos, encargados de seleccionar la información que es relevante.
-
Los procesos analíticos: la información seleccionada pasa aquí, donde tiene lugar el razonamiento.
-
Si ocurre el sesgo de confirmación se seleccionaran las tarjetas en las que el antecedente y el consecuente fueran verdaderos.
-
Si ocurre el sesgo del emparejamiento, las tarjetas seleccionadas coincidirán con los términos de la regla sin la negación, y además serían las respuestas correctas.
-
Uno se pone en marcha por el término “si” del condicional, y hace que el sujeto se centre en el antecedente.
-
El otro es de carácter más general, y hace que la atención se dirija hacia el tema del enunciado.
-
Principio cognitivo de la relevancia:
-
Cuantos mayores sean las expectativas sobre los efectos cognitivos, mayor será la relevancia.
-
Cuanto mayores sean los costes del procesamiento, menor será la relevancia.
-
Principio comunicativo de la relevancia:
-
La regla implica que cualquier tarjeta con una “p” tendrá una “q” por el otro lado.
-
La regla implica que en la mayoría de contextos hay casos “p” y “q”.
-
La regla contradice el supuesto de que hay casos “p” y “¬q”.
-
Seleccionar características sencillas, de forma que la Rs. “p y ¬q” resulte tan fácil como “p y q”.
-
Generar un contexto de forma que los efectos cognitivos de “p y ¬q” sean mayores que los de “p y q”.
-
Presentar la tarea de forma oportunamente pragmática para que la artificialidad de la tarea no desvíe la atención de los sujetos.
-
Sperberg, Cara y Girotto afirman que:
-
La regla implica que cualquier tarjeta “p” tendrá por el otro lado una “¬q”.
-
La regla implica que en la mayoría de los contextos hay casos “p” y “¬q” (negación explícita).
-
La regla contradice que hay casos “p” y “q” (negación implícita).
-
Los efectos de facilitación en la versión deóntica de la tarea de selección (cumplimiento de una regla), se explican por su interpretación dentro de un contexto.
-
Cuando en la versión indicativa de la tarea de selección (comprobación de una regla) se logra la interpretación del condicional como una negación de la existencia de casos “p” y “¬q”, y en la versión deóntica como una prohibición de la ocurrencia de “p” y “¬q”, se resuelve la tarea correctamente.
-
Existe una dependencia en la forma “si p, entonces q”.
-
(hipótesis más sencilla) “p” y “q” son independientes.
-
La probabilidad de un suceso aleatorio (S) sería el cociente entre el numero de de resultados favorables de ése suceso aleatorio, y el número toral de resultados posibles.
-
La probabilidad de un suceso sería la frecuencia relativa del mismo, después de haberlo repetido un número razonablemente grande de veces.
-
La probabilidad de un suceso es igual o mayor que 0. No existen probabilidades negativas.
-
La probabilidad de un suceso seguro es 1.
-
Si 2 sucesos (S1 y S2) son mutuamente excluyentes entre sí, entonces la probabilidad de uno u otro será igual a la suma de sus probabilidades.
-
Si la probabilidad de un suceso P(S2) no es igual a 0, entonces P(S1 y S2) = P(S1 asumiendo que S2)xP(S2).
-
De la probabilidad inicial o a priori del suceso.
-
De la diagnosticidad del dato, es decir, en qué medida se asocian ambos [P(D/H)] y [P(D/H´)].
-
Los sujetos esperan que las propiedades de un mineral (“floridium”) sean estables, y generalizan a partir de una sola observación.
-
Pero, la obesidad o la delgadez, se consideran características variables, por lo que solo generalizaran ante un número elevado de observaciones.
-
Debía evaluar la frecuencia en la población de un listado de profesiones.
-
Recibían una descripción de la manera de ser de Tom, y tenían que evaluar la semejanza entre ésta descripción y las distintas profesiones (juicios de representatividad).
-
Recibían la misma descripción de Tom y además se les comunicaba que esta descripción se basaba en pruebas proyectivas.
-
Los juicios de los del grupo 3 correlacionaban con los de semejanza del grupo 2.
-
Correlación negativa entre éstos y los del grupo 1
-
¿Qué porcentaje de los asistentes a la fiesta son profesores universitarios?
-
¿Qué porcentaje de los miembros del club Ruiz están en la fiesta?
-
¿Que porcentaje de los profesores universitarios presentes en la fiesta son miembros del club?
-
¿Que porcentaje de los hombres de negocios presentes en la fiesta son miembros del club?
-
El 89,3% consideraron relevante la pregunta 3 (asociación entre el dato disponible y la hipótesis).
-
Sólo el 53,6% consideró relevante la pregunta 4 (asociación entre el dato y la hipótesis alternativa).
-
La mayoría de los sujetos consideraron más probable la afirmación Linda es cajera de un banco y es feminista (conjunción) que la afirmación individual
-
La frecuencia.
-
Se recuerda mejor la información más reciente, la más impactante o la más nítida (cdo se oye que se ha producido un accidente de avión, ésta información pasa a considerarse más frecuente de lo que es en realidad).
-
La familiaridad. Es más fácil recordar los nombres conocidos o famosos (los sujetos recuperan con más facilidad éste tipo de nombres, y por tanto, lo consideran mas frecuentes).
-
El impacto que haya causado un acontecimiento.
-
La información que está presente en una situación concreta es más accesible, adquiere mucha más relevancia y favorece que se ignoren otras alternativas que no están presentes.
-
Efecto de la explicación: Se tiende a considerar mayor la probabilidad de un suceso que se ha explicado previamente, que la probabilidad del resto de las posibilidades. Investigaciones posteriores demostraron que no es necesario explicar, sino únicamente imaginar un resultado para aumentar su probabilidad percibida.
-
Flexibilidad de los heurísticos:
-
Escasa validez externa:
-
Johnson Laird, estudian estos sesgos, a los que denominan “ilusiones cognitivas”. Cuando se razona sobre la probabilidad relativa de los sucesos A y B con varios operadores (disyunción exclusiva, condicional, bicondicional), los sujetos pueden cometer errores al no representar de forma explícita los casos en los que no ocurren los sucesos.
-
El orden de presentación (información representativa antes que la probabilística o a la inversa), genera modelos mentales distintos.
-
La integración de la información representativa/probabilística, depende de la congruencia entre ambas (ante una incongruencia entre las fuentes de información, el sujeto desatiende la información cuantitativa, y basa sus juicios en la información representativa).
-
Cuando la persona ha de centrarse solo en algunos aspectos de los modelos posibles, quizá lo haga en función de la facilidad con la que pueden construirse cada uno de ellos o de la rapidez con la que llegan a la mente, lo que recuerda al uso del heurístico de accesibilidad.
-
Cuando se trabaja con hipótesis y datos binarios, se utilizan las inferencias bayesianas.
-
Cuando los datos son continuos, multivariados e interdependientes, se produce un procesamiento según la teoría de los modelos mentales probabilisticos.
-
Una clase de referencia: la población sobre la que se plantea el problema.
-
Una variable sobre la que se trabaja.
-
Una red de claves de probabilidad que generalmente covarían con la variable.
-
La media de respuestas correctas.
-
La confianza media asignada a las respuestas (50%, 60%,…).
-
Los sujetos generan más evidencia a favor de la propia hipótesis que en contra de ella.
-
Creencia en que la memoria es completamente fiable.
-
La falta de retroalimentación en la vida diaria (por lo que los errores de juicio a menudo no se aprecian).
-
El tipo de tarea: mejor calibración cdo se pide asignar el rango de resultados a los que se respondería con certeza, que en la tarea habitual de asignar la confianza a un resultado concreto.
-
Al comparar la confianza media con la proporción de aciertos, el resultado era una sobreconfianza del 15% al 20%.
-
Cdo se comparó la estimación de aciertos con la estimación de dicha proporción, el resultado mostró una subconfianza del 2,4%.
-
Heidelberg
-
Bonn
-
Una clase de referencia (todas las ciudades de Alemania)
-
Una variable (el número de habitantes)
-
Una red de claves de probabilidad, que generalmente covarían con la variable.
-
Tener un equipo de fútbol en la Bundesliga (ninguno lo tiene)
-
Ser capital de una región.
-
Estar situada en la zona rural o en la zona industrial…
-
Los errores observados en preguntas de conocimiento general que tienen “trampa”.
-
El resultado obtenido por estos autores al modificar el tipo de tarea presentada, ya que, cdo se pregunta por la confianza en la respuesta, el modelo que la persona está construyendo, está referido a la situación concreta planteada en la pregunta. Sin embargo, cdo se pregunta por la proporción de respuestas correctas que la persona cree que ha emitido, el modelo estaría referido al total de preguntas respondidas y las claves que se utilizarían serían distintas (pe, el propio rendimiento en tareas similares).
-
Plantear con precisión cuál es la decisión a tomar.
-
Generación de alternativas, tratando de no desechar ninguna a priori.
-
Evaluación de las diferentes alternativas generadas:
-
La probabilidad de ocurrencia de cada una de ellas (en el caso de que se trate de una decisión con riesgo).
-
Heurístico de representatividad:
-
Heurístico de accesibilidad:
-
Principio de Pollyanna:
-
Sesgo de sobreconfianza:
-
Sesgo de perspectiva (o retrospectivo):
-
Las consecuencias que pueden esperarse en el caso de que ocurran:
-
Modelos de riesgo con un solo atributo:
-
Modelos de riesgo multiatributo:
-
Modelos sin riesgo y un atributo:
-
Modelos sin riesgo y multiatributo:
-
Las personas están informadas de todas las alternativas existentes y de sus posibles consecuencias.
-
Son sensibles a las diferencias que existen entre las distintas alternativas.
-
Tb asumen que las personas son racionales al ordenar estas alternativas y al elegir aquella que maximice la utilidad esperada.
-
x será preferida a y sólo si la utilidad de x es mayor o igual a la utilidad de y.
-
La utilidad en un juego o apuesta [U (x, p, y)] es igual a la utilidad esperada de cada resultado ponderada por su probabilidad.
-
No se aprecia transitividad en las preferencias, estableciéndose una circularidad entre ellas.
-
Se observa una preferencia por la opción que comparta 2 alternativas a las que inicialmente se les ha asignado distinto valor.
-
Violación del principio general formulado por Neumann y Morgenstern: la utilidad global de una alternativa, estará determinada por la utilidad de sus componentes.
-
Violación del principio sure-thing, descrito por Savage.
-
Países occidentales: dan un mayor peso a las probabilidades de las pérdidas, y la percepción de riesgo disminuye a medida que mejoraban los resultados en el juego.
-
Países orientales: mayor peso a la magnitud de las pérdidas, y la influencia de los resultados positivos era mucho menor en su percepción del riesgo.
-
La preferencia que muestran los sujetos varía en función de la presentación del problema. El resultado varía en función de que la tarea se presenta en forma de juicio o de elección:
-
En forma de juicio, las personas evalúan todos los atributos presentados.
-
En forma de elección, las personas seleccionan la alternativa con el valor más alto en el atributo más importante.
-
Mediante teorías que contemplen aspectos subjetivos o más psicológicos de las personas: teoría de la perspectiva y del portafolio (representadas mediante funciones matemáticas lineales).
-
Describiendo directamente el comportamiento humano en esta tarea.
-
La revisión preliminar de las alternativas ofrecidas, lo que daría lugar a la representación más sencilla de las alternativas.
-
Codificación, en términos de ganancias y pérdidas, que estaría influida por la formulación del problema y por las expectativas de la persona.
-
Combinación de las probabilidades asociadas a resultados idénticos.
-
Segregación de los aspectos ciertos y de los que mantienen el riesgo.
-
Cancelación de los componentes compartidos por todas las alternativas.
-
Simplificación, redondeando o eliminando las alternativas poco probables.
-
La evaluación, que daría lugar a la elección de la alternativa con un valor más alto.
-
Una posición inicial, que sirve como punto de referencia.
-
La magnitud del cambio (positivo o negativo), desde el punto de referencia.
-
Las preferencias entre alternativas son función de 2 variables:
-
El valor esperado.
-
El riesgo percibido.
-
Cualquier persona tiene un nivel óptimo de tensión entre la presión (riesgo) que puede soportar y la ganancia que desea obtener. Para la mayoría de las personas, o cuando las consecuencias son muy importantes, existe un umbral de aceptación de la alternativa en función de la ganancia y del riesgo: Una alternativa, para ser aceptada, debe sobrepasar los dos umbrales (de ganancias y de riesgo).
-
Las personas construyen modelos simplificados de los problemas y se conducen de manera racional respecto a éstos modelos.
-
Al simplificar la tarea de elección, se sustituye el principio de maximización por el de satisfacción.
-
Se clasifican las alternativas como satisfactorias o no respecto a cada uno de los atributos más relevantes, seleccionando las alternativas que satisfacen su nivel de aspiración en éstos atributos.
-
Regla conjuntiva: Elimina cualquier alternativa que no sobrepase un valor criterio en alguna de las dimensiones.
-
Regla disyuntiva: Se selecciona cualquier alternativa que sobrepase un criterio en al menos una dimensión.
-
Regla lexicográfica: Se elige la alternativa superior en la dimensión más importante. Si dos alternativas tienen el mismo valor en la dimensión más importante, se considera la siguiente dimensión en importancia, igual que se ordenan las palabras en un diccionario.
-
Modelo de eliminación por aspectos:
-
Reglas compensatorias: una puntuación alta en una dimensión puede equilibrar una puntuación baja en otra.
-
Reglas no compensatorias: no permiten intercambios entre distintas dimensiones.
-
Intraalternativas: consideran todos los atributos de cada alternativa antes de analizar la siguiente.
-
Dimensionales: comparan el valor de todas las alternativas en cada una de las dimensiones.
-
La relación entre el coste de optimizar y el beneficio de simplificar el proceso, lo que daría lugar a una conducta subóptima en ciertas condiciones.
-
Procesos perceptuales, cuando la selección se hace de forma no deliberada.
-
Existencia de sistemas de producción mediante reglas “si …. entonces”.
-
Explícito y exhaustivo: determina las alternativas generadas y, finalmente, la elección.
-
Implícito: cuando la presentación del problema manipula el foco de atención de la representación del modelo mental explícito, se logra que se generen los modelos implícitos y que el sujeto considere las otras alternativas posibles.
-
Las personas se sienten satisfechas con sus decisiones porque no conocen el resultado de decisiones alternativas y por la tendencia a eliminar la disonancia cognitiva.
-
La decisión no es un proceso estático, sino que debe considerarse repetidamente a medida que surgen nuevos elementos o varían las condiciones, especialmente si las decisiones son muy relevantes.
-
El estado anímico modifica la decisión.
-
El hecho mismo de estudiar el proceso de decisión en laboratorio, o la observación en ambiente natural, influye en dicha decisión.
-
El acceso y recuperación en la memoria a largo plazo del problema análogo previo que pertenece al dominio familiar
-
la extrapolación de relaciones desde el dominio familiar al dominio objetivo, existiendo también como procesos colaterales la producción de reglas y representaciones más generales
-
Transferencia positiva: conduce a una solución correcta del problema
-
Transferencia negativa: conduce a soluciones erróneas
-
Un primer grupo que recoge toda la tradición psicométrica desde principios de siglo y en el que se estudia la analogía como razonamiento proporcional en el formato clásico A:B::C:D. Esto último ha ocupado un lugar destacado en el desarrollo de la investigación psicométrica al haber formado parte de la mayoría de las pruebas o tests de inteligencia. Sin embargo, estas teorías no describen los procesos ni los mecanismos subyacentes a este tipo de razonamiento.
-
El segundo grupo de teorías plantea el estudio de la analogía en situaciones semejantes a las de la vida diaria. Se distinguen en este grupo dos enfoques: el sintáctico y el pragmático. Ambos coinciden en la identificación de los procesos básicos de la transferencia analógica.:
-
Recuperación del análogo de la MLP. Es decir, el proceso por el que se produce el acceso, búsqueda, selección y recuperación de la información relevante.
-
Extrapolación o establecimiento de correspondencias entre dominios. Permite identificar los componentes funcionalmente análogos en ambos dominios del conocimientos.
-
Metacomponentes: procesos ejecutivos de orden superior empleados en la planificación, control y toma de decisión en la realización de la tarea. Stenberg distingue un total de 7 metacomponentes.
-
Los componentes de adquisición-retención: empleados en la realización de la tarea. En total son tres los componentes de actuación.
-
Componentes de actuación. En realidad, los trabajos experimentales de Stenberg se van a centrar en estos componentes. La analogía se concibe como una jerarquía de relaciones en la que se da una relación de equivalencia de orden superior (A-C) entre 2 relaciones de orden inferior (A-B)
-
Identificación de atributos (codificación). raducen a una representación interna (codificación) sobre la que se pueden realizar más operaciones. Aquí intervienen al menos dos subcomponentes:
-
Percepción inicial del estímulo (memoria de trabajo)
-
- El acceso a la MLP para poder interpretar el estímulo
-
Comparación de atributos (inferencia): Mediante el proceso de inferencia descubrimos una reglas x mediante la cual se relacionan los dos primeros términos de la analogia (A:B). Por ejemplo, deducir la relación entre “abogado” y “cliente” implica reconocer el hecho de que el cliente es la persona a la que el abogado presta sus servicios.
-
Extrapolación. La extrapolación enlaza el término A al C, descubriendo la “regla y” que es de orden superior y establece una relación entre relaciones. Por ejemplo, se utilizar para reconocer que el tópico de la analogía que relciona “abogado” con “doctor” es “prestadores de servicios”.
-
Aplicación de las inferencias a situaciones nuevas. Aplica la regla y a la regla x para generar el último término de la serie. Por ejemplo, por la aplicación se obtiene que un “paciente” recibe los ervicios de un “doctor” de la misma manera que un cliente recibe los servicios de un abogado.
-
Comparación. Las distintas opciones de respuesta se comparan con un nuevo concepto extrapolado con el fin de determinar qué opción se acerca más en su significado al concepto extrapolado. Por ejemplo, si el concepto extrapolado es “paciente”, la comparación sirve para determinar cuál de las dos opciones, “paciente enfermo” y “medicina”, tiene un significado más parecido a “paciente”.
-
Justificación. Se trata de un proceso opcional mediante el que la respuesta elegida se compara con el concepto ideal extrapolado para determinar si la opción de respuesta se parece lo suficiente al concepto como para justificar su selección como respuesta más correcta
-
Componentes de control. El último proceso es la respuesta, comunicándose mediante un acto visible.
-
El tiempo necesario de solución depende del tipo de analogía y el grado de complejidad del problema. La complejidad se define por el número de elementos y transformaciones que configuraban los términos del problema. Por tanto, el modelo debe adecuarse en función de la tarea.
-
Los sujetos que cometen más errores son también los sujetos más lentos.
-
Se ha mostrado que el proceso de codificación es el que consume más tiempo y correlaciona con el resto de procesos. En este sentido, cuanto más tiempo se emplee en la codificación de los términos, tanto más rápido será el procesamiento del resto del problema.
-
Los sujetos más inteligentes presentan mayor exactitud en los procesos iniciales de codificación y posterior comparación de atributos. En esta línea, el proceso de extrapolación es el proceso esencial que permite diferenciar los sujetos que fracasan de los que tienen éxito.
-
Existen muchos datos que apoyan el modelo componencial. Sin embargo, ha varias incógnitas sin resolver. Una de estas limitaciones es que el formato proporcional presenta una falta de direccionalidad. Es decir, el contexto impone una direccionalidad. Por ejemplo, cuando decimos que “el día es a la luz lo que la noche a la oscuridad”.
-
Otra de las limitaciones es que no especifica cómo se representan los atributos. Se asume, tan solo, que los términos se pueden almacenar en la memoria de trabajo como una lista de pares de valores de atributos.
-
Partir de la extrapolación de los conceptos-objetos del dominio fuente al dominio objetivo. Los dominios son sistemas en los que el conocimiento se divide en objeto y predicado (sintáctico) Por ejemplo, Sistema solar (sol-----planetas). Estructura del átomo ( núcleo----electrones)
-
Continuar con la extrapolación de los predicados teniendo en cuenta que los atributos de los objetos quedan fuera de esta extrapolación, mientras que sí se conservan las relaciones entre objetos. Los predicados pueden ser: atributos de los objetos (color , temperatura), relaciones entre ellos, Sistema solar (sol-----planetas).
-
Dar preferencia a las relaciones que formen un sistema coherente, de orden superior y no a los meros hechos aislados (principio de sistematicidad). Extrapolación selectiva que conserva los sistemas de relaciones relevantes)
-
Emparejamientos literales de la semejanza: correspondencia entre las descripciones de objetos y la estructura relacional.
-
Aceptación de analogías con solapamiento estructural y desecho de las analogías con gran solapamiento de atributos
-
Formación de reglas basadas en estructuras relacionales abstractas
-
No analiza los efectos de la experiencia anterior de los sujetos
-
a relevancia del material presentado en relación con el contexto de razonamiento en el que se desarrolla la analogía
-
Estado inicial: compuesto de varios subcompoentes (meta, recursos, operadores y restricciones)
-
Plan de solución
-
Resultados
-
Construcción de representaciones mentales. Consiste en construir representaciones del dominio análogo y del objetivo mediante su codificación (estado inicial, objetivo final, operadores relevantes y los limites). Este paso crucial para determinar el análogo fuente potencial y es el inicio de la categorización básica y de la búsqueda para lograr el objetivo
-
Selección del análogo relevante. Consiste en la selección del problema fuente como un análogo potencialmente relevante para el problema objetivo. Este paso es el primero en el uso de la analogía mediante dos procedimientos básicos:
-
La transformación del problema objetivo
-
Recuperación desde la memoria una situación relacionada
-
Extrapolación de relaciones de los componentes de la representación del dominio fuente al dominio objetivo Esto se realiza en dos fases:
-
Extrapolación parcial entre algunos de los componentes del estado inicial de ambos problemas (a nivel esquemático y abstracto.
-
Extrapolación de correspondencias entre los elementos que componen las metas, los recursos y los operadores
-
Generación de reglas de solución. Es la extensión de la extrapolación a la generación de reglas que se puedan aplicar al objetivo para el logro de una solución gracias a la transferencia de conocimiento al dominio objetivo para generar estas nuevas reglas
-
Inducción de nuevos esquemas representacionales. Si la analogía conduce a una solución correcta, se puede producir este proceso de inducción de un esquema a partir de unos análogos. Este proceso implica la abstracción de los aspectos comunes entre estados iniciales, planes de solución y resultados de los distintos análogos.
-
El principio que regula la semejanza entre los problemas (fuente y objetivo) es de naturaleza pragmática (las metas del sujeto)
-
Las características superficiales y estructurales intervienen en el proceso de recuperación y en el de extrapolación, aunque las superficiales inciden más en el proceso de recuperación
-
La meta es el criterio esencial para la selección de las características compartidas
-
La analogía se puede establecer a partir de los conceptos, de la estructura relacional y de los atributos de los objetos, teniendo presente el contexto
-
La solución de un problema es el aprendizaje de una regla general (esquema)
-
Papel que el concepto objeto juega en el dominio
-
Algún solapamiento de atributos entre objetos paralelos de ambos dominios
-
La información de atributos funcionalmente relevantes
-
Orientación de los fines
-
Identificación de los objetivos del dominio base
-
Realizar una transferencia relacional desde el dominio base. La orientación del objetivo determina la manera de identificar los objetos críticos y el atributo funcionalmente relevante (fra) de los objetos para proporcionar una orientación a la transferencia de predicados relacionales
-
Evaluación de fines u objetivos y subobjetivos
-
Elaboración de la respuesta más adecuada
-
Restricción de la memoria de trabajo. Incorpora los límites en la capacidad de información que se puede manejar cuando se razona y así se podrían explicar algunos de los fracasos que cometemos para extraer analogías correctas
-
Restricciones de control. El emparejamiento entre los 2 dominios y la transferencia se hacen de forma gradual, pudiendo variar la cantidad de elementos que son procesados. Se admite que la extrapolación se lleva a cabo mediante un modelo paso a paso
-
Restricción de la verificación comprueba si información transferida es apropiada para el nuevo dominio y en caso negativo abandona esa extrapolación para no realizar inferencias incorrectas a través del conocimiento previo almacenado en la MLP
-
Restricción de semejanza. En el emparejamiento se prefieren elementos idénticos o semánticamente semejantes frente a los desemejantes
-
Restricción pragmática. Se seleccionan aquellas partes del dominio base y del dominio objetivo que se interpretan como importantes para ser extrapoladas, en función de los objetivos o fines de los sujetos
-
Restricción estructural. Refuerza la idea del isomorfismo entre los dominios como la mejor relación estructural, desarrollándose una extrapolación uno a uno entre los 2 dominios aunque también pueden darse emparejamientos de diferentes tipos de relaciones entre esos dominios.
-
Identificación de los objetivos que se persiguen en la historia análoga y el problema. La consecución de uno impide la del otro, lo que conlleva a que se generen rasgos de bajo nivel.
-
Generación de 2 tipos de rasgos a través de la especificación, los objetivos y los objetos meta (actores, instrumentos, objetos) del TOP.
-
Los procesos de búsqueda tienden a emparejar los rasgos con los objetivos y los objetos, de manera que aquellos rasgos que tienen éxito en el encuentro constituyen los índices
-
Los procesos de búsqueda son relativamente inflexibles de manera que los rasgos de objetivos sólo pueden ser emparejados con objetivos idénticos o semánticamente parecidos, sucediendo lo mismo son los rasgos de los objetos.
-
La probabilidad de que una analogía sea recuperada está en función del número de índices encontrados (se ha hallado recuperación más fácil de los análogos literales)
-
Las restricciones pragmáticas son esenciales, dado que la analogía siempre esta dirigida a un objetivo y está poco explorado
-
La verificación merece mayor análisis. Los teóricos establecen correspondencias una a una entre ambos dominios, pero la realidad es que los problemas no se presentan generalmente como isomórficos
-
Modelo sintáctico. Los análogos se recuperan en función de las características superficiales compartidas
-
Modelo pragmático. Los análogos se recuperan en función de las características superficiales y estructurales
-
Para la hipótesis de las características superficiales y estructurales:
-
cuando ambos dominios puedan catalogarse como casos específicos de una estructura supraordenada
-
cuando el dominio base está organizado en memoria con relación a la misma estructura supraordenada
-
cuando la estrategia de recuperación que se requiere participa de la estructura conceptual de ambos dominios
-
Para la hipótesis de las claves superficiales:
-
cuando el problema objetivo no se puede catalogar como caso particular de una estructura supraordenada
-
cuando se desconoce total o parcialmente la naturaleza exacta de la semejanza existente entre los dominios
-
cuando la situación de la tarea exige la recuperación de algún tipo de conocimiento
-
Positiva. Aquella que conduce a una solución correcta del problema
-
Negativa. La que conduce a soluciones erróneas
-
superficial: los rasgos no son relevantes causalmente
-
estructural: los rasgos si son relevantes causalmente para la solución del objetivo
-
Fase 1. Se trata de una situación experimental sin pistas, en la que los sujetos, tras leer una historia previa, proceden a resolver el problema objetivo.
-
Fase 2. Con pistas para que se produzca la conexión entre el problema análogo previo y el análogo objetivo con el fin de que se produzca la analogía. La introducción de esta fase se debe al fracaso en el proceso de recuperación espontánea de la fase 1.
-
Antes de la pista (fase 1) no hay efectos de transferencia negativa, ya que no hay diferencias en cuanto a los porcentajes de recuperación.
-
Después de la pista (fase 2) sí hubo transferencia negativa pasando de un 39% al 63%.
-
que los textos pseudoanálogos que comparten elementos comunes al estado inicial del problema objetivo producen efecto de interferencia máximo
-
que los textos pseudoanálogos que contienen elementos relacionados con los objetivos del problema producen un efecto intermedio
-
que cuando la semejanza es solo superficial, su efecto es poco relevante
-
Cuando los dominios solo comparten rasgos estructurales es de esperar más transferencia espontánea positiva para los expertos que para los novatos cuando los dominios sólo comparten rasgos estructurales
-
Cuando los problemas comparten solamente rasgos superficiales (análogo distractor), la transferencia espontanea negativa será mayor para los novato
-
Se daba transferencia positiva para los expertos y no para los novatos
-
La transferencia negativa espontánea se observó en todos los niveles de experiencia, aunque menos acentuada en los expertos
-
Opacidad referencial: No comprometen con la verdad de enunciados sinónimos.
-
Intencionalidad: No comprometen con la verdad de los enunciados subordinados a los verbos intencionales.
-
No comprometen con la existencia de los objetos incluidos en cláusulas intencionales verdaderas
-
Sustitución de objetos (un caballo por una escoba).
-
Atribución ficticia de propiedades (la escoba relincha)
-
Simulación imaginaria de objetos
-
Paradigma simbólico clásico
-
Utilizan símbolos atómicos para denotar las entidades susceptibles de ser interpretadas semánticamente
-
Las entidades se manipulan por las reglas que definen el sistema
-
Enfoque próximo a la perspectiva que defiende el principio de estructuración del conocimiento, para explicar la categorización (aunque tb usa la semejanza y contempla el contexto)
-
Paradigma conexionista: modelos de satisfacción de restricciones.
-
Las entidades del modelo son patrones de activación sobre una serie de unidades del sistema
-
Las reglas se sustituyen por el emparejamiento de patrones de activación
-
Próximo a la perspectiva que asume el principio de semejanza en el emparejamiento de patrones, con un procesamiento guiado por los datos, y cuyas representaciones están próximas al enfoque de los ejemplares
Estos 3 planos o niveles, no surgen simultáneamente a lo largo del desarrollo de la comunicación:
El acto de habla más crucial y más debatido es el elocutivo.
Muchos lenguajes naturales poseen numerosos verbos o frases verbales para referirse a los actos elocutivos; Austin calculó la existencia de 1000 verbos de ésta clase, a los que denomina “verbos realizativos”.
Los distintos lenguajes pueden servirse de diferentes recursos (moldes prosódicos, recursos léxicos, sintácticos o morfológicos) para marcar la “fuerza ilocucionaria” de los enunciados, es decir, el tipo de intenciones que definen.
Sin embargo, es frecuente que en los usos cotidianos, no se empleen marcadores específicos de los actos ilocutivos, y que, la fuerza elocutiva sea inferida por los intérpretes del lenguaje, al relacionar emisiones y contextos. Además, puede producirse el fenómeno de in dirección (los indicadores superficiales de fuerza elocutiva, no coinciden con la intención subyacente a los actos del habla).
El lenguaje permite conjugar diversos planos intencionales en una misma emisión, graduando su fuerza elocutiva.
El potencial de indirección de todos los lenguajes naturales es, al mismo tiempo, un síntoma importante de su papel clave en la estrategia intencional de relación entre humanos, y un recurso importante para el cumplimiento, por parte del lenguaje, de complejas funciones sociales.
Los actos ilocucionarios pueden entenderse como las unidades mínimas de la comunicación lingüística.
Son proposiciones que están cualificadas en términos intencionales.
Esa cualificación viene definida por la fuerza ilocucionaria de las emisiones.
Tendrían la forma F(p), donde “F” toma la forma de los indicadores de la fuerza ilocutiva (en caso de ser explícitos y no inferidos), y “p” tiene la forma de la expresión que representa una o varias proposiciones.
Searle, ha analizado la naturaleza de los actos ilocucionarios, y ha establecido una taxonomía de ellos.
Los actos ilocucionarios se definen por un conjunto de condiciones y reglas que determinan su naturaleza:
Los criterios esenciales que pueden emplearse para definir diversas clases de actos ilocutivos son 3:
La dimensión de “dirección de ajuste” parece ser muy temprana en el desarrollo de la comunicación y, establece, por ejemplo, una distinción esencial entre las pautas protoimperativas y protodeclarativas, de los niños de alrededor de 1 año.
Taxonomía de los actos ilocucionarios de Searle:
EL PAPEL REGULADOR DEL LENGUAJE Y LA FORMACIÓN DE LA CONCIENCIA
Los verbos referidos a actos elocutivos y perlocutivos poseen la propiedad de poder decirse de forma refleja (podemos aseverarle algo a alguien, o aseverárnosla a nosotros mismos). Por tanto, las personas realizan actos ilocutivos y perlocutivos sobre sí mismas, actúan como si se “desdoblaran”, como si fueran a un tiempo sujetos y objetos de sus propias relaciones, agentes y receptores de actividades comunicativas.
Metafóricamente, podríamos decir que, en voz muy baja, las personas se dicen locuciones a sí mismas frecuentemente. Emplean para ello agentes que han dejado de ser externos, y que sólo son accesibles al “oído mental” de las personas que los producen, actuando sobre un contexto interno. Esto es lo que hacen cuando utilizan el lenguaje para pensar.
El lenguaje adquiere, a lo largo del desarrollo, una nueva función esencial: ser instrumento del pensamiento y del control metacognitivo.
Funciones cognitivas del lenguaje interior según Susana López Ornat:
Una nueva función, función de regulación, se sobrepone a sus funciones comunicativas y representacionales primeras.
La Escuela de Moscú (Vygotski y después Luria), destaca la contribución del lenguaje al proceso de formación de la acción voluntaria, que se relaciona con el poder regulador, que el propio lenguaje adquiere progresivamente.
El desarrollo de la función reguladora del lenguaje es gradual: cuando los adultos dan consignas verbales a los pequeños, éstos se dejan distraer fácilmente; A los 2 años y medio, las regulaciones verbales externas comienzan a tener cierta estabilidad, pero, sólo llegan a liberarse de la influencia de la experiencia inmediata a los 3-4 años.
El monólogo infantil, que terminará convirtiéndose en lenguaje interno, representa la fase en que el sujeto comienza a establecerse a sí mismo regulaciones verbales, que al principio son externas, y que, progresivamente se interiorizan, convirtiéndose en un instrumento esencial del pensamiento y de la acción voluntaria del hombre.
Al ámbito autocomunicativo en el que las personas nos relacionamos con nosotros mismos, se le llama “conciencia”.
Vygotski definía la conciencia como “contacto social con uno mismo”, y decía que la conciencia humana es de naturaleza semiótica.
El lenguaje, por tanto, no sólo sirve para representar la realidad y comunicarse con los demás, sino que tiene un papel constitutivo de la propia organización mental del hombre; no es sólo algo que los hombres hacen, sino algo que al hombre.
Desgraciadamente, las investigaciones sobre la naturaleza y desarrollo del lenguaje interno, son escasas, por 2 razones:
Pero, las investigaciones psicofisiológicas, han permitido obtener algunas indicaciones acerca del papel regulador y metacognitivo del lenguaje interno, en diversas actividades cognitivas (el uso del lenguaje interno se acompaña de cambios en EGM en los órganos de fonación. Estos registros covarían con aspectos como la dificultad de los problemas, su dominio por los sujetos, y su naturaleza más o menos lingüística).
Las concepciones más lúcidas sobre el desarrollo, la estructura, y la estructura del lenguaje interno, siguen siendo las propuestas pro Vygotski en “Pensamiento y lenguaje”.
Puntos esenciales de la posición de Vygotski:
Vygoski insistía en que el pensamiento se modifica completamente al hacerse lingüístico (sufre transformaciones ontogenéticas y microgenéticas).
Pero el lenguaje tb sufre transformaciones, de estructura y función, al hacerse pensamiento. A lo largo del desarrollo, el monólogo se sumerge, se interioriza y se convierte en lenguaje privado; Este proceso implica cambios esenciales en la estructura el lenguaje, que al ser lenguaje para uno mismo, se modifica en todos sus componentes:
¿Para qué nos hablamos a nosotros mismos?:
Al hacer explícito lo tácito, lo transformamos, lo sometemos a mecanismos racionales de categorización e inferencia, y lo convertimos en conciencia (Vygotski decía que cada palabra es un microcosmos de conciencia humana).
TEMA 4: LA PERCEPCIÓN DEL LENGUAJE
INTRODUCCIÓN
En su dimensión pública y observable, el lenguaje natural es un estímulo físico, compuesto por sonidos percibidos auditivamente (oral), o por trazos percibidos visualmente (escrito). En su dimensión privada, es una representación mental dotada de significado.
Propiedades del sistema humano de percepción del lenguaje:
Diferencias entre la percepción del lenguaje oral y escrito:
PRINCIPALES PROBLEMAS DE LA PERCEPCIÓN DEL HABLA
La percepción del habla es un proceso en el que, un patrón de variación de energía acústica, que incide en los órganos receptores de la audición, se transforma en una representación mental de la configuración estimular (fonemas o sonidos) que produce esa variación de energía.
Desde el punto de vista físico, el habla se define como una onda sonora de propiedades acústicas (frecuencia y amplitud) y temporales (duración). Estas propiedades son producto de los cambios o variaciones en la presión que se difunden en el espacio.
La tarea del sistema perceptivo es extraer de estas variaciones que se producen en la onda sonora, unas constancias perceptivas, que corresponden a los fonemas.
Mediante la espectrografía de sonidos, se puede obtener una representación visual del habla o espectrograma, que recoge la composición de frecuencias de la voz por unidades de tiempo.
Algunas secuencias de sonidos del habla, se descomponen en unas bandas de frecuencia o formantes, que constan de 2 partes: una parte curva o “transición del formante” (el valor de la frecuencia va modificándose progresivamente), y una parte recta o “parte estable del formante”.
Podría pensarse que la transición de los formantes corresponde a la consonante de la sílaba, y la parte estable a los formantes de la vocal. Por tanto, se diría que existe correspondencia entre las propiedades físicas de cada sonido y el resultado perceptivo.
Sin embargo, no es el caso, ya que los valores de transición del segundo formante, difieren notablemente de una sílaba a otra, aún cuando la consonante inicial sea la misma en ambos casos.
La percepción no es un proceso de “traducción directa” de propiedades o claves acústicas a representaciones fonémicas, es decir, cada fonema de la lengua no corresponde siempre al mismo conjunto de unidades acústicas.
Esta falta de correspondencia acústico-fonémica se manifiesta en 2 problemas distintos y relacionados:
Pese a ello, los oyentes somos capaces de descubrir constancias perceptivas e identificar eficazmente sonidos del habla (pej, nuestro sistema perceptivo identifica el mismo fonema /n/, aún cuando se encuentre en contextos acústicos diferentes: “Co/n/trario”, “co/n/ato” o “co/n/vocatoria”).
Estos 2 problemas tienen un mismo origen: las demandas “co-articulatorias” del habla.
Cuando pronunciamos una secuencia de fonemas, no articulamos cada fonema por separado, sino que ajustamos la posición de nuestros órganos articulatorios a las configuraciones que éstos han de adoptar, para producir los fonemas inmediatamente anterior y posterior (al articular el fonema /n/, la posición de la lengua es más extendida y plana en “co/n/trario”, algo más retraída y en contacto con los alveolos en “co/n/ato”, y se halla en reposo en “co/n/vocatoria”).
Es decir, los movimientos articulatorios, efectuados en fonemas sucesivos, se solapan en el tiempo, lo que origina diferencias acústicas en un mismo fonema en función del contexto acústico-articulatorio en que éste se localiza. Estas demandas coarticulatorias son tb responsables de que el habla humana se emita a una considerable velocidad (la tasa normal de emisión de fonemas por unidad de tiempo, superaría el poder de resolución del oído humano, si cada fonema estuviese realmente asociado a un conjunto de claves discretas y específicas).
Esto apoya la idea de que el sistema perceptivo para el habla no puede estar basado en correspondencias biunívocas entre las claves acústicas y las unidades fonémicas.
Otros problemas del sistema perceptivo para la descodificación del habla humana:
PROCESOS BÁSICOS DE LA PERCEPCIÓN DEL HABLA
ETAPAS EN LA PERCEPCIÓN DEL HABLA
Las etapas en las que se divide la percepción del habla, se apoyan en consideraciones más lingüísticas que psicológicas. Por eso, no se postularon inicialmente como estadios temporalmente discretos y funcionalmente autónomos, sino como una caracterización de las sucesivas transformaciones que sufre la información, desde que llega a los órganos receptores, hasta que se emplea en procesos superiores de acceso léxico y comprensión del lenguaje.
4 ETAPAS:
Descodificación preliminar de las señales en el sistema auditivo periférico.
2 tipos de mecanismos:
Objetivo: Extraer de la señal una serie de patrones espectrales y temporales, y almacenarlos en la memoria auditiva de breve duración (“memoria ecoica” Oido). (La memoria visual es la icónica)
De éste análisis, se obtienen una claves acústicas o propiedades, que se combinan para dar lugar a los fonemas.
Las claves acústicas que nos permiten identificar propiedades fonéticas son, en su mayoría, dependientes del contexto acústico. Pero, algunas claves, sí parecen estar relacionadas con rasgos fonéticos específicos (el “ruido fricativo” de algunas consonantes estridentes, /s/, /z/, o ciertas configuraciones asociadas al punto de articulación de las consonantes, relevantes para la distinción entre labiales /b/, alveolares /d/ y velares /g/).
Es el primer nivel en el que se efectúa un procesamiento propiamente lingüístico de la señal.
Objetivo: Identificar los segmentos o fonemas del habla.
Las claves acústicas se acoplan a los rasgos distintivos fonéticos, esto es, a las propiedades acústico-articulatorias en que se descomponen los fonemas de la lengua.
Los rasgos fonéticos son, por tanto, representaciones abstractas que sirven de mediadores entre los planos físico (acústico) y lingüístico (fonético).
En ésta etapa se descubren las constancias perceptivas que nos permiten identificar sonidos discretos, resolviéndose los problemas de segmentación y variabilidad.
Algunos, suponen la existencia de unos “detectores de rasgos” o mecanismos neurales especializados, en la identificación de rasgos fonéticos distintivos.
Los rasgos y segmentos identificados anteriormente, son convertidos en segmentos fonológicos, es decir, en representaciones abstractas de los sonidos que se someten a reglas combinatorias para formar unidades superiores (sílabas y palabras).
El resultado del análisis fonológico, es una secuencia lineal de fonemas organizados en una estructura jerárquica de constituyentes fonológicos. Esta organización jerárquica viene dada por la estructura de la sílaba: el “inicio” u onset (formado por una consonante o grupo consonántico inicial), y la “rima”, que se divide en “núcleo vocálico” y “coda” o terminación consonántica.
No hay acuerdo sobre la realidad psicológica de éstas etapas, ni sobre su curso temporal e interacciones:
Las “representaciones fonémicas” no se encuentran presentes en la señal del habla, sino que son suministradas por el propio perceptor, a partir de la información que posee en su memoria. Por eso, aunque los procesos de transformación acústico-fonética estén dirigidos inicialmente por propiedades de la señal (de abajo-arriba), tb dependen del uso de información “superior” (arriba-abajo).
En favor de ésta postura, resaltan las investigaciones sobre “percepción categorial” de segmentos fonéticos, y sobre los mecanismos de detección de rasgos.
LA PERCEPCIÓN DEL HABLA EN BEBÉS
Las investigaciones sobre la percepción del habla en bebés se han centrado en el estudio de categorización de continuos de habla.
Los estudios más conocidos son los de Eimas y cols., que empleaban el procedimiento de “succión de elevada amplitud” (aumentarla tasa de succión con la presentación de un estímulo nuevo, es decir, distinto).
Resultados:
Los bebés sólo respondían a modificaciones introducidas en el TEV (dimensión de variación o “tiempo de omisión de voz”), cuando éstas variaciones suponían un cambio de categoría fonética, es decir, cuando los valores de TEV de cada una de las sílabas del par caían a ambos lados del valor crítico de discriminación (+25msg).
Esta habilidad debe considerarse innata, es decir, el valor de TEV necesario para discriminar entre consonantes sonoras y sordas, de halla genéticamente programado.
Estudios recientes muestran que los bebés tienen una sensibilidad muy temprana, especialmente hacia los estímulos del habla que corresponden a la lengua que se habla en su comunidad.
Según Mehler, los bebés aprovechan, fundamentalmente, la información prosódica (acento y entonación) para efectuar la discriminación. Estos datos apoyan a las hipótesis innatistas del desarrollo del lenguaje, aunque podría haber un influjo precoz de la experiencia prenatal (difícil de calibrar).
MECANISMOS DE DETECCIÓN DE RASGOS FONÉMICOS (sonoro-sordo)
Algunos autores piensan que, en los procesos de acoplamiento acústico-fonémico, juegan un papel fundamental los “detectores de rasgos” que son sistemas especializados de detección de propiedades fonéticas a partir de la inspección de fragmentos de la señal del habla.
Según estas teorías, los detectores funcionan en paralelo y pueden solaparse unos con otros (figura 8.5, pg 335), lo que explicaría un mayor número de errores de identificación, con estímulos próximos a la frontera entre las categorías “sonoro-sordo”.
Miller y Nicely observaron que la probabilidad de cometer un error de identificación, era directamente proporcional al número de rasgos distintivos fonéticos compartidos por ambas sílabas (tendían a confundir consonantes que eran más semejantes en sus rasgos articulatorios). Concluyeron que el sistema de percepción del habla está organizado en canales especializados en la detección de rasgos fonéticos.
Otra prueba de la existencia de éstos detectores es el fenómeno de “adaptación selectiva”: desplazamiento, en uno u otro sentido, de la frontera entre categorías fonémicas (sonoro-sordo), por efecto de la exposición repetida al sujeto de un mismo estímulo (si a un sujeto se le presenta repetidamente la sílaba /ba/, al cabo de varias presentaciones se producirá fatiga del receptor de fonemas sonoros, y una sensibilidad reducida a éstos estímulos).
Algunos autores subrayan que la relación entre claves acústicas y representaciones es bastante indirecta, y que el proceso de acoplamiento acústico-fonético no es tanto un proceso de “acoplamiento” como de “integración”.
Según esto, puede haber claves acústicamente dispares que, en cambio, contribuyan de forma equivalente a producir un mismo efecto perceptivo: “Relaciones de intercambio” entre claves acústicas (Liberman):
Cada clave acústica no está directamente asociada a una representación fonética individual, sino que todas las claves disponibles, tienen que ser integradas de forma apropiada, para que surtan un determinado efecto perceptivo.
ESPECIFICIDAD DE LA PERCEPCIÓN CATEGORIAL
Respecto a la especificidad de dominio (aplicación exclusiva de los mecanismos de percepción categorial a estímulos de habla) de la percepción categorial, hay que resaltar 2 hechos:
¿Cómo interpretar éstos fenómenos?:
Datos relativos a la especificidad de especie (carácter exclusivamente humano de la percepción categorial, parecen avalar ésta última interpretación.
Kuhl y Miller, comprobaron que la percepción categorial de fonemas oclusivos a partir del TEV, no es exclusiva de la especie humana, sino que se manifiesta en otras especies animales (chinchillas).
Conclusión: La percepción categorial es una capacidad perceptiva no exclusiva de la especie humana, y por ello, basada en recursos no lingüísticos de procesamiento de información.
Ahora bien, si nuestros recursos de procesamiento del habla se apoyan en capacidades auditivas de carácter general, ¿cómo se realiza la integración de claves acústicas en la percepción de segmentos fonéticos discretos? La mera capacidad para discriminar claves acústicas, no equivale a la capacidad para identificar fonemas de la lengua. Hace falta algo más.
TEORÍAS ACERCA DE LA INTEGRACIÓN ACÚSTICO-FONÉTICA
TEORÍA MOTORA DE LA PERCEPCIÓN DEL HABLA (Liberman y cols)
La identificación fonética se efectúa mediante un sistema de procesamiento especializado en la percepción de sonidos de habla, distinto del sistema empleado en la percepción de los restantes estímulos auditivos, lo que determina un modo específico de procesamiento, llamado “modo de habla”.
Esta teoría postula como mecanismo básico de la percepción del habla el “análisis por síntesis” que comprende:
PRUEBAS A FAVOR de la teoría motora:
Experimento de Ladefoget y Broabdent: Las respuestas perceptivas de los sujetos al estímulo crítico (palabra fonéticamente ambigua que tenían que repetir), variaban en función de las propiedades acústicas de la emisión que antecedía a dicho estímulo, cuando ambos (la emisión introductoria y estímulo crítico) eran producidos por la misma voz.
El sistema perceptivo ajusta sus parámetros a las características acústicas de la fuente de emisión, modelando los gestos articulatorios de esa fuente.
Liberman diseño un experimento en el que aisló de forma artificial el 3º formante del espectrograma de una sílaba, separándolo del resto de la configuración espectral, presentando cada parte por separado a cada oído (presentación dicótica). Los oyentes informaban de 2 perceptos diferenciados.
Así pues, una única clave acústica (la transición del formante) daba lugar a 2 perceptos independientes y simultáneos: cuando la clave acústica aislada era integrada por otras claves acústicas, se formaba un percepto unitario (la sílaba /da/o /ga/); cuando no lo era, se percibía como un estimulo de no habla.
Liberman lo interpretó como un mecanismo de filtrado de la señal acústica, que inspecciona la señal para extraer de ella propiedades que puedan ser integradas en la estructura fonética. Cuando la transición del formante es percibida en el “modo de habla”, es aprovechada para identificar fonemas; cuando no lo es, es objeto de un análisis acústico en el sistema auditivo general.
TEORÍA AUDITIVA DE LA PERCEPCIÓN DEL HABLA
La percepción del habla no requiere ningún sistema especializado de procesamiento, sino que el habla se percibe por los mismos mecanismos que cualquier otro estímulo auditivo.
Los enfoques auditivos rechazan la idea de que la percepción del habla sea específica de dominio y de especie.
Se rechazan las explicaciones basadas en mecanismos de análisis por síntesis, a favor de mecanismos en general más analíticos.
Esto trae consigo 2 consecuencias:
Este acoplamiento tiene lugar en la etapa del análisis auditivo central.
La característica fundamental de las plantillas y de los difonos, es que contienen información sensible al contexto acústico en el que se producen, es decir, son dependientes del contexto.
Sin embargo, estas representaciones no corresponden a unidades fonémicas discretas (no existe en éste modelo ningún nivel de representación fonética), sino que del nivel acústico se accede directamente al léxico.
Al modelo de Klatt de reconocimiento de palabras se le conoce como “acceso al léxico a partir de espectros”.
LA PERCEPCIÓN DEL HABLA CONTINUA
A causa de la coarticulación, el habla se produce de forma continua.
La percepción del habla humana es un proceso activo cuyo funcionamiento viene determinado, no sólo por la información de la señal física, sino también por la información lingüística y extralingüística que el oyente tiene almacenada en su memoria.
El procesamiento de la señal acústica del habla no tiene por qué ser exhaustivo (no es preciso identificar cada uno de los segmentos fonéticos para acceder a otros niveles superiores de procesamiento, tales como el reconocimiento de palabras). Puede decirse que, al menos a partir de los niveles de análisis fonético y fonológico, se produce una interacción entre procesos de identificación de segmentos fonéticos a partir de claves acústicas por un lado, y procesos de acceso léxico a partir de representaciones fonológicas, por otro.
PRUEBAS DEL INFLUJO DE PROCESOS SUPERIORES DE RECONOCIMIENTO sobre mecanismos perceptivos elementales:
Este efecto desaparecía cuando el fonema ausente pertenecía a una pseudopalabra (“apismatura”).
La restauración tb se efectúa cdo el fragmento sustituido abarca más de un fonema (“le***latura”), e incluso se halla condicionada a los contextos sintáctico y semántico en que se encuentra la palabra crítica.
El efecto de la restauración se acomoda a una palabra semánticamente congruente con el contexto oracional inmediato.
Este efecto se registra consistentemente con la tarea de “seguimiento”, en la que el oyente recibe un mensaje verbal por vía auditiva y tiene que repetirlo en voz alta de forma simultánea a su recepción, y a la mayor brevedad posible.
En determinadas circunstancias, el mensaje no atendido, puede provocar interferencias en la tarea de seguimiento, cunado comparte ciertas características con el mensaje atendido.
CONCLUSIONES:
TEMA 5: RECONOCIMIENTO Y COMPRENSIÓN DE PALABRAS
REFLEXIONES SOBRE LA NOCIÓN DE COMPRENSIÓN
La noción de comprensión es un concepto polisémico.
Resulta difícil asignarle un estatuto psicológico claro:
Comprender el lenguaje es un proceso complejo, integrado por multitud de subprocesos más sencillos que, en muchos aspectos, difieren notablemente unos de otros.
DIFERENCIAS Y SEMEJANZAS ENTRE LA COMPRENSIÓN DE PALABRAS Y LA DE ORACIONES
Estos procesos combinatorios son tanto sintácticos como semánticos.
La identificación de palabras derivadas o compuestas exige, de forma similar a la comprensión de oraciones, el empleo de procesos combinatorios además de los de acoplamiento con representaciones almacenadas en la memoria.
Naturaleza de las representaciones empleadas en las tareas:
Naturaleza de los procesos combinatorios empleados:
La comprensión de palabras se basa fundamentalmente en procesos de carácter paradigmático (unidades o formas lingüísticas presentes en el enunciado, se asocian a representaciones ausentes en el mismo), mientras que la comprensión de las oraciones, se basa en procesos de carácter sintagmático (combinan o asocian entre sí elementos lingüísticos pertenecientes todos ellos al enunciado).
Los procesos de comprensión de oraciones operan con las representaciones de salida de los procesos de identificación de palabras, por lo que se sitúan en un plano jerárquicamente superior a éstos.
Esto no impide que, dadas ciertas condiciones, ambos procesos puedan trabajar en paralelo o interactivamente.
SEMEJANZAS:
La distinción entre estos 2 niveles queda de manifiesto en el hecho evidente de que:
REPRESENTACIONES Y PROCESOS EN LA COMPRENSIÓN DE PALABRAS
El proceso de identificación de palabras procede con notable rapidez, y, en consecuencia, con escaso margen para tomar decisiones conscientes.
Sin embargo, es un proceso complejo en el que intervienen muchos tipos de información:
El proceso de identificación de palabras se puede definir como un proceso de “activación” de conocimientos almacenados en un supuesto “diccionario mental” o memoria de palabras, a partir de una entrada sensorial dotada de ciertas características.
NATURALEZA DE LAS REPRESENTACIONES LÉXICAS ALMACENADAS EN LA MEMORIA
El conocimiento que se posee acerca de las palabras se puede caracterizar como una lista o red de “entradas léxicas”, cada una con ciertas propiedades.
Metafóricamente, se puede comparar con un diccionario al que se le ha añadido alguna información suplementaria.
Cada entrada léxica (pe: “reprimir”) posee los siguientes elementos:
PROCESAMIENTO LÉXICO: Conjunto de procesos mediante los cuales el oyente reconoce la forma de las palabras que percibe, comprende su significado y accede a otras propiedades, almacenadas en su diccionario mental.
REPRESENTACIÓN LÉXICA: Estructuras de información a las que el oyente o lector accede a la hora de reconocer y comprender palabras.
2 cuestiones relevantes de la representación de palabras en el léxico interno:
3 teorías:
2 hipótesis alternativas:
Para reconocer palabras derivadas es preciso efectuar la descomposición de la palabra en sus constituyentes morfológicos.
Según algunos, la segmentación o descomposición de la palabra se realiza antes del reconocimiento; para otros, acontece después.
Propuestas que intentan conciliar ambas hipótesis:
Una distinción útil:
Kiparsky distingue entre:
El símil entre el léxico mental y un diccionario de la lengua, resulta inadecuado en algunos aspectos:
¿Cómo se hacen accesibles los 6 componentes de información de nuestro diccionario mental?:
Según estos modelos, la primera etapa tiene un carácter autónomo, mientras que la segunda admite interacciones más o menos restringidas con información supraléxica.
El reconocimiento de la forma de la palabra es un proceso guiado por la señal (“de abajo a arriba”), sin interacción o influjo de orden superior; La influencia de “arriba-abajo” sólo se produce una vez que la representación fonológica u ortográfica, ha sido recuperada.
Es un modelo interactivo o de “acceso directo”, en el que toda información potencialmente relevante, puede ejercer su influjo desde los primeros instantes del procesamiento.
EL PROBLEMA DEL CÓDIGO DE ACCESO Y LOS PROCESOS DE SEGMENTACIÓN
¿Cuál es la representación que pone en marcha los procesos de reconocimiento? ó ¿Cuál es la llave que nos abre las puertas al diccionario mental?:
Desde el punto de vista de la percepción podría decirse que la representación que da inicio a los procesos de reconocimiento léxico, corresponden a la unidad lingüística mínima, a partir de la cual se dan constancias perceptivas fiables (desaparece la ausencia de invarianza perceptiva).
Esta representación o “código de acceso”, no tiene por qué ser la palabra entera, aunque es probable, al menos en el caso del lenguaje hablado, ha de ser algo más que la unidad mínima de representación lingüística (fonema).
La mayor parte de los investigadores afirman que, el acceso al léxico mental, está guiado por la porción inicial de la palabra, que se supone portadora de la información más relevante: las palabras habladas se reconocen en tiempos más cortos de lo que dura su emisión, y, los errores fonéticos se detectan más fácilmente, cuando afectan a la porción inicial de la palabra (“serveza” que “cervesa”).
Sin embargo, no se puede pasar por alto el concurso de otros factores.
3 HIPÓTESIS sobre la identidad del código de acceso al léxico:
Unidades fonémicas individuales, la sílaba inicial, la “sílaba ortográfica”, la porción acentuada de la palabra o la rima.
Algunos consideran la porción inicial de la palabra (primeros 150 msg), aunque no cabe hablar de una unidad fija lingüísticamente definida que sirva como representación de acceso, sino que cada palabra presenta un “punto óptimo de reconocimiento” o “punto de unicidad”, a partir del cual se reducen los posibles candidatos a entrada léxica (a medida que se añade información de entrada, se van reduciendo los candidatos hasta llegar al “punto óptimo”).
En estos modelos, el problema de la ausencia de invarianza se desplaza hasta el nivel léxico de procesamiento.
Los modelos que postulan un código de acceso, explican su obtención en virtud de un PROCESO DE “SEGMENTACIÓN” o fragmentación de la entrada sensorial, en unidades lingüísticas discretas.
Experimentos de detección de sonidos y sílabas en modalidad auditiva (Mehler): Efecto de silabificación: el tiempo invertido en detectar una secuencia CV (#pa#), perteneciente a una palabra, era significativamente menor, si la secuencia constituía una sílaba de la palabra de la que formaba parte (“palace”), que si no era sí (“palmier”).
Este efecto desapareció al emplear sujetos anglosajones, independientemente del idioma en que fueran presentados los estímulos → El tipo de código empleado en el acceso al léxico, no sigue pautas universales o translingüísticas, sino que depende de las características idiosincráticas del sistema fonológico de la lengua materna de los oyentes (las lenguas con una estructura silábica irregular y mas ambigua (inglés) ignoran éste tipo de unidad lingüística).
En cuanto al reconocimiento visual de palabras, se ha postulado como código una unidad equivalente a la sílaba fonológica (#mo#ne#da), la “sílaba ortográfica” (#mon#ed#a#).
En los primeros estudios, llevados a cabo en inglés, la fragmentación basada en la sílaba ortográfica, daba tiempos de reconocimiento menores que la basada en la sílaba fonológica. Sin embargo, estos datos no han podido ser replicados en lenguas de silabificación regular (francés y castellano), en los que se pone de manifiesto la superioridad de la sílaba fonológica.
A pesar de las discrepancias, existe un acuerdo general acerca de las OPERACIONES que requiere la tarea de reconocimiento de palabras:
Recepción de la onda sonora del habla y transformación en representaciones que sean susceptibles de ser acopladas a representaciones internas de las entradas léxicas.
El contacto léxico inicial no implica, salvo en contadas ocasiones, una correspondencia biunívoca entre la representación de entrada y la entrada léxica, sino que cada representación de acceso suele activar un conjunto de de posibles candidatos léxicos denominado “cohorte inicial de palabras” (#ple# activaría inicialmente “pleno”, “pleura”, “pleito”, etc.).
A consecuencia del contacto léxico inicial, se producen cambios de activación o excitación, en el estado de las entradas léxicas que guardan correspondencia, con la representación derivada del análisis inicial de la entrada sensorial.
Implica una operación inversa a la de activación. Produce un progresivo abandono de los candidatos, hasta que el sistema solo retiene a uno, que es finalmente, la entrada léxica reconocida por el sujeto.
Esta operación es descrita de # maneras:
Resultado final de los procesos anteriores, en el que la palabra es identificada inequívocamente.
Varios factores determinan el reconocimiento:
Un modelo conexionista probabilístico como el modelo interactivo, que admite variaciones continuas en la activación de las representaciones, y equipara reconocimiento y acceso léxico, es posible que el sistema no disponga aún de toda la información asociada a la entrada léxica recuperada.
Los modelos autónomos, por su parte, establecen una drástica distinción entre reconocimiento y acceso léxico, y afirman que el reconocimiento es completo cuando el sistema establece una correspondencia fiable entre la señal estimular y su correspondiente entrada léxica. Todo proceso posterior (de recuperación de información sintáctica, semántica y pragmática), deberá ser considerado “post-léxico” y excluido de las operaciones de reconocimiento.
Las propiedades de las representaciones léxicas almacenadas a las que aún no se ha accedido, se hacen disponibles al sistema de comprensión del lenguaje, para su uso posterior.
En los modelos autónomos o de 2 etapas, la información post-léxica se hace disponible, una vez que las palabras han sido reconocidas a través de sus propiedades formales.
En los modelos interactivos o de una sola etapa, ésta información se activa simultáneamente a la descripción formal de la entrada léxica, tan pronto como se produce el contacto léxico inicial (el acceso a las propiedades semánticas y pragmáticas, puede producirse antes de que el sujeto haya identificado la palabra).
MÉTODOS DE ESTUDIO DE LA COMPRENSIÓN DE PALABRAS Y DESCRIPCIÓN DE LOS PRINCIPALES EFECTOS ENCONTRADOS
El reconocimiento de palabras es una actividad difícilmente observable, por lo que hay que diseñar procedimientos indirectos.
Casi todos estos procedimientos, se basan en la observación y registro del tiempo invertido en tareas de identificación lingüística, que casi siempre exigen una respuesta acelerada o bajo presión de tiempo.
Se supone que el tiempo invertido en realizar esas tareas, muestra el grado de complejidad de los procesos que las subyacen.
2 tipos de tareas:
PROCEDIMIENTO DE MEDICIÓN DEL TIEMPO DE RECONOCIMIENTO LÉXICO
PROCEDIMEINTOS DE MEDICIÓN FUERA DE CURSO O SUCESIVOS (OFF-LINE):
Figuran todos los que exigen al sujeto perceptor, producir una respuesta motora consciente, ante un determinado estímulo.
Inconveniente: facilita la intervención de estrategias postperceptivas de adivinación o reconstrucción del estímulo.
Se supone que, para realizar la tarea, el sujeto tiene que consultar su léxico mental, y decidir si el estímulo se halla representado en su léxico interno.
Para hacer una estimación adecuada del tiempo de reconocimiento, hay que restar el tiempo invertido en la preparación de la respuesta motora y su ejecución (alrededor de 550 msg).
Inconveniente: La tarea no ha logrado erradicar completamente la presencia de efectos post-léxicos en la respuesta del sujeto, al tratarse de una tarea de tipo “decisional”.
Esto pretende el PROCEDIMIENTO DE DENOMINACIÓN, que consiste en pronunciar en voz alta, lo más rápido posible, un estímulo verbal presentado visualmente. Se utiliza un sensor de voz o “llave vocal” conectado al medidor de TR.
Supuesto básico: El tiempo necesario para pronunciar el estímulo viene determinado por la disponibilidad de las representaciones léxicas que corresponden a la entrada sensorial, por lo que cabe esperar una ventaja de las palabras sobre las no-palabras.
PROCEDIMIENTOS EN CURSO O SOBRE LA MARCHA (ON LINE)
El tiempo de detección se interpreta como el trabajo cognitivo que el sistema está realizando, en el momento de detectar el estímulo.
A menudo, se emplea en combinación con tareas de reconocimiento de palabras, de forma aislada o en contexto.
La detección de sílabas se ha utilizado bastante en estudios sobre la naturaleza de las representaciones de acceso al léxico, y la detección de fonemas en experimentos sobre reconocimiento de palabras ambiguas en contexto.
OTROS PROCEDIMIENTOS
Objetivo: Destacar los determinantes prosódicos del reconocimiento léxico en la modalidad auditiva, y con ello, la dependencia contextual que guía la identificación de apalabras habladas, en contraste con lo que sucede en el reconocimiento visual de palabras.
El mayor atractivo es la mínima demanda de decisiones conscientes, lo que exige su mayor cercanía a las condiciones naturales.
Inconveniente: Dificultad de discriminar aspectos de los movimientos y de las fijaciones atribuibles a cada una de las innumerables variables que influyen en ésta respuesta.
EFECTOS EXPERIMENTALES REGISTRADOS EN LA INVESTIGACIÓN
Las palabras más familiares o de uso más frecuente, tienden a ser reconocidas con mayor rapidez.
Este efecto se mantiene relativamente constante a través de # tareas. Así, las palabras de menor frecuencia de uso, no sólo presentan mayor latencia de decisión léxica, sino que tb tardan más en ser nombradas.
La magnitud del efecto es menor sobre la tarea de denominación que sobre la de decisión léxica.
Polémica en cuanto al efecto diferencial de la frecuencia de uso en los vocabularios de clase abierta (nombres, adjetivos, verbos) y de clase cerrada (artículos, preposiciones, conjunciones).
Bradley: el efecto sólo afecta a elementos léxicos de clase abierta → Hipótesis de que existen mecanismos independientes de acceso a éstas 2 clases de vocabulario:
Una prueba: Los pacientes agramáticos (con alteración selectiva del procesamiento sintáctico), no muestran esa sensibilidad diferencial, siendo ambos tipos de vocabulario, sensibles a la frecuencia de uso.
Esto no ha podido ser replicado en estudios posteriores.
El tiempo que se tarda en aceptar cierto estímulo como palabra, es inferior al invertido en rechazar estímulos como no-palabras, incluso si recomparan palabras infrecuentes con no-palabras.
Esto ha sido demostrado con tareas de decisión léxica.
Un fenómeno derivado es el “efecto de interferencia”: Aumento de la latencia de respuesta a no-palabras cuya porción inicial es una palabra real (“camaler” o “pipaña”).
Esto se explica en virtud del sesgo de respuesta inducido por la presencia, en la no-palabra, de un elemento léxico que induce a crear una “falsa alarma”.
La presentación de ciertos estímulos léxicos con anterioridad a una palabra crítica, puede facilitar (o dificultar) su reconocimiento, siempre y cuando tengan algún tipo de relación con ella. A tales estímulos se les llama “primes”.
Ej: “Es importante cepillarse los dientes cada…”, ejercerá efectos excitatorios sobre ”noche”, “mañana”, “día”, e inhibitorios sobre “año”.
Explicaciones divergentes:
La ambigüedad es una característica bastante habitual de los mensajes verbales, aunque apenas llegamos a tomar conciencia, gracias a nuestra habilidad para hacer uso provechoso de la información extralingüística.
Expresión ambigua o polisémica: Una única representación estructural o formal, y más de una representación de significado (“banco”).
En la mayoría de las ocasiones, disponemos de información del contexto que inmediatamente nos permite determinar, cual de los significados es el apropiado.
¿De qué modo influye el contexto en la “desambiguación”?:
Pruebas a favor de la hipótesis de acceso selectivo guiado por el contexto:
Los sujetos no suelen detectar una ambigüedad léxica cuando ésta se halla inserta en un contexto, o cuando el significado apropiado de la palabra ambigua es el más frecuentemente utilizado.
Meyer y Becker hallaron que la latencia de decisión ante una palabra crítica (“dinero”) se reducía cuando esa palabra iba precedida, en la lista, de un vocablo ambiguo (“banco”), que había sido primado de acuerdo con un significado relacionado con la palabra crítica.
Para los partidarios del modelo de acceso múltiple, los datos sobre dasambiguación no son satisfactorios, por estar basados en procedimientos fuera de curso (off line), por lo que no pueden revelar lo que acontece durante el proceso de reconocimiento.
Estudio de Foss y Jenkins: Utilizando tareas en curso como la detección de fonemas, observaron que cuando el fonema crítico seguía inmediatamente a una palabra polisémica, la latencia de detección aumentaba sensiblemente, con respecto a una condición de control con palabras no ambiguas.
Swinney: Experimentos de priming transmodal (combina la presentación visual y auditiva de los estímulos, empleando tareas de decisión léxica y denominación.
Resultados:
MODELOS DE RECONOCIMIENTO DE PALABRAS
MODELOS INTERACTIVOS DE PROCESAMIENTO LÉXICO
MODELO DEL LOGOGÉN (MORTON)
Cada palabra se halla representada en el léxico mental por medio de un “logogén”: dispositivo de detección sensible a ciertos tipos de información, que registra pasivamente las características relevantes de cada pieza léxica.
A medida que un logogén recibe información, su nivel de activación aumenta hasta alcanzar un determinado umbral, o nivel óptimo de activación, momento en el cual el logogén se dispara y la palabra es reconocida.
Los sistemas de logogenes, reciben información de 2 fuentes:
En su primera formulación, el sistema sólo disponía de un sistema de logogenes, común para la identificación de palabras orales y escritas.
Posteriormente, se postulan 2 sistemas independientes de reconocimiento léxico: uno de logogenes visuales de entrada (input ortográfico), y otro de logogenes auditivos de entrada (input fonológico).
A ellos se les añadieron 2 sistemas de logogenes de salida, responsables de la producción oral y escrita de palabras.
Debido a ésta estricta separación entre los sistemas de logogenes visual y auditivo de entrada, no se permiten influencias mutuas en el reconocimiento; Por tanto, el modelo postula 2 rutas independientes de acceso al léxico. Este ha sido uno de los aspectos más criticados, a la vista de ciertas pruebas que indican interferencias fonológicas sobre el procesamiento visual de palabras.
Este modelo, impide la postulación de una representación fija de acceso, sino que varios logogenes van acumulando activación simultáneamente y en paralelo, hasta que uno alcanza el umbral de disparo (no se trata de un proceso ordenado de registro, búsqueda y comparación).
Las palabras de mayor frecuencia de uso son las que llevan ventaja, por presentar umbrales de activación más bajos.
MODELO TRACE DE RECONOCIMIENTO DE PALABRAS (ELMAN Y McCLELLAND)
Descendientes indirectos del modelo logogén.
Son los modelos conexionistas o de activación interactiva.
Consta de una red de nodos que representan rasgos acústicos, fonemas y palabras.
Las unidades de representación de la red, presentan un nivel de activación que puede ser modificado, por la activación que se propaga desde los nodos con los que están conectados.
La palabra que, en virtud de las conexiones excitatorias e inhibitorias, obtenga mayor activación diferencial, será la reconocida por el sujeto.
Una característica del modelo: Su carácter incremental y progresivo, es decir, el patrón de activación se va consolidando a medida que se recibe información estimular. Esto supone que, en un principio, la activación es mayor en los niveles inferiores del sistemas (rasgos y fonemas), por lo que los nodos de palabra no empiezan a activarse (y a enviar activación descendente), hasta haber recibido una proporción sustancial de activación de los nodos de fonemas.
Esto explica, pe, que los efectos léxicos sobre el reconocimiento de fonemas, sean mayores hacia el final de la palabra que al principio de la misma.
Tb explica ciertos efectos excitatorios del contexto previo: si un nodo de palabra ha sido activado previamente en la oración, y no ha alcanzado aun su nivel de reposo, necesitará menor activación para ser reconocida posteriormente.
La noción de peso se utiliza en éstos modelos para dar cuenta del efecto de frecuencia, siendo las palabras más frecuentes aquellas que presentan una configuración de conexiones con pesos más elevados entre los nodos de rasgos, fonemas y palabras.
El priming de repetición produce efectos facilitadotes o excitatorios, un priming fonológico (con palabras semejantes pero no idénticas a la palabra crítica, “pantera-palmera”) origina efectos inhibitorios (produce mayores latencias de decisión léxica).
Existen distintas versiones de los modelos conexionistas. No todos postulan conexiones inhibitorias intranivel, ni tampoco todos ellos atribuyen un carácter “simbólico” a las unidades representacionales (o nodos) del sistema.
Aún así, todos los modelos de activación interactiva, así como su antecesor (logogén), son modelos de acceso directo, por lo que rechazan las representaciones discretas de acceso al léxico, y admiten la idea de que el contexto extraléxico (sintáctico y semántico) puede interferir en los procesos de reconocimiento.
MODELOS AUTÓNOMOS DE COMPRENSIÓN DE PALABRAS
MODELO DE BÚSQUEDA (FORSTER)
Las operaciones de identificación léxica están organizadas en 2 ETAPAS:
Corresponde a los procesos de recuperación de la forma.
Se efectúa una comparación de la representación perceptiva del estimulo, con su correspondiente representación fonológica u ortográfica.
Este proceso tiene lugar en un archivo o almacén periférico, que contiene una lista de entradas léxicas, ordenadas de mayor a menor frecuencia, con una especificación de la estructura fonológica u ortográfica de cada palabra, más los códigos de acceso.
Existen 3 archivos periféricos:
El proceso de comparación se realiza mediante una búsqueda serial y exhaustiva de la entrada léxica (# de paralelo o simultáneo), en los archivos periféricos.
Una vez localizada se pasa a la segunda etapa.
Corresponde a los procesos de recuperación del significado.
Archivo central o principal, donde están representadas las propiedades sintácticas y semánticas de las palabras.
En ésta etapa tb se realizan las “comprobaciones post-acceso”: revisión y confirmación de la selección de entrada léxica, y puesta a disposición de los procesos subsiguientes de comprensión lingüística.
Desde un punto de vista computacional, el mecanismo de búsqueda presenta la ventaja de que no requiere precisar la localización exacta de las entradas léxicas, sino sólo su localización aproximada o relativa.
El mecanismo de búsqueda permite dar cuenta de los efectos experimentales reseñados:
Pero, éste procedimiento de búsqueda a través de todo el archivo, resultaría poco económico e ignorancia a información que proporciona la entrada sensorial, en el proceso de reconocimiento. Para evitarlo, las entradas léxicas de los archivos periféricos están organizadas en compartimentos (bins) en función de sus características perceptivas.
En cada compartimento estarían agrupadas, por orden de frecuencia, todas las entradas léxicas que compartieran el mismo código de acceso.
MODELOS MIXTOS DE COMPRENSIÓN DE PALABRAS
MODELO DE COHORTE (MARSLEN-WILSON)
Representa una tercera vía entre los modelos de activación y de búsqueda.
Postula 2 etapas ordenadas secuencialmente:
Uno de los factores determinantes del proceso de reconocimiento, es el “punto de unicidad” o “punto óptimo de reconocimiento”, a partir del cual, el candidato léxico elegido es discriminando definitivamente de los restantes candidatos de la cohorte inicial.
Este punto, define la duración máxima de la etapa acústico-fonética (se reduce cuando la palabra se halla en un contexto oracional, y aprovecha los factores contextuales).
Marslen-Wilson, en estudios de seguimiento, observó que el proceso de reconocimiento de palabras habladas en contexto, discurre con latencias extraordinariamente breves (300 msg)
La unidad que sirve de código de acceso a la palabra, es muy variable en éste modelo, ya que, la cantidad de información perceptiva necesaria para establecer el contacto léxico inicial depende de la información supraléxica disponible, en cada caso.
El modelo presenta 2 inconvenientes:
También en éste caso, la noción de activación permitiría la preselección, dentro de la cohorte inicial de elementos que guardan entre sí una semejanza acústica global.
ALGUNAS REFLEXIONES SOBRE LA AUTONOMÍA DEL PROCESAMIENTO LÉXICO
Este tipo de influencias extralinguisticas, sigue siendo un misterio.
TEMA 6: LA COMPRENSIÓN DE ORACIONES
CUESTIONES PRELIMINARES
El acceso al significado de las palabras que integran las oraciones, es condición necesaria pero no suficiente, para comprender su significado.
(En “El niño regaba las plantas”, una vez identificado el sentido de las palabras “niño”, “regaba” y “plantas”, es preciso determinar quién regaba y qué era regado).
Se trata de, elaborar una representación mental del contenido proposicional de los mensajes, una representación que especifique los predicados (acciones, sucesos, y relaciones descritos por la oración), y los argumentos o papeles que desempeñan los conceptos o entidades que participan en tales acciones o sucesos.
En algunos casos, estos papeles se pueden asignar, atendiendo simplemente a las propiedades semánticas de las palabras que forman el mensaje.
Sin embargo, la estrategia de combinación, a partir de correspondencias semánticas, plantea varias complicaciones. En muchos casos, resulta inoperante, pues, a veces, es posible asignar diferentes representaciones semánticas (significados) a una misma configuración de conceptos (En “El policía sorprendió al ladrón con la pistola”, la “pistola” puede estar igualmente en poder del ladrón o de la policía).
Por eso, para comprender una oración es necesario emplear conocimientos y estrategias que van más allá de la mera combinación de significados léxicos individuales. Es necesario tb analizar la estructura de los mensajes, es decir, su sintaxis.
El componente sintáctico del lenguaje es un código formal (independiente del contenido de las unidades o símbolos que maneja) de combinación de unidades lingüísticas, necesario para derivar el significado de los mensajes verbales → Los procesos de análisis sintáctico son mecanismos cognitivos que median entre la recuperación del significado léxico, y la interpretación del significado oracional.
Estos mecanismos, son en su mayoría inconscientes, y operan de forma automática y muchas veces predictiva, lo que a veces puede inducir a error.
Pe, en la oración “A Pedro le secuestró un gangster su novia”, cuando el sistema de comprensión “cree” descubrir una expresión estructural y semánticamente completa (“A Pedro le secuestró un gangster”), tiende a dar por terminada e interpretada la oración. Pero, al recibir el fragmento siguiente (el SN “su novia”), se ve obligado a revisar su interpretación inicial y a elaborar una nueva.
Este tipo de oraciones se llaman “de vía muerta” (inducen al lector a optar inicialmente por un camino erróneo), resultan extremadamente útiles en el estudio empírico del análisis sintáctico.
En resumen, los procesos semánticos de asignación de argumentos o papeles temáticos a las entidades de la oración, mantienen una dependencia directa respecto a los procesos de análisis de la estructura.
El significado de los mensajes verbales, no se agota en su representación semántico o contenido proposicional, sino que incluye tb un componente pragmático o comunicativo, relativo al intercambio de intenciones entre los interlocutores → “Fuerza ilocutiva” del enunciado lingüístico, es decir, la capacidad del lenguaje para expresar y trasmitir, más allá del contenido inmediato y explícito, las creencias, actitudes y expectativas del hablante hacia su interlocutor.
La fuerza locutiva, también ha de ser objeto de interpretación por parte del sujeto que comprende, y requiere por ello, una explicación psicológica.
Así, en ciertos casos (enunciado interrogativos “¿Tiene usted hora?”, o en imperativos), las oraciones carecen de valor de verdad, y en otros casos (lenguaje irónico o metafórico “El tiempo vuela”), no se puede interpretar su auténtico sentido sin tener en cuenta el contexto conversacional o interpersonal que les rodea.
Por tanto, no cabe hablar tanto de verdad o falsedad del mensaje, sino más bien de su “adecuación” o “relevancia”, dentro de un contexto dado.
Los mensajes, tienen 2 significados distintos:
Para que la comprensión se efectiva, es necesario que hablante y oyente compartan, además de un código lingüístico común (gramática), una serie de conocimientos extralingüísticos relativos al discurso, a la situación y a los estados mentales del interlocutor.
La investigación psicolingüística de los aspectos pragmáticos del lenguaje se ha centrado en los estudios sobre conversación.
COMPONENTES DEL PROCESAMIENTO DE ORACIONES
La comprensión de las oraciones se compone de 2 PROCESOS:
Esta distinción no es unánimemente aceptada, ya que da pie a defender que el análisis sintáctico es un proceso autónomo, con respecto a la interpretación semántica (pe, la “teoría de la dependencia conceptual” de Schank, rechaza explícitamente el uso del conocimiento sintáctico en la comprensión; otros modelos, como el de Marslen-Wilson, sin llegar a prescindir por completo de la sintaxis, destacan el influjo que ciertas propiedades semánticas del enunciado, ejercen sobre los procesos de análisis sintáctico, hasta el punto de condicionar decisiones que el analizador sintáctico toma).
PRINCIPALES COMPONENTES DE PROCESAMIENTO EN LA COMPRENSIÓN DE LA ORACIÓN
“Sintagma”: Constituyente lingüístico que representa el grado máximo de proyección de un núcleo. Así, cuando el núcleo sea un nombre tendremos un SN, cuando sea un adjetivo, un SA, cuando sea una preposición, un SP, y cuando sea un verbo, un SV.
“Cláusula”: En principio se le puede considerar como una unidad sintáctica de orden superior al sintagma que resulta de unir un SN y un SV (sujeto y predicado como mínimo). Se puede equiparar con la noción de oración simple (unidad lingüística organizada en torno a un verbo o predicado).
Supone agrupar las palabras que pertenecen a cada unidad.
[<El niño> <<regaba> <las plantas>>], donde “[ ]” determina la frontera de la cláusula, y “< >” la del sintagma.
Supone reconocer la categoría gramatical de las piezas léxicas (palabras) que constituyen núcleos de los sintagmas (el nombre en el SN, el verbo en el SV, etc.), para identificar el papel que desempeña cada constituyente de la estructura de la oración.
[<El niñoSN> <<regabaV> <las plantasSN>SV>O].
Implica la reconstrucción de la estructura jerárquica de constituyentes sintácticos o marcador sintagmático.
El marcador sintagmático se puede representar mediante árboles sintácticos o colocando los constituyentes entre corchetes.
Refleja las relaciones estructurales entre las distintas partes de la oración.
Estas relaciones se establecen a veces a larga distancia (pe, en “El enorme boxeador que golpeó la viejecita se cayó”, el sujeto y el verbo de la cláusula principal “el boxeador se cayó”, están separados por una cláusula subordinada al relativo “que golpeó la débil viejecita”).
Representa el último paso del análisis sintáctico, pues supone la transformación de la representación estructural de la oración, en una representación proposicional definida en términos conceptuales.
Es materia de debate hasta qué punto, éstos procesos sintáctico-semánticos, influyen en los procesos más propiamente estructurales de construcción del marcador sintagmático.
No está claro en qué medida la información semántica contenida en la representación conceptual del verbo de la oración, puede establecer de antemano las opciones sintácticas más probables y adecuadas a las preferencias semánticas del verbo, influyendo en los procesos de asignación de la estructura.
Caben 2 alternativas:
Para construir esta representación, resulta muchas veces necesario, recurrir a la información que no está explícitamente presente en la oración.
El problema de las inferencias semánticas, presenta 2 dificultades:
Los procesos de comprensión descritos, no deben entenderse como etapas independientes del procesamiento de oraciones, ni como una aplicación directa de reglas de la gramática, sino que deben contemplarse, como problemas que el procesador del lenguaje ha de resolver, para obtener una representación proposicional del enunciado.
Estas tareas, se llevan a cabo por medio de estrategias o rutinas cognitivas, que operan bajo restricciones de tiempo, atención y memoria.
ESTRATEGIAS DE ANÁLISIS Y AUTONOMÍA DEL PROCESAMIENTO SINTÁCTICO
HIPÓTESIS DE LA SEGMENTACIÓN EN CLÁUSULAS Y DE LA DESCODIFICACIÓN CONTINUA
El interés por determinar la naturaleza de las unidades de segmentación en la comprensión del lenguaje, se remonta a los años 70.
“HIPÓTESIS DE LA CLAUSULA” (Carroll y Bever, 1976).
Vinculada a las posturas que defendían la autonomía del procesamiento sintáctico.
2 postulados:
Esta hipótesis, tiene 3 implicaciones o predicciones:
Se comprobó con estudios de comprensión oral con una tarea subsidiaria.
Tarea subsidiaria: Se tarta de un procedimiento en curso (“on line”). Supone la ejecución simultánea de 2 tareas: una de comprensión auditiva, y un a tarea subsidiaria de “detección” de algún fenómeno ajeno (clicks o chasquidos) o no (cambio de canal auditivo en una tarea de escucha dicótica) al input verbal, que acontece durante la reopción del mensaje verbal.
Resultados:
Se comprobó con estudios de recuerdo inmediato de oraciones.
Recuerdo: Procedimiento de fuera de curso (off-line). Se presentan secuencias de enunciado que han de memorizar. El sujeto debe rememorar o reproducir los enunciados.
Resultados:
Numerosos investigadores lo han puesto en tela de juicio, por 2 razones:
Este tipo de observaciones ha llevado a algunos a rechazar la hipótesis.
HIPÓTESIS DE LA DESCODIFICACIÓN CONTINUA (Marslen-Wilson).
Vinculada a los modelos interactivos. El procesamiento de oraciones tiene lugar “palabra por palabra”.
La recepción de cada nuevo elemento léxico, da inicio a procesos sintácticos y semánticos que operan en paralelo y de forma “incremental”, es decir, construyendo paso a paso una representación proposicional de la oración.
Pruebas a favor de la descodificación continua:
Los sujetos escuchaban fragmentos ambiguos, precedidos de un contexto desambiguante.
Predicción: Si en el momento de nombrar la palabra crítica, el sujeto ya ha optado por la lectura adecuada del fragmento ambiguo, la latencia de respuesta será más breve si la palabra es coherente con dicha lectura que si no lo es; en cambio, si ambas lecturas están disponibles, no habrá diferencias en el TR.
Resultados: Latencias mas breves cuando la palabra era continuación apropiada del fragmento.
Estos datos, ponen de manifiesto el influjo temprano de factores semánticos sobre las decisiones sintácticas, y que, ciertas decisiones que corresponden a niveles de procesamiento de orden superior, se toman con extraordinaria rapidez, y de forma inconsciente.
POSTURA INTERMEDIA:
Defiende una versión débil de la hipótesis de la cláusula.
Afirma que el procesamiento de oraciones sigue un curso discontinuo, donde alternan periodos de mayor “carga” computacional, con otros de relativo reposo.
En ciertos casos, es imposible construir palabra por palabra la representación del significado de la oración, porque las oraciones no siguen un curso lineal y continuo. Existen “interrupciones obligatorias” que se dan durante la comprensión (como las discontinuidades que se dan entre constituyentes sintácticos “hermanos”, que están separados por otros constituyentes “Un interesante y duro disputado partido”, o entre constituyentes que guardan entre sí una relación de correferencia a “larga distancia”, como en las relaciones anafóricas).
Datos a favor, empleando estudios de tareas de lectura controlada con registro de movimientos oculares, o mediante la técnica de “lectura a ritmo personal”.
Uno de los efectos más llamativos encontrados:
En “A Pedro le ha secuestrado un gángster su novia”, la duración media de la fijación inicial en la región en la que se manifiesta el error cometido, aumenta considerablemente, y las regresiones hacia las regiones anteriores, son más abundantes que en circunstancias normales (cabe esperar que se registren fijaciones más prolongadas en el SN “su novia”, ya que es ahí donde el sujeto advierte, que la decisión de asignar al SP “a Pedro” el papel de objeto directo, en lugar de objeto indirecto, es incorrecta).
En “Pedro miraba el libro de la chica que estaba en el salón”, la cláusula de relativo “que estaba en el salón”, puede se adjuntada, bien al SN “la chica”, o bien al SN “el libro”, originando un conflicto de decisiones sintácticas.
En oraciones como ésta, se registran mayores tiempos de fijación en la región que ocupa el constituyente ambiguo, y mayor número de regresiones hacia sus antecedentes potenciales.
ESTRATEGIAS DE ANÁLISIS SINTÁCTICO
ESTRATEGIAS ESTRUCTURALES
Según los modelos autónomos, los efectos conductuales de los fenómenos de la vía muerta o de ambigüedad estructural, ponen de manifiesto que el procesador sintáctico, opta por asignar el primer análisis disponible, utilizando estrategias de carácter estructural, y con total independencia de las características semánticas del mensaje.
En el caso de las oraciones estructuralmente ambiguas, ésta estrategia obliga a adjuntar el constituyente nuevo, al nodo más alto posible en la estructura (el SN “el libro”).
En casos de ambigüedad transitoria como en “Mientras el granjero cocinaba [el pollo] se escapó del corral”, se suele optar inicialmente por adjuntar el constituyente potencialmente ambiguo (“el pollo”) a la cláusula en curso (verbo “cocinaba”), estableciendo un cierre tardío.
La estrategia de cierre tardío, a veces produce efectos opuestos a la adjunción mínima, por lo que ambas entran en conflicto.
Tb se le llama "principio de asociación hacia a derecha” porque tiende a asociar, cada nuevo nodo del constituyente al nodo inmediatamente anterior, situándolo a la derecha de éste, y en el mismo nivel jerárquico de la estructura.
La preferencia de un tipo determinado de estrategia depende del tipo de construcciones a la que se aplique y, sobre todo, de las peculiaridades de cada idioma.
Para que una oración con un elemento desplazado, pueda ser correctamente interpretada, es preciso que el elemento desplazado, sea ligado o asociado con la posición que ocupaba en la estructura profunda (y que deja una huella en la estructura superficial).
En principio, ésta formulación del problema, respondía a postulados de la teoría lingüística. No exigía que las categorías vacías tuvieran entidad psicológica, ni que el proceso de “ligamiento” tuviera lugar sobre la marcha.
Sin embargo, hay pruebas de que la asignación de antecedentes a éstas y otras clases de categorías vacías, es un proceso que tiene lugar sobre la marcha, durante la comprensión de las oraciones (en el momento de “detectar” la huella sintáctica, la información de esa huella, se halla más activada o está más disponible para el sujeto que otros tipos de información).
Nicol y Swinney, utilizando un procedimiento de priming transmodal, observaron que los TRs a una palabra visual relacionada con el SN antecedente, eran significativamente más breves que a una palabra no relacionada con el antecedente de la categoría vacía, siempre y cuando la presentación de la palabra visual se hiciera simultánea con la posición de la categoría vacía en la oración presentada auditivamente.
Es decir, a raíz de la “aparición” de la categoría vacía, se produce una reactivación transitoria, en la memoria inmediata, del constituyente sintáctico al que va ligada dicha categoría vacía.
Pero ¿cuáles son las estrategias empleadas para llevar a cabo esa operación?.
Para averiguarlo, es necesario plantear situaciones de “conflicto” (leer ej pg 436).
Frazier, Clifton y Randall, llevaron a cabo un experimento para determinar si el proceso de asignación de antecedentes a las categorías vacías, se ve afectado por la “distancia” media entre ambos, es decir, por la posición relativa que ocupa el antecedente con respecto a la huella sintáctica.
Resultados:
Uno de los postulados más cuestionados de los modelos autónomos de procesamiento sintáctico, es la idea de que las categorías empleadas en el análisis sintáctico, son de carácter estructural.
Frente a ésta postura, los modelos interactivos insisten, en que la información semántica presente en el contexto, se encuentra igualmente accesible al procesador sintáctico, guiando o dirigiendo de antemano la elección de la estrategia de análisis.
Bajo ésta hipótesis, se han propuesto las estrategias no estructurales.
ESTRATEGIAS NO ESTRUCTURALES
Función: Facilitar el uso de estrategias de comprensión adecuadas al contexto semántico o pragmático, y bloquear o debilitar la aplicación de las que puedan producir resultados implausibles o anómalos.
En ocasiones, la decisión acerca de la estructura correcta que se debe asignar a una oración es una cuestión de preferencia relativa.
En esos casos, hay que recurrir a información no sintáctica para validar el empleo de una u otra estrategia de análisis.
Son las relaciones conceptuales entre ciertas piezas léxicas de la oración, las que facilitan o inhiben el uso de una u otra estrategia.
Una de las principales restricciones conceptuales, son las que ejercen las propiedades sintácticas y semánticas del verbo.
La presencia de un determinado verbo, permite realizar sobre la marcha y de forma, generalmente inconsciente, predicciones sobre el tipo de argumentos o complementos que pueden acompañarle en la oración.
Ejemplo:
Una oración que comienza con las palabras:
- la respuesta” [tema] → … SN
“Juan sabía…
- que Maria estaba enferma” [proposición]→ … O
Admite 2 estructuras temáticas alternativas:
Existen ciertas preferencias temáticas asociadas a cada verbo, que pueden producir sesgos, en los procesos de análisis e interpretación de las oraciones.
Algunos sostienen que las preferencias léxicas más fuertemente asociadas a un verbo (la estructura temática más frecuente de un predicado), determinan el análisis sintáctico inicial de la oración.
Aun no se ha podido determinar hasta qué punto, ésta información léxica se emplea para guiar la elección inicial del análisis, o simplemente para “filtrar” o evaluar los resultados de un análisis realizado por otros medios.
Gain y Steedman llamaron la atención sobre el hecho de que la información que el sujeto va recibiendo a lo largo del texto, crea un “contexto referencial” o “escenario pragmático”, que determina la interpretación de sucesivas oraciones, y con ello, la aplicación de estrategias de análisis sintáctico.
En caso de conflicto, el procesador utilizará información del contexto para decidir.
Ejemplo:
En 2 oraciones como:
La cláusula “que tenía problemas” puede interpretarse:
La ambigüedad se deshace cuando el sujeto recibe la cláusula siguiente. Sin embargo, si se dispone de un contexto previo suficientemente informativo, no hay por qué aguardar tanto para optar por uno u otro análisis.
Experimento de Altmann y Steedman, empleando la tarea de lectura a ritmo personal:
TRES MODELOS DE PROCESAMIENTO DE ORACIONES
SEMEJANZAS ENTRE ELLOS:
PROCESADORES SINTÁCTICOS EN INTELIGENCIA ARTIFICIAL: REDES DE TRANSICIÓN AMPLIADAS (ATN)
Sólo emplea información estructural.
Diseñados para realizar o simular tareas cognitivas complejas, como la de comprender el lenguaje.
Las áreas en las que han producido simulaciones más efectivas de la comprensión del lenguaje, son aquellas en las que las capacidades lingüísticas, interactúan más estrechamente con otras capacidades cognitivas de carácter general (procesos de comprensión del discurso o actividades conversatorias); En otros procesos más básicos (percepción del habla o análisis sintáctico), el desarrollo ha sido comparativamente menor.
El sistema de computación empleado para el análisis sintáctico es una “RED DE TRANSICIÓN AMPLIADA” (ATN) (Woods).
Es un sistema general de computación basado en la noción de reglas de producción o pares “condición-acción”.
Se trata de una “máquina de estados finitos”, que permite simular diferentes tipos de procesos, a la que le ha incorporado una gramática transformacional, que establece las condiciones que es preciso satisfacer para pasar de un estado al siguiente.
El ATN tiene 4 características principales:
Los NODOS, vienen definidos por las categorías sintácticas de la gramática, que el sistema ha de identificar y etiquetar. Por tanto, corresponden a los nodos de la estructura sintagmática: O, SN, SV, SP, etc.
Existen 5 tipos de ARCOS o instrucciones:
(leer ejemplo pg 445)
Una de las ventajas del modelo ATN, es que, a partir de mecanismos relativamente sencillos, permite incorporar de forma natural estrategias de análisis, como la adjunción mínima o la asociación a la derecha, que en otros modelos se postulan de forma independiente.
Uno de los principales inconvenientes, es que sus operaciones están guiadas “desde arriba”, por conocimiento previo, y no por información de entrada, lo que aumenta el riesgo de predicciones erróneas durante el análisis (en situaciones de ambigüedad estructural o de vía muerta, y al carecer de la capacidad de inspeccionar partes posteriores de la entrada sensorial, tendrá que computar en paralelo diferentes alternativas de análisis, o efectuar continuos retrocesos y reanálisis, lo que supone una desventaja desde el punto de vista de la economía del procesamiento).
PROCESADORES SINTÁCTICOS AUTÓNOMOS: EL MODELO DE LA MÁQUINA DE EMBUTIDOS (Frazier y Fodor)
Inicialmente hace uso de información exclusivamente estructural, pero, posteriormente, también utiliza información contextual y semántica.
2 propiedades distintivas:
El modelo está concebido con una arquitectura muy sencilla y muy restrictiva, que pretende reflejar directamente las limitaciones de la memoria inmediata, lo que reduce el número de estrategias utilizadas a una sola: la estrategia de adjunción mínima.
Se trata de un sistema que inspecciona la oración de izda a dcha, y va configurando unidades discretas para asignarles una estructura.
2 etapas:
(Ver ejemplo 16, pg 447-448)
Concebido como un sistema que sirve de “interfaz” o contacto entre 2 sistemas de naturaleza muy distinta: el analizador de la estructura superficial (exclusivo para el lenguaje), y el sistema cognitivo general (utiliza información conceptual y pragmática que es común a otras muchas actividades inteligentes).
PROCESADORES CONEXIONISTAS O SISTEMAS DE PROCESAMIENTO DISTRIBUIDO EN PARALELO
2 características:
Computan, en cambio, un tipo especial de representaciones que se hallan “distribuidas”, a través de una red de nodos mutuamente interconectados, y operan mediante un único proceso de propagación de activación, a través de los nodos del sistema.
Dado que la activación es un parámetro continuo, los procesos de comprensión han de funcionar de una manera “gradual” o “probabilística” (procesos estocásticos), es decir, en los procesos de comprensión participan varias fuentes de información, cada una de las cuales impone constricciones sobre el resultado final del proceso.
El objetivo primordial del modelo es interpretar la distribución de los papeles temáticos de la oración.
En ésta tarea, intervienen 2 fuentes de constricción:
2 peculiaridades de los sistemas conexionistas:
El procedimiento empelado para perfeccionar el rendimiento del sistema durante ésta fase se denomina “propagación retroactiva” (suministrar una medida del error que comete, para que el sistema vaya ajustando los parámetros a los valores óptimos que debe adoptar).
En condiciones de rendimiento óptimo, el sistema debería ser capaz de suprimir por completo su margen de error, pero, dada la naturaleza probabilística de sus operaciones, esto no sucede nunca del todo.
El sistema va creando una configuración o Gestalt de la oración (“configuración de entrada”), que restringe progresivamente las interpretaciones de la oración. El conocimiento previo o “entorno”, impone tb constricciones sobre la interpretación de la configuración de entrada.
Las 2 fuentes de información, la “configuración de entrada” y la “configuración del entorno”, produce 2 patrones de activación, que interactúan en una red de nodos o “unidades ocultas”.
El proceso, por tanto, dependerá, en grado variable, de información suministrada por la oración (de “abajo-arriba”) y de información proporcionada por el entorno (de “arriba-abajo”).
No todos los modelos conexionistas adoptan los mismos principios de procesamiento ni defienden los mismos postulados teóricos.
Así, por ejemplo, en un modelo conexionista se pueden manipular ciertos parámetros, para reproducir los efectos típicos de un procesador autónomo.
Uno de estos parámetros es la retroinformación de niveles jerárquicamente superiores, hacia otros de orden inferior.
Puede haber casos en los que la retroinformación se propague de forma débil, o con una demora bastante larga como para permitir a unidades de niveles inferiores, computar sus representaciones de un modo independiente (sin influencia de niveles superiores).
ALGUNAS REFLEXIONES CRÍTICAS SOBRE LOS MODELOS DE PROCESAMIENTO DE ORACIONES
La coexistencia de 2 categorías opuestas de problemas, pone en evidencia la complejidad del lenguaje humano, como sistema de procesamiento y representación:
Por ejemplo, la palabra “pelota”, suscita diferentes interpretaciones, en función del contexto en que se encuentre.
¿Significa esto que tenemos que almacenar en la memoria, tantas variedades de un mismo concepto como situaciones diferentes en las que figure?
Todos éstos problemas tienen como telón de fondo el problema de la “INDETERMINACIÓN DEL SIGNIFICADO” (ambigüedad del lenguaje).
Las teorías computacionales clásicas, ponen todo el énfasis en el carácter regular y sistemático de los procesos mentales y en las propiedades estructurales de las representaciones sobre las que operan estos procesos. Por tanto, solo tienen 2 maneras de “lidiar” con éste problema:
Problema de la “COMPOSITIVIDAD” DEL LENGUAJE.
El carácter compositivo o combinatorio del lenguaje, es directamente responsable de otras propiedades como la productividad y la sistematicidad, que se explican apelando a un conocimiento de reglas y principios abstractos y formales, que se aplican sobre símbolos o representaciones elementales para generar otros símbolos más complejos, que no se pueden describir como la simple suma o yuxtaposición de esos símbolos elementales.
El problema de la compositividad del lenguaje es a los modelos conexionistas, lo que el problema de la indeterminación del significado a los modelos clásicos.
Los modelos conexionistas son refractarios a toda noción de estructura, por lo que el único modo que tienen de enfrentarse a éste problema es sustituyendo la sintaxis por otros “sucedáneos”, que permitan simular los efectos de la aplicación de reglas y estrategias.
Los modelos conexionistas efectúan una “traducción” del vocabulario sintáctico a un vocabulario asociativo, para replicar los mismos efectos del análisis sintáctico sin tener que postular directamente reglas sensibles a la estructura.
Un problema mucho más general es determinar qué tipo de arquitectura debe atribuirse a la mente humana en su totalidad, y, qué tipo de principios son los que guían el funcionamiento de éste sistema inteligente.
A menudo, la representación que resulta de los procesos de comprensión, incluye información que no está explícitamente recogida en el enunciado:
Estos fenómenos están ubicados en la difusa frontera entre la comprensión de las oraciones y la comprensión del discurso.
PROCESOS INFERENCIALES EN LA COMPRENSIÓN DE LAS ORACIONES
Los procesos de interpretación del significado de enunciados lingüísticos (oraciones y discursos), se pueden clasificar en 2 categorías:
Comprenden operaciones que hacen uso de información explícitamente reflejada en las oraciones que componen el discurso.
Su cometido es integrar los diferentes tipos de información presente, en una única representación en la memoria del sujeto, es decir, seleccionar los componentes más relevantes de la información contenida en los enunciados, y relacionar tales componentes, en una representación formulada en un código no lingüístico (proposicional), en el que la forma o disposición de los componentes no tiene por qué ser la misma que presentaban en el enunciado original.
Implican tb la inclusión de elementos de información que no están explícitamente presentes en el enunciado original.
La información implícita se añade a partir de conocimientos extralinguisticos, y se refiere a:
Los factores “integrativo” y “constructivo” de la interpretación y el recuerdo de oraciones, no son fenómenos separados.
Las inferencias que realizamos al comprender el lenguaje, determinan muchas veces el modo de integrar la información en la representación del significado.
Existen 2 planos o niveles de significado lingüístico:
Los procesos de inferencia pueden representar distintos grados de inmediatez o complejidad, en función de las clases de información y los recursos de procesamiento que consumen.
INFERENCIAS PERCEPTIVAS E INFERENCIAS COGNITIVAS; LA RESOLUCIÓN DE ANÁFORAS Y LA INCLUSIÓN DE INFORMACIÓN IMPLÍCITA
Swinney y Osterhout, distinguen 2 clases de inferencias:
Son procesos encapsulados, que tienen lugar en etapas relativamente tempranas del procesamiento del estímulo (etapa del procesamiento sintáctico), por lo que son independientes del las variables extralingüísticas.
Si mantenemos que los procesos de análisis sintáctico y los de interpretación semántica, son 2 procesos diferentes que acontecen de forma secuencial, los efectos de las inferencias perceptivas y cognitivas, no se manifestarán simultáneamente, sino que las perceptivas precederán a las cognitivas.
Para poner a prueba esto es útil la “interpretación y resolución de anáforas”.
Anáfora: Expresión que tiene el mismo significado que otra que le precede (o le sigue) en el discurso, y que se denomina “antecedente”.
La “interpretación y resolución de anáforas” es un proceso que consiste en establecer vínculos de correferencia entre 2 (o más) expresiones que comparten el mismo significado: la anáfora y su correspondiente antecedente.
Las anáforas pueden adquirir su significado de 2 maneras:
Las unidades lingüísticas más habitualmente empleadas como expresiones anafóricas son los pronombres, los sintagmas, e incluso las cláusulas completas.
Unas veces, los vínculos de cohesión se manifiestan expresamente (hay un antecedente explícito para cada anáfora); Otras no sucede así, bien porque el antecedente es ambiguo, o bien porque no se puede localizar en la estructura manifiesta del discurso.
Si el contexto lingüístico no suministra un antecedente claro o inequívoco al que ligar la anáfora, será necesario recurrir a conocimientos extralingüísticos.
Si todos los elementos necesarios para resolver una anáfora se hallan presentes en el discurso, el proceso de interpretación podrá realizarse de forma directa e inmediata, y sin necesidad de utilizar información ajena al discurso.
Experimentos sobre resolución de anáforas y realización de inferencias con oraciones complejas (Swinney y Osterhout).
Utilizando un paradigma de priming transmodal, presentaban auditivamente a os sujetos oraciones compuestas, que contenían una expresión anafórica (pronombre o categoría vacía), precedida de 3 sintagmas nominales que podían ser correferentes de la anáfora.
“El boxeador visitó al médico que el entrenador de natación le había recomendado”
Mientras los sujetos escuchaban la oración, se les presentaba visualmente una palabra que designaba uno de los posibles antecedentes de la anáfora (boxeador, médico, entrenador).
La tarea era reconocer la palabra visual.
Resultados:
Efectos de facilitación en el reconocimiento léxico cuando la palabra visual era el antecedente apropiado de la anáfora, en comparación con antecedentes inadecuados o con otras palabras usadas como estímulos de control → Cuando el antecedente es explícitamente mencionado en el discurso, su activación se produce de modo automático y concurrente a la recepción de la anáfora.
Examinaron, en otro experimento, 2 tipos de oraciones cuya interpretación exige la realización de inferencias cognitivas.
“Julián le dijo a su amigo que Eva tenía el cabello de seda y a piel de melocotón”
Resultados:
No se registró ningún efecto facilitador para los conceptos semántica o pragmáticamente implícitos, cuando las correspondientes palabras eran presentadas en el punto crítico (seda); Sin embargo, pasadas unas sílabas, sí se registraron efectos facilitadores sobre los TR de éstas palabras.
→ Las inferencias cognitivas no se realizan estrictamente sobre la marcha, sino con una ligera demora.
Este trabajo supone un apoyo a la tesis de que ciertos componentes de los procesos de comprensión del lenguaje, son independientes de factores extralingüísticos como la plausibilidad, el conocimiento del mundo o la pragmática, es decir, funcionan como módulos de propósito específico, en el sentido fodoriano del término.
SIGNIFICADO LITERAL Y SIGNIFICADO ELABORADO: ALGUNAS CONCLUSIONES SOBRE LOS PROCESOS DE INTERPRETACIÓN DE ORACIONES
2 implicaciones de los estudios de Swinney y Osterhout:
Estas 2 implicaciones nos llevan a caracterizar la comprensión de las oraciones, como una actividad dividida en 3 etapas discretas y secuenciales:
El significado literal del enunciado lingüístico es siempre una representación intermedia a la que es imprescindible acceder, para poder derivar sus otros posibles significados.
Hay casos en los que el significado literal y el pretendido pueden compartir ciertos elementos comunes.
El significado literal forma parte integrante del significado pretendido. Hay una referencia explícita a la disposición del oyente a colaborar con el hablante.
Un aspecto consustancial a la metáfora es su condición de “vehículo” para expresar un significado indirecto.
“Los rascacielos son las jirafas de la ciudad”.
Hay un tema u objeto (“los rascacielos”) del que se predica un atributo, a todas luces falso (“son jirafas”). Para dar con el significado pretendido, es necesario que el atributo sea interpretado en términos de una hipotética relación de semejanza entre el vehículo (La expresión metafórica “jirafas”) y el tema (“la altura”).
Sin embargo, esta armonía entre los significados literal y pretendido, es la excepción y no la norma, en los enunciados con significado indirecto. De hecho, muchas expresiones lingüísticas sólo adquieren su significado a la luz del contexto pragmático en el que se hallan.
En diversos estudios, llevados a cabo por Gibbs y otros, para comprobar hasta qué punto es necesario recuperar un significado literal independiente del contexto, para comprender los enunciados lingüísticos indirectos, se comprobó que los oyentes son capaces de interpretar correctamente el sentido indirecto de éstos enunciados, y que además lo hacen de forma inmediata, es decir, sin mediación del significado literal del enunciado → Si se proporciona un contexto de interpretación apropiado, los sujetos invierten el mismo tiempo en leer un enunciado indirecto que otro directo de características similares primero.
En principio, los resultados dan al traste con la idea de que las actividades de comprensión del significado indirecto, descansan en procesos inferenciales complejos, que consumen tiempo y recursos cognitivos.
Sin embargo, a pesar de la considerable velocidad a la que suceden, los procesos de interpretación de significado indirecto se sitúan en una magnitud temporal diferente (las medidas empleadas por Gibbs (tiempo de lectura de la oración) son medidas más globales y menos “en curso” que las utilizadas por Swinney y Osterhout en sus estudios sobre inferencias (identificación inmediata de palabras)).
TEMA 7: LA COMPRENSIÓN DEL DISCURSO
INTRODUCCIÓN
LA AUTONOMÍA PSICOLÓGICA DEL PLANO DEL DISCURSO
A los productos últimos de la maquinaria lingüística de la mente, los denominamos textos o discursos.
2 preguntas:
Respecto a la primera cuestión, la respuesta es que sí.
El discurso se define por una coherencia que no depende sólo de la forma y el significado de las oraciones que lo componen. Resulta de procesos molares y propios de composición, gracias a los cuales se transmiten estructuras complejas de ideas e intenciones, que sobrepasan estructuralmente el plano de las oraciones, y no siempre se contienen explícitamente en ellas.
Los procesos de comprensión del discurso tienen un fuerte componente inferencial, y no consisten sólo en procesos de descodificación.
La comprensión del discurso es una función inferencial muy compleja que, partiendo de un conjunto de oraciones, produce un conjunto de proposiciones explícitas o inferidas, y, en una segunda fase, elabora una trama de intenciones, a partir de las ideas o proposiciones.
Las proposiciones no son proyección biunívoca de las oraciones, puesto que:
En las situaciones comunicativas normales, el discurso no hace explícitas todas las ideas necesarias para su comprensión, sino que da por supuesto un número enorme de ellas, y deja otras a la libre o necesaria inferencia del que comprende.
Por eso se dice que cualquier unidad del discurso se deriva de un compromiso entre lo tácito y lo explícito.
Hay un principio fundamental del que se siguen supuestos importantes para explicar éste compromiso: el “principio de cooperación” (Grice), que establece que el discurso es una actividad cooperativa entre los interlocutores.
Los supuestos relacionados entre sí y que se siguen de ese principio son los de relevancia, economía y coherencia.
“Los discursos se comprenden y producen generalmente tratando de producir el máximo impacto posible y estilísticamente deseable de recursos lingüísticos; Así, los discursos conforman conjuntos de oraciones relacionadas internamente entre sí y con marcos compartidos de conocimientos sobre el mundo”.
FACTORES CONCEPTUALES Y LINGÜÍSTICOS EN EL DISCURSO: LA TEORÍA DE LA DEPENDENCIA CONCEPTUAL (SCHANK)
La principal dificultad para desarrollar los sistemas de comprensión del discurso por ordenador, radica en proporcionarles esquemas conceptuales y conocimientos sobre el mundo, que les permitan realizar inferencias.
Por eso, resulta paradójico el hecho de que los modelos más inferenciales y guiados conceptualmente (más que lingüísticamente) de la comprensión, hayan sido desarrollados por teóricos de la Inteligencia Artificial, y no por psicólogos o lingüistas.
El ejemplo más claro de modelo I.A., en el que se realza el carácter conceptual e inferencial de la comprensión del discurso, es la TEORÍA DE LA DEPENDENCIA CONCEPTUAL (TDC) de Roger Schank.
Las conceptualizaciones pueden ser:
Estos actos primitivos “no son nombres de categorías de verbos. Son los componentes de la acción”, y su uso, reduce drásticamente el problema de la inferencia, puesto que las reglas de inferencia, sólo necesitan ser descritas una vez para cualquier ACTO, y no cada vez para cada verbo que hace referencia a dicho acto.
Por ejemplo “Juan dijo a Maria que Pedro estaba contento” se representa [Juan MTRANS (Pedro (ESTAR ESTADO MENTAL [5] a María], siendo el valor 5 de “estado mental” el que corresponde a “contento”.
Pero, no siendo suficiente con eso, también hay que recurrir a secuencias conceptuales más amplias o “guiones”, que representan los conocimientos de la memoria episódica a largo plazo, acerca de cursos de acción que se producen en situaciones habituales.
Y finalmente, hay que recurrir a “objetivos” y “planes”, ya que los supuestos sobre la naturaleza de las intenciones humanas y sus interrelaciones, determinan en buena medida, el curso de la comprensión.
Respecto a la segunda cuestión que se planteaba al principio sobre si puede caracterizarse como lingüístico el plano discursivo, Schank piensa que no.
El discurso es un nivel conceptual, compuesto de procesos generales de inferencia. Comprender equivale a pensar. La comprensión es una actividad de “arriba-abajo”, guiada conceptualmente, que se rige por conocimientos estructurados del mundo, más que por conocimientos sobre la estructura del lenguaje (sólo recurren a procedimientos de análisis sintáctico, cuando fallan los sistemas de dependencia conceptual por los que se guían).
Sin embargo, ésta hipótesis de la TDC, representa una posición extrema, no compartida por la mayoría de los lingüistas y psicólogos.
Además, las investigaciones no son compatibles con la suposición de que éste proceso implique un predominio masivo de mecanismos de “arriba-abajo”, sino que son más explicables desde un modelo mas matizado, que supondría que “el plano discursivo constituye el punto de encuentro principal entre los mecanismos más específicamente lingüísticos, y los sistemas de procesamiento más globales, que se basan en procedimientos generales de inferencia y en bases generales de conocimiento sobre el mundo”.
LAS REPRESENTACIONES DEL DISCURSO
La primera tarea a realizar para “comprender la comprensión” del discurso es determinar los diferentes niveles de representación que se producen a lo largo de éste proceso.
El sistema cognitivo va estableciendo varios niveles de representación diferentes, que se refleja en los diversos fenómenos psicológicos.
Por ejemplo, la representación precisa y literal de la forma del discurso, tiende a perderse rápidamente de la memoria, mientras que la representación del significado se conserva.
La MLP está organizada en función de los significados, y especializada en su preservación.
Experimento de Sachs: Demostró que, cuando en el contexto de un discurso se presentan oraciones que los sujetos deben reconocer como representadas o no en él, los cambios formales y de significado son detectados por igual si no existe intervalo entre la oración inicial y la de reconocimiento. Pero, si se establece un intervalo de unas 80 silabas entre la primera y la segunda, apenas se reconocen los cambios de forma, pero se detectan relativamente bien los de significado.
En suma, la representación de la forma concreta de las oraciones del discurso se desvanece rápidamente, mientras que la de su significado se mantiene durante más tiempo, por eso, requiere un código más abstracto, como el de las proposiciones o “ideas”.
Esta es una estrategia eficiente, pues permite economizar recursos de una memoria limitada, al prescindir de informaciones formales cuando éstas dejan de ser necesarias para abstraer significados e intenciones.
El proceso de pérdida de la forma no solo se manifiesta en el fenómeno de confusión en el reconocimiento de oraciones sinónimas, sino en otros fenómenos que indican que los sujetos pierden con relativa rapidez incluso información que se refiere a código de los estímulos.
Rosenberg y Simon, presentaban oraciones y representaciones gráficas relacionadas entre sí, u oraciones en diferentes idiomas en sujetos bilingües.
Cuando se intercalaban oraciones y dibujos, los sujetos reconocían las “traducciones” de unas a otros, y, en el caso de las oraciones en diferentes idiomas, los sujetos bilingües decían que se les habían presentado realmente oraciones en inglés, cuando las que se les habían mostrado eran sinónimas en francés → Los dibujos y oraciones, así como las oraciones en # idiomas, comparten un mismo sistema semántico subyacente.
En otro experimento, Bransford y Franks demostraron que los sujetos valoraban con mayor confianza sus actos de reconocimiento, cuanto mayor era el número de ideas de la lista contenida en las oraciones, con independencia de que éstas hubieran sido presentadas realmente o no → En la actividad de comprender oraciones, éstas se “individualizan” y pierden su forma lingüística externa, convirtiéndose en proposiciones o ideas de una red de ideas interrelacionadas, integradas en una representación unitaria de significado.
LA FORMA DE LA IDEAS EN EL DISCURSO: LAS PROPOSICIONES
SOBRE LA NOCIÓN DE PROPOSICIÓN
2 motivos para proponer la intervención de representaciones proposicionales en la comprensión del discurso:
Las proposiciones no son imágenes mentales. Son unidades amodales o supramodales de significado (no pertenecen a ninguna modalidad sensorial concreta), e implican, como mínimo, la predicación de algo (una propiedad, acción, relación, etc.), acerca de algo (objeto,argumento, etc.).
Las representaciones proposicionales constituyen un reflejo de 2 ideas básicas en psicología cognitiva:
El concepto de proposición es uno de pospilares fundamentales del enfoque clásico, en psicología cognitiva y psicolingüística.
Sin embargo, las proposiciones, nacieron en lógica, con el propósito de “des-psicologizar” la lógica.
Frege inventó el concepto para formalizar un lenguaje universal de inferencia, e insistió en que no eran entidades psicológicas, sino objetos formales, abstractos e impersonales, portadores de verdad (capaces de ser verdaderos o falsos).
Como en lógica, las proposiciones de los psicólogos son:
Las formalizaciones y modelos proposicionales desarrollados por los psicólogos cognitivos, han sido muy diversos:
Por un lado, los que suponen que las proposiciones no se componen de conceptos de la misma extensión que las palabras, sino de palabras descompuestas en sus “primitivos semánticos” (Clark).
Por el otro, los que piensan que las palabras no se descomponen en átomos semánticos durante el proceso de comprensión, y suponen que las proposiciones abarcan la misma extensión que las propias palabras (Kintsch).
EL MODELO PROPOSICIONAL DE KINTSCH
Es el modelo que ha tenido mayor importancia en la investigación psicológica del discurso.
Mientras el modelo de TDC de Schank, ha servido de marco explicativo para la elaboración de simulaciones en I.A., de los procesos de comprensión del discurso, el modelo de Kintsch se ha guiado por la motivación de explicar los fenómenos observados en el estudio experimental de la memoria y la comprensión del discurso.
Un concepto principal: texto base.
Diferencia entre texto de superficie (aquel al que el lector u oyente se enfrenta, y que se compone de palabras y oraciones), y texto base (compuesto de “ideas” o de conceptos y proposiciones, que constituyen una representación elaborada en los procesos de comprensión, tomando como partida el texto de superficie).
El texto base, se presenta como un conjunto ordenado de proposiciones, que se ordenan en diferentes niveles jerárquicos, que expresan que unas ideas son más importantes que otras, en los textos y discursos.
Las proposiciones se componen de conceptos-palabra, que no deben identificarse con las palabras como tales (aunque sí con su significado), pero que no resultan de la descomposición semántica de ellas.
Kintsch, representaría el significado de “Juan leyó un libro” de manera mucho más sencilla y económica que Schank: [LEER (Agente: Juan, Objeto: libro)].
La proposición que expresa el significado de “Juan leyó un libro” consiste en un predicado (LEER), que se aplica a ciertos “argumentos” (Juan, libro), que, a su vez, mantienen relaciones diferentes con respecto al predicado: “Juan” juega el papel de “agente” y “libro” el de “objeto” de la acción de leer.
Una proposición contiene 1 predicado y “n” argumentos.
En la función que cada argumento mantiene con el predicado, se asigna a tal argumento un “caso” (“agente” es un caso, y “objeto” otro) → La gramática de lenguaje del pensamiento (“mentalés”) es, en realidad, una gramática de “casos”.
Los casos reflejan papeles semánticos, que son formas de relación predicados-argumentos.
Los “CASOS” están tomados del modelo de Fillmore, y son los siguientes:
Una idea importante: “Siempre que se realiza implícita o explícitamente un acto de predicación, se establece una proposición atómica”.
El número de proposiciones de que se componen los textos base, suele ser bastante mayor que el de oraciones en los textos de superficie.
Dado que lo que individualiza a las proposiciones es la predicación, los verbos constituyen pistas importantes en éste proceso de individualización. Sin embargo, los verbos no son los únicos elementos lingüísticos que pueden servir a la función predicativa: tb los adjetivos, conjunciones, adverbios, e incuso los nombres (proposiciones nominales).
Ejemplo de cómo las conjunciones juegan éste papel. Destaca otro principio del modelo que es que se trata de un sistema recursivo, en el que las propias proposiciones pueden jugar un papel de argumentos de potras proposiciones.
“Maria es tonta si engaña a Juan”, se representa pro las 3 proposiciones:
Los argumentos de la primera proposición son a y b, es decir, las otras 2 proposiciones.
Diferencia esencial entre la red proposicional de la TDC de Schank, y la lista de proposiciones a partir del que se formaría el texto base del modelo de Kinstch:
En la representación del modelo de Schank se incluyen inferencias, mientras que éstas no forman parte de la lista de proposiciones que forman la microestructura del texto base.
“Las inferencias no forman parte del texto base, sino que pertenecen a un nivel de análisis diferente, no textual: el modelo de situación. Las inferencias… pertenecen al modelo de situación construido con ayuda del texto base y desconocimiento. Por tanto, lo que se infiere no son proposiciones del texto base, sino vínculos en el modelo de situación”.
Sin embargo, el hecho de que el texto base no contenga inferencias, no significa que no tenga alguna clase de coherencia y organización. Por el contrario, en el plano del texto base se establece ya un primer nivel de estructura denominada “microestructura”, que constituye un requisito para la coherencia del texto, y determina el nivel jerárquico de las proposiciones del texto base.
MICROESTRUCTURA Y REGLA DE REPETICIÓN DE ARGUMENTOS
En una primera aproximación, Kinstch establece que, el mecanismo por el que se define la microestructura del texto base, consiste en el establecimiento de relaciones entre proposiciones que comparten argumentos comunes (coherencia referencial: comparten los mismos referentes), según una regla de repetición.
La regla de repetición establece que los argumentos que se repiten en el texto base son idénticos (a no ser que se señale explícitamente lo contrario), y permite ordenar objetivamente las proposiciones del texto base, asignándolas a distintos niveles jerárquicos.
Para Kinstch, “las proposiciones que contienen argumentos repetidos se dice que están subordinadas a aquella proposición en que apareció originalmente el argumento”.
Sin embargo, la aplicación mecánica de éste principio, puede llevar a errores, si el término “originalmente” se entiende en un sentido temporal.
En realidad, para definir la jerarquía, debe establecerse primero intuitivamente una proposición subordinada, y luego, construir el texto base, sometiendo a ella todas las que comparten un argumento, y a éstas, aquellas que comparten otro argumento con ellas, pero no con la primera, etc.
Si se hace ésto, las estructuras predicen muy bien el recuerdo.
(Ver ejemplo p 487)
Las proposiciones del texto base tendrán mayor relevancia psicológica (más influencia en la comprensión y el recuerdo), cuanto más alto sea el nivel que ocupan en a jerarquía proposicional de niveles.
LAS PROPOSICIONES COMO UNIDADES DE PROCESAMIENTO PSICOLÓGICO Y EL EFECTO DE NIVELES
Uno de los rasgos que más caracterizan al enfoque cognitivo, en el estudio psicológico del lenguaje, es el empleo de formalizaciones, de las que las proposiciones son buenos ejemplos.
Pero, las formalizaciones sólo son útiles en psicología, cuando predicen o simulan la conducta, es decir, cuando permiten explicar algo, que sin ellas, resultaría inexplicable.
Por eso, son importantes las investigaciones que demuestran el valor de las proposiciones como unidades psicológicas.
Se han empleado 5 PARADIGMAS EXPERIMENTALES:
Si se emplean ciertas palabras del texto como claves para recordar otras (como hace Kinscth), las claves pueden ser más eficaces si representan conceptos incluidos en la misma proposición que la palabra que debe recordarse, y menos eficaces cuando pertenecen a proposiciones diferentes.
Ejemplo: “La pirámide que levantó el faraón dominaba la plaza”
En el texto de superficie, la palabra “dominaba” está más cerca de “faraón” que de “pirámide”. Sin embargo, en el texto base, el concepto que corresponde a esa palabra (DOMINABA), está en la misma unidad que el concepto PIRAMIDE, y en distinta que el concepto FARAON: [DOMINAR, A: pirámide, O: plaza (PIRAMIDE, x) (LEVANTAR, A: faraón, P: x)].
Si las proposiciones son unidades psicológicas de significado, es de esperar que, en el recuerdo del discurso, tiendan a recordarse completas, como totalidades (independientemente de su familiaridad o plausibilidad semántica).
Experimento de Goetz, Anderson y Schallert:
Presentaban a los sujetos bloques de 8 oraciones que tendrán que leer y recordar inmediatamente después. 3 contenían 1 sola proposición, 3 incluían 3 proposiciones, y las otras 2 jugaban una “papel de retén a corto plazo”.
Resultado:
La gran mayoría (94%) de las palabras que se recordaban de las oraciones con 3 proposiciones, se incluían en proposiciones que se recordaban completas (y no solían recordarse palabras fuera del contexto de la idea completa a cuya expresión contribuían).
Experimento de Ratcliff y McKoon: Leían a sus sujetos bloques de 4 oraciones, y luego les presentaban palabras, incluidas en ellas o de distracción, que tenían que reconocer, lo antes posible, como presentadas o no en las oraciones.
Resultados:
Cuando la palabra que se reconoce sigue a otra ya reconocida, de la misma oración, los sujetos tardan menos en reconocerla como presentada que si las palabras pertenecen a oraciones diferentes (el efecto de facilitación es de unos 100 msg).
El efecto era mayor cuando la palabra de priming (o concepto a que alude) y la palabra reconocida pertenecían a la misma proposición (111 msg), y menor cuando pertenecían a proposiciones diferentes, aun cuando formasen parte de la misma oración (91 msg).
Si las proposiciones son realmente unidades psicológicas, su procesamiento debe consumir recursos cognitivos, y, el aumento de recursos cognitivos, debe traducirse en aumento de la dificultad de ciertas actividades como el recuerdo, el reconocimiento o la lectura.
Experimento de Forster:
Los sujetos repetían más palabras en las oraciones de una sola proposición que en las de dos.
Ejemplo:
Les resultaba más fácil seguir una oración como “El gatito se saltó la valla” [con una proposición: (SALTAR, gatito, valla)], que otra como “El gatito de Susana se escapó” [con dos proposiciones: (ESCAPARSE, gatito (SUSANA, gatito)], a pesar de contener las mismas palabras (6) y el mismo ritmo de presentación.
Una explicación: El procesamiento de las proposiciones interfiere con la tarea de seguimiento.
Las investigaciones mencionadas, confirman la influencia de las proposiciones en el recuerdo y en el reconocimiento, pero no demuestran que intervengan en la comprensión del discurso.
El experimento de Forster, sugiere que hay una interferencia entre la comprensión y la tarea de seguimiento, pero aún hace intervenir un cierto componente de memoria. Para demostrar la influencia psicológica de las proposiciones en la comprensión, es necesario eliminar el intervalo temporal que permite la intervención de factores de memoria, en especial de la MLP.
Las VDs en estos estudios pueden ser los movimientos oculares o el tiempo dedicado a leer un texto.
Si el procesamiento de proposiciones consume recursos cognitivos, y los recursos consumen tiempo, el tiempo que se tarde en leer un texto dependerá del número de proposiciones que contenga.
Kintsch y Keenan, pedían a sus sujetos que leyeran textos, que tenían aproximadamente la misma longitud, que apretaran un botón al terminar la lectura, y que trataran de recordarlo lo mejor posible (no necesariamente de forma literal). Los textos variaban en el número de proposiciones que contenían sus textos base.
Resultados:
Las proposiciones se codifican en el proceso de compresión.
Cuantas más proposiciones eran capaces de recordar, mayor era el tiempo de lectura. Existía además una relación lineal entre el tiempo de lectura y el número de proposiciones.
Esto ha sido confirmado en otros estudios, incluyendo textos largos y controlando el número de argumentos o términos conceptualmente nuevos, factor que no se tuvo en cuenta en el experimento de Kintsch y Keenan.
Sin embargo, aunque Graesser et al, y otros, confirmaron tb la existencia de ésta relación lineal, el número de conceptos nuevos se mostró influyente, factor que habría contribuido a sobreestimar la relación.
Con independencia de la magnitud temporal, se puede ofrecer una base sólida para defender la idea de que las proposiciones son psicológicamente reales.
Recientemente, se han demostrado anomalías que socavan los hallazgos previos, al utilizarse una variante de la técnica de la “ventana móvil”.
La variable que se mide es el tiempo dedicado a la lectura de cada palabra, y no el tiempo de lectura de texto.
Con ésta técnica, Haberlandt y Graesse demostraron que el número de proposiciones no ejerce influencia en el tiempo de lectura de cada palabra.
Posibles explicaciones:
En cualquier caso, los resultados con la ventana móvil, no son suficientes como para descartar el otro conjunto de pruebas.
EL EFECTO DE LOS NIVELES
Los niveles jerárquicos de las proposiciones, en los textos base, tienen efectos claros en el procesamiento y la retención de información textual.
Las proposiciones no se recuerdan todas por igual, o no se procesan con la misma profundidad. Existe una propensión a recordar lo importante, olvidando lo accesorio.
Esto ha sido confirmado en investigaciones, en que se medía el nivel jerárquico de las proposiciones componentes de textos, y se medía después su nivel de recuerdo o reconocimiento.
En el experimento anterior de Kintsch y Keenan, además de encontrar a relación lineal entre el tiempo y las proposiciones, encontró que el recuerdo de las proposiciones dependía claramente de su nivel en la jerarquía proposicional de los textos base (las proposiciones del nivel 1 se recordaban en más del 90% de los casos, y el recuerdo descendía hasta alrededor del 60% en las proposiciones del nivel 5).
Este efecto se ha demostrado tanto en párrafos breves como en textos largos de 60-70 palabras, en situaciones de recuerdo libre inmediato y demorado, y de reconocimiento demorado.
Divergencias en cuanto a la INTERPRETACIÓN TEÓRICA del efecto de niveles:
Explicación clásica de Kintsch y van Dijk:
Establece una relación entre el efecto de niveles y la regla de repetición.
Según su modelo de procesamiento, la comprensión tiene lugar “en curso” (on line) del procesamiento de los datos de entrada, gradualmente.
El carácter “en curso” del procesamiento, establece limitaciones claras de recursos asignables por parte del sistema cognitivo: limites de atención y de memoria a corto plazo, que son especialmente importantes.
Cuando el texto de superficie es relativamente largo, el sistema cognitivo tiene que ir elaborando “trozo a trozo” el texto base; Además, el “retén de memoria” solo puede mantener simultáneamente un cierto numero de unidades semánticas, para incorporar las nuevas proposiciones del texto base.
Así, por cada ciclo de procesamiento se seleccionan, con una estrategia de “retener lo superior”, sólo algunas de las ideas previas del texto. A medida que el proceso transcurre ciclo a ciclo, las proposiciones del nivel más alto tienden a repetirse más, al seguir siendo seleccionadas una y otra vez, para retenerse en la memoria operativa.
Hipótesis de la accesibilidad representacional (McKoon):
Las ideas supriores se recuerdan mejor porque sus representaciones mentales, ocupan un lugar prominente en la memoria (en que las proposiciones tendrían tb una organización jerarquizada), y son más accesibles al estar mejor integradas.
La hipótesis predice que las ideas principales deberán olvidarse menos y recuperarse más rápidamente que las secundarias (ésta segunda predicción no parece cumplirse).
Hipótesis de la reconstrucción inferencial (Graesser y Nakamura):
Las inferencias son tanto más probables en relación con las ideas del texto, cuanto más importantes son: el sistema cognitivo tenderá a incorporar esas ideas principales a su propia estructura de memoria permanente. Esto explicaría la mayor probabilidad de recuerdo de las proposiciones superiores en la jerarquía del texto base, así como que éstas sean más susceptibles de intrusiones o de falsas alarmas (oraciones reconocidas como presentadas, cuando no lo fueron en realidad, y que contienen las “ideas principales del texto”).
Esta hipótesis pude explicar una parte del efecto de niveles, dado que la memoria del significado tiene un carácter esencialmente reconstructivo.
Sin embargo, los procesos inferenciales que intervienen en la comprensión (y no solo los relacionados con la memoria), tb ejercen influencia en el efecto de niveles, como demuestra el hecho de que las “falsas alarmas” en el reconocimiento, no implican necesariamente tiempos de respuesta mayores que los reconocimientos correctos.
El efecto de niveles, ¿es solo un fenómeno de memoria o como supone la hipótesis clásica de reconstrucción inferencial, constituye tb un fenómeno de comprensión?:
Aparte de la intervención de factores de memoria, la influencia de la importancia de las ideas, se demuestra ya en los mismos procesos de comprensión.
Un reflejo de esto es que:
Cirilo y Foss proponen que el efecto de niveles puede explicarse por el hecho de que las ideas superiores consumen más recursos de atención que las otras.
MACROESTRUCTURAS Y TEMAS
COHERENCIA LOCAL Y COHERENCIA GLOBAL
Comprender el discurso no consiste sólo en detectar las ideas que contiene, y establecer la coherencia local entre ellas.
La comprensión es un proceso activo que se basa en el supuesto de que los textos tienen un significado global, identificable, con lo que llamamos tema, y que no consiste en la suma o agregación de las ideas moleculares (o microproposiciones).
Comprender el discurso no es sólo convertir las representaciones oracionales en representaciones proposicionales. A lo largo de la comprensión, las ideas son activamente sometidas a procesos de abstracción, depuración y elaboración, que permiten asignar al texto una coherencia global.
Las nociones de tema, macroestructura y coherencia global, están estrechamente relacionadas, y remiten, a 2 supuestos importantes para explicar la comprensión del discurso:
La coherencia local no asegura la coherencia global en el texto, pero puede suceder que sean globalmente coherentes textos cuya coherencia local es difícil de establecer.
LA NOCIÓN DE MACROESTRUCTURA
Organización de significado que representa los aspectos esenciales o globales de un texto, por medio de unidades denominadas macroproposiciones (diferentes de las microproposiciones que componen el texto base).
Lo que tienden a recordar los sujetos, cuando intentan acordarse de un texto, es la macroestructura, como demuestra el efecto de niveles.
¿Qué tenemos en la mente al recordar y comprender textos o discursos?:
Tenemos muchas más ideas de las que se expresan en los textos base (comprender implica inferir ideas no dichas o escritas), pero también muchas menos (comprender exige olvidar y abstraer lo esencial de lo accesorio).
Desde ésta perspectiva, la comprensión puede entenderse como un proceso que permite elaborar la macroestructura del texto a partir de su microestructura.
Este proceso de elaboración se guía por MACRORREGLAS: reglas de proyección semántica que relacionan proposiciones de nivel más bajo (microproposiciones) con otras de nivel más alto (macroproposiciones), para derivar el significado global de un episodio o un discurso completo, a partir de los significados locales de las oraciones que contiene.
3 macrorreglas esenciales:
El efecto de la aplicación de éstas reglas, es la elaboración de una estructura mucho más económica que la del texto base (que contiene menos proposiciones).
Así, la comprensión de textos, se guían por principios de economía cognitiva y abstracción suficiente, semejantes a aquellos por los que se rigen los procesos de razonamiento.
La abstracción de la macroestructura no se produce post hoc, sino que es un proceso gradual, que acontece durante la recepción del texto.
La derivación de la macroestructura, no sólo se realiza en función de la microestructura, sino tb en función de los esquemas, organizados en la memoria permanente, que las personas poseemos → El discurso constituye el punto de sutura entre el conocimiento del lenguaje y del mundo).
Por tanto, la construcción de la macroestructura se guía “desde abajo” por las ideas explícitas del texto, y “desde arriba” por los esquemas acerca de la organización de los propios textos, y acerca de los mundos, reales o virtuales, a los que el texto remite.
En ese proceso de elaboración se hace precisa la utilización de relaciones de coherencia, que son mucho más fuertes e informativas que las puras asociaciones referenciales de la microestructura.
MACROESTRUCTURA Y ESTRUCTURA LÓGICA DEL TEXTO
La asignación de las relaciones de coherencia global, está determinada, frecuentemente, por conocimientos que posee el oyente, y que se presuponen en el texto sin hacerse explícitos.
5 grupos de relaciones frecuentes en textos expositivos:
La macroestructura se corresponde con la estructura lógica del texto.
En la perspectiva de Meyer, comprender un texto equivale a extraer su estructura lógica esencial.
Meyer y cols, han demostrado que los sujetos que comprenden un texto, lo recuerdan después como una “lista” de proposiciones con escasa estructura, mientras que los más capaces de comprenderlo, recuerdan bien sus “relaciones lógicas inherentes”: las relaciones de las que depende la coherencia global del texto.
Pero, ¿hasta qué punto es necesario recurrir a las macroestructuras para explicar la comprensión?.
FACTORES DE PROCESAMIENTO MACROESTRUCTURAL
Si el mayor número de lectura de representaciones de ideas superiores, se relaciona con procesos de tipo macroestructural, entonces éste fenómeno dejará de darse cuando se dificulten o impidan tales procesos.
Esto puede hacerse manipulando las instrucciones que se dan a los sujetos, sobre la tarea experimental a realizar: pedirles, pe, que lean un texto para detectar los errores ortográficos (en vez de que comprendan su significado esencial).
Schmalhofer y Glavanov: las frases que corresponden a proposiciones superiores, exigen más tiempo de lectura, sólo cuando se induce un procesamiento macroestructural del texto. En caso contrario, la diferencia entre proposiciones superiores e inferiores desaparece.
3 tipos de variables, condicionan el grado en que se elabora la macroestructura del texto:
Los textos bien organizados facilitan el procesamiento macroestructural, mientras que los más vagos y azarosos, lo dificultan.
El efecto de niveles sobre l recuerdo y el tiempo de lectura desparece cuando se neutraliza la influencia de la estructura textual.
La elaboración de la macroestructura se hace más probable, cuando se plantea, pe, el objetivo de resumir o esquematizar un texto, y menos, cuando se trata de detectar algún aspecto superficial.
Los propósitos prototípicos de la lectura y escucha de textos y discursos, son inductores claros de procesos macroestructurales.
Los sujetos expertos retienen mejor las ideas más relevantes que los novatos, y la diferencia entre unos y otros no resulta ser significativa, en el caso de ideas de niveles inferiores.
Posibilidad de emplear procedimientos de instrucción de estrategias macroestructurales, para manejar las capacidades de comprensión de los menos competentes.
León, utilizó el modelo de macroestructura de Mayer, para realizar un programa de instrucción de alumnos de ESO. Los sujetos instruidos, demostraron después que eran capaces de recordar mejor que los no-instruidos, los aspectos macroestructurales, como las macroproposiciones y las estructuras lógicas esenciales de un texto.
EL TEMA Y SU RELEVANCIA PSICOLINGÜÍSTICA
El núcleo de la macroestructura del discurso es el TEMA, que puede identificarse con la macroproposición que ocupa el lugar más alto de la jerarquía de la macroestructura.
Una forma útil de entender el discurso, es concebirlo como una actividad cooperativa, que gira alrededor de un tema.
El tema de un discurso no es reductible a los temas de las ideas que contiene. Sirve de guía para abrir la “memoria permanente” donde encontramos un conjunto organizado de conocimientos, de esquemas o guiones, que nos permiten interpretar el texto. Además, el tema es tb como un “ancla” al que se anudan las ideas del texto.
El tema cumple la doble función de:
El supuesto implícito de cooperación, en el que se basa toda actividad discursiva, establece la conveniencia de marcar el tema con ciertos recursos lingüísticos:
Otros recursos:
Estos recursos tienen una influencia demostrada en a comprensibilidad del discurso.
La explicitación del tema facilita la integración, y por consiguiente, la comprensión y el recuerdo del discurso.
Su ausencia, da lugar a un nivel bajo de recuerdo.
Explicaciones:
La primacía cognitiva del tema del discurso, se deriva de los mismos factores que permiten explicar el efecto de niveles, al ser el tema, la proporción que ocupa el lugar más alto de la jerarquía macroestructural.
La conectividad, es la cantidad de conexiones que cada proposición mantiene con otras del texto base, cuando en éste se incluyen las inferencias necesarias para la comprensión. Algunos sugieren que la importancia temática de una proposición es mayor cuanto mayor sea su conectividad.
La frecuencia de mención de ideas es, muchas veces, indicador de su conectividad.
El grado de pertenencia de una idea a la cadena principal del discurso, es tb un indicador preciso de la importancia temática.
En todo discurso, hay ideas que se insertan en un marco general de relaciones centrales, y otras ideas, que terminan en “puntos muertos” (no se continúa la cadena referencial). Las primeras, ocupan un puesto temático más central, son evaluadas como más importantes por las personas que comprenden los textos, y se recuerdan mejor.
COMPRENSIÓN Y CONOCIMIENTO: LOS ESQUEMAS
La abstracción de la macroestructura del discurso, y la comprensión de su significado esencial, dependen, por una parte, de ciertos conocimientos implícitos sobre la estructura abstracta del discurso y, por otra, de un amplio conjunto de conocimientos sobre Edmundo.
Los conocimientos generales sobre el mundo que intervienen en la comprensión, también están organizados en ESQUEMAS: estructuras cognitivas genéricas de alto nivel, jerárquicas e interconectadas, que contienen conocimientos prototípicos.
Ejemplo: Un esquema simple como “VENDER”, contiene ciertos personajes (VENDEDOR Y COMPRADOR), ciertas acciones (TRANSFERIR BIENES, DINERO), y ciertas metas (OBTENER BENEFICIOS, PROPIEDADES, ECT).
Los esquemas serían instrumentos esenciales de inferencia, que permitirían explicar el carácter tácito, de la mayor parte de las proposiciones implicadas en la comprensión.
Cumplen funciones de:
Cuando no se activan los esquemas temáticos correspondientes a un texto, las relaciones que aparecen en él resultan inconexas, y el texto carece de coherencia global.
Bransford y Johnson, demostraron el papel decisivo de los esquemas en la comprensión y el recuerdo de textos.
Los esquemas intervendrían en la codificación, definiendo el significado de ciertos elementos textuales, relacionando unos elementos con otros, y permitiendo que la comprensión sea, una actividad predictiva, y no sólo postdictiva.
Los esquemas activados en cada proceso de comprensión, anticipan información previsible y preorganizada, en una estructura molar y organizada de conocimiento. Así, la noción de esquema constituye un recurso para expresar el carácter de “arriba abajo” (top-down), que tienen muchos de los procesos esenciales de comprensión del discurso.
Se han realizado diversas tipologías de los esquemas:
ESQUEMAS SITUACIONALES O GUIONES:
Han jugado un papel importante en la teoría de la dependencia conceptual de Echan.
Guiones: Paquetes de información relativos a situaciones convencionales (“ir a un restaurante”), que incluyen secuencias estereotipadas de acciones, secuenciadas con arreglo a relaciones de causalidad o mera contigüidad.
Los guiones pueden encajarse unos en otros, siendo más o menos específicos.
Los guiones han sido recursos importantes para el desarrollo de sistemas artificiales de simulación de la comprensión del lenguaje.
Su papel de integración es necesario para explicar la coherencia global de las unidades textuales o discursivas, y para explicar el mejor recuerdo de los párrafos globalmente coherentes, debido a que éstos se constituyen en unidades cognitivas mas abarcativas, que configuran elementos o paquetes informacionales (chuncks) económicos, y que pueden integrarse profundamente en la estructura de conocimientos de propio sistema.
Black y Bower han demostrado, que los episodios basados en guiones, se tratan como chuncks, en tareas de memoria. Los guiones se recuperan de la memoria como unidades (chuncks), y el tiempo de recuperación es independiente del número de acciones de que se componen.
Los guiones configuran estructuras canónicas, de forma que, cuando las acciones de un guión se presentan desordenadas, el sistema cognitivo tiende a reordenarlas con arreglo a su orden canónico. Tales estructuras canónicas permiten anticipar información, y determinan el curso del procesamiento.
CRÍTICAS PRINCIPALES A LA NOCIÓN DE “GUIÓN Y “ESQUEMA”:
Es posible la comprensión de discursos que no se corresponden con ningún guión.
Los guiones no bastan para la comprensión, y conviven con reglas generales de inferencia, que pueden permitir procesar e discurso aun en ausencia de esquemas generales.
Su inflexibilidad.
La actividad de comprensión parece más versátil que lo que sugiere una aplicación rígida de esquemas.
Una solución tentativa propuesta por Rumelhart: Los esquemas serían configuraciones de coaliciones de unidades en redes, que se instanciarían al alcanzar éstas estados estables, con arreglo a principios de equilibrio inherentes a las redes conexionistas. Estas configuraciones poseerían un grado de flexibilidad mucho mayor que el de los esquemas clásicos.
Recientemente, Kintsch incorpora tb la filosofía conexionista a los modelos de procesamiento del discurso, proponiendo que éste depende mucho más de mecanismos de “abajo a arriba” que lo que habían propuesto los modelos clásicos de esquema.
El procesamiento del discurso implicaría una primera fase estrictamente bottom-up de activación, en una red de unidades moleculares, de significados de palabras, y la evocación automática de proposiciones e inferencias, que en una segunda fase serían seleccionadas y refinadas, en función del contexto activado en la primera fase (recuerda a los modelos autónomos de procesamiento léxico).
MODELOS MENTALES Y ESCENARIOS EN LA COMPRENSIÓN DEL DISCURSO
La comprensión del discurso tb implica la definición de modelos, de carácter específico, acerca de los referentes concretos del discurso.
Tales modelos referenciales se han denominado: “escenarios”, “modelos mentales”, “modelos de situación”.
La idea común: la comprensión del discurso se guía, desde fases muy tempranas, por representaciones acerca de las situaciones a que éstos se refieren, más que por representaciones de los propios discursos (cuando comprendemos textos, construimos, lo antes posible, ciertos escenarios mentales de las situaciones definidas).
Los escenarios iniciales, delimitan el procesamiento posterior del discurso, y éste, a su vez, permite precisar y completar los propios escenarios o modelos mentales (coherente con la intuición fenomenológica que se produce en la comprensión del discurso: la impresión de formar simulacros de lo que dice el discurso, de “estar construyendo mentalmente una situación”).
Diferencia entre las teorías proposicionales clásicas de la comprensión del discurso y las teorías de los modelos mentales:
Semejante a la que existe entre los modelos autónomos y los interactivos del procesamiento léxico y de oraciones.
Así, tienden a diluir la importancia de los procesamientos macrolingüísticos de elaboración discursiva, propuestos por las teorías más “autónomas” del procesamiento del discurso (teorías proposicionales clásicas como la de Kintsch), que proponen la intervención de los modelos mentales a una fase posterior, y se atienen más a modelos estrictamente “lingüísticos” de explicación del discurso.
Sanford y Garrod definen los escenarios como redes de información, que se recuperan de la MLP desde una entrada lingüística, y que pueden variar mucho en su grado de precisión y complejidad.
PROPIEDADES DE LOS MODELOS MENTALES:
LAS CRÍTICAS PRINCIPALES se derivan de la falta de precisión y elaboración que poseen:
Sanford y Garrod, han resumido las pruebas experimentales favorables a las teorías de escenario.
La metodología empleada consistía en presentar, en una pantalla, textos autoadministrados a los sujetos, que éstos debían leer, oración por oración, asegurándose de haber comprendido cada una antes de pasar a la siguiente (tarea de lectura a ritmo personal).
Este método permite determinar el tiempo empleado en la comprensión de cada oración, y ha resultado muy útil para demostrar varias predicciones importantes de la teoría de escenarios, a saber:
INFERENCIAS DISCURSIVAS Y TEXTUALES
Todo texto o discurso puede concebirse como una especie de compromiso entre un conjunto de información codificable y otro conjunto inferible.
Este hecho, justifica la importancia creciente de las INVESTIGACIONES destinadas a determinar la naturaleza, el momento de realización, y el carácter computacional de las inferencias realizadas en la actividad de comprensión del discurso.
Tales investigaciones se articulan alrededor de varias DICOTOMÍAS básicas:
Distinción entre inferencias perceptivas y cognitivas (ver capítulo anterior).
Las INFERENCIAS COGNITIVAS se han clasificado de diversas formas. La más clara y simple diferencia entre:
Imprescindibles para vincular una unidad lingüística a otra inmediatamente anterior.
En “Emilio comenzó a cantar canciones regionales. Quité rápidamente el vino de su alcance”, es necesario establecer algún puente entre la primera y la segunda oración. Haviland y Clark las denominan “referencias puente”. Tb se llaman “implicaturas”. Las oraciones que exigen implicaturas tardan más en comprenderse.
Tb han recibido el nombre de “inferencias retrospectivas” (por implicar la relación entre una unidad lingüística y otra anterior).
Estas inferencias se realizan en las actividades de comprensión, e implican frecuentemente la evaluación de conocimientos generales, que reciben el nombre de “entinemas”. Pe, en “Pedro es cirujano. Pablo tambien es médico”, es necesaria la evaluación mental de la proposición “los cirujanos son médicos”.
Por tanto, la dificultad de comprensión de los inputs lingüísticos que implican inferencias puente, depende de la dificultad de acceso a los entinemas correspondientes a éstas y a la dificultad de evaluarlos.
Estas inferencias son necesarias para definir la coherencia del texto.
Más ligadas a la función de “rellenar lagunas”, y en general, implican el conocimiento de objetos, situaciones y relaciones que se dan en el mundo, y que se evocan en relación con los “escenarios” a que se refieren los textos.
En “El niño estuvo pesadísimo. Tardó una eternidad en tomarse la sopa”, la inferencia “con cuchara” es opcional en la comprensión de la segunda oración.
No está demostrado que éste tipo de inferencias se realicen durante los procesos de comprensión, y no en procesos posteriores de elaboración o recuperación de la información contenida en la memoria. Estas inferencias cumplen más bien una función de elaboración.
La actividad de comprensión no es un acto de “todo o nada”: Es posible comprender más o menos un discurso, y ello, depende mucho de las inferencias elaborativas.
EL CONTRATO DADO-NUEVO Y LA COMPRENSIÓN DEL DISCURSO
Importante distinguir entre la información dada y la nueva.
La comprensión del discurso implica procesos de acceso a la memoria y recuperación de información previamente poseída, asimilación de ideas nuevas a las dadas, definición de puntos de anclaje entre unas y otras, etc.
Las inferencias puente, pe, son procedimientos para asegurar ese principio esencial del discurso.
La estrategia del “discurso mínimo” (tendencia a dar solo la información relevante y no hacer explícita toda la necesaria para la comprensión), y en general, la naturaleza inferencial del discurso, pueden entenderse como concreciones de la estrategia entre lo dado y lo nuevo.
Del principio anterior se derivan muchos de los procesos que los receptores deben realizar en la comprensión del discurso.
Estos procesos tienen las siguientes finalidades:
Los procesos de comprensión y producción del discurso, especialmente en la conversación, pueden entenderse como actividades cooperativas realizadas por sistemas cognitivos, por medio de procesos compleja de elaboración de información nueva a partir de la previamente compartida.
Esta definición acentúa la estrecha dependencia que existe entre el componente receptivo y el productivo del lenguaje.
TEMA 8: LA PRODUCCIÓN DEL LENGUAJE
La producción del lenguaje ha sido, hasta hace muy poco, un proceso poco conocido (“pariente pobre de la psicolingüística”).
Las razones son de tipo metodológico, específicamente, debido a la dificultad de utilizar métodos experimentales, en el estudio de la producción del lenguaje.
Lo que el investigador debe abordar, en el estudio de la producción, es un proceso que solo es observable en su última fase. Tiene que explicar como se efectúa el paso de una realidad estrictamente representacional, psicológica y no observable, a una realidad lingüística y observable.
A diferencia de lo que ocurre en la comprensión, el investigador:
Sin embargo,
LA ACTIVIDAD DE PRODUCCIÓN DEL LENGUAJE COMO OBJETO DE LA INVESTIGACIÓN PSICOLINGUISTICA: UNA CARACTERIZACIÓN GENERAL
A pesar de las diferencias en el modo de hablar de las personas, todos realizan una misma forma de actividad, que puede caracterizarse de varios modos:
Todos expresan, con mayor o menor fluidez, algo que previamente conocen (un deseo, opinión, duda, etc.). Por tanto, durante la actividad del habla, los sujetos deben seleccionar el contenido de sus mensajes, a partir de representaciones previamente activadas o disponibles en su memoria de trabajo; es decir, deben llevar a cabo procesos atencionales, motivacionales y mnésicos de índole general e inespecífica de dominio.
Por tanto, la actividad del habla se asiente, en un primer momento, en procesos cognitivos o motivacionales (procesos o facultades mentales “horizontales”), que no son todavía lenguaje, en sentido estricto.
Posteriormente, y para que éste proceso resulte eficaz, tienen que utilizar combinaciones de signos, que puedan ser descifrados e interpretados adecuadamente, por sus interlocutores, es decir, construir oraciones significativas y gramaticalmente aceptables, y no series aleatorias de palabras.
Además de la participación de las facultades mentales “horizontales” y de la gramática, los sujetos hablan para algo.
Por tanto, hablar es, además e un proceso cognitivo y lingüístico, una actividad instrumental y de interacción social.
La producción del lenguaje, debe ser interpretada tb como un proceso comunicativo, con repercusiones sociales, y que está fuertemente influido y restringido por factores pragmáticos como:
(que no son de naturaleza lingüística, en un sentido estricto).
Resumiendo, en la producción del lenguaje intervienen 3 tipos de procesos (en la guía)
Planteada así, la producción del lenguaje, puede definirse como la actividad gracias a la cual, los sujetos pueden expresar contenidos e intenciones comunicativas, mediante la construcción de combinaciones regladas de signos lingüísticos.
¿qué procesos intervienen y permiten dar forma lingüística a nuestras ideas?. Las respuestas, a lo largo de la historia, han sido diversas:
Influencia de teorías asociacionistas.
Interpretación del proceso de la producción verbal de 2 formas:
Los enfoques dominantes eran los de inspiración lingüística y computacional.
Producción del lenguaje como un proceso de transformación de las estructuras profundas en estructuras superficiales. Además, las reglas gramaticales descritas en las gramáticas generativas, fueron consideradas como algoritmos potencialmente útiles para la explicación psicológica del proceso.
Influencia de los modelos cognitivos del PI.
Interés por el análisis de los tipos de representaciones y los mecanismos de cómputo subyacentes a la producción del lenguaje, y puesta en marcha de programas sistemáticos de investigación empírica, basados en la observación del habla espontánea, normal y desviada, de distintas clases de sujetos
Influencia de modelos conexionistas.
Interés en el estudio de procesos de lexicalización y organización fonológica de los mensajes.
Salvo las posiciones desarrolladas en los marcos asociacionista y conductista radicales, las explicaciones psicológicas de la producción del lenguaje han tendido a diferenciar distintos componentes funcionales o fases.
MODELO DE LEVELT (1989):
Los sujetos seleccionan el contenido comunicativo de su mensaje, la “idea”, “opinión”, “duda” o “deseo”, que quieren comunicar.
Engloba actividades o procesos de carácter intencional, aunque n necesariamente consciente, que implican, tanto la selección del contenido a comunicar, como la selección de la información relevante para su expresión y su ordenación en el propio mensaje.
Su resultado es la elaboración una representación o paquete de información llamado mensaje preverbal.
(Probablemente comienza antes de que el mensaje preverbal esté completamente definido).
La información seleccionada se traduce a un formato lingüístico.
Se configura el plan fonético o representación de la serie ordenada de unidades ligüísticas mínimas que componen la oración.
Implica ya la utilización de una gramática concreta.
Es necesaria cuando producimos el lenguaje externo dirigido a otros, pero no cuando lo dirigimos a nosotros mismos (lenguaje interno).
Las representaciones lingüísticas del plan fonético, son traducidas a un código o plan motor, que especifica y pone en marcha la secuencia de movimientos articulatorios que se han de realizar para la “producción del habla”.
La producción del lenguaje, requiere, según hemos visto, componentes de información y procesamiento muy distintos entre sí (comunicativos, motores, gramaticales, conceptuales, etc.). Pero, ¿Cuáles de esos componentes deben formar parte de una teoría psicolingüística de producción verbal?
Controversia entre funcionalistas y formalistas o contraste entre la tradición psicológica y la tradición lingüística.
POSICIÓN FUNCIONALISTA (Givón):
POSICIÓN FORMALISTA (Garrett):
Un criterio muy distinto diferencia entre otros 2 grandes tipos de modelos:
PROCESOS INICIALES DE LA PRODUCCIÓN DE ORACIONES: LA PLANIFICACIÓN CONCEPTUAL DE LOS MENSAJES
Desde una perspectiva cognitiva o mentalista, el inicio de la actividad de producción del lenguaje (fase de “planificación conceptual”), está ligado a la realización de una serie de operaciones no específicamente lingüísticas.
Estas operaciones, implican la concepción, por parte del sujeto, de un cierto significado (una representación sobre un determinado estado de cosas en el mundo) y de una cierta intención comunicativa (informar, preguntar…), que deben ser codificadas posteriormente, en un mensaje lingüístico.
Lo que el psicolinguista deberá explicar es cómo, una vez definida una intención o contenido comunicativo, el sistema cognitivo es capaz de realizar las operaciones que hacen efectiva su realización lingüística (no es de su competencia la explicación de las motivaciones que llevan al hablante a decidir o preferir comunicar un significado o una intención u otra).
De cualquier modo, el alcance exacto de las nociones de “planificación conceptual” o “definición de la intención comunicativa inicial”, resulta todavía poco nítido, porque, aunque es verdad que todo enunciado expresa un significado o intención comunicativa, no es verdad que cada significado o intención se realice mediante un único enunciado lingüístico.
El paso de la representación conceptual del mensaje a la formulación de los enunciados lingüísticos, no siempre es un paso directo.
Generalmente, las representaciones del significado global de los mensajes, no son más que representaciones de un texto-base en torno al que se va a estructurar el discurso, y, por eso, deben ser transformadas en representaciones más específicas. Sólo cuando tales representaciones son tan concretas que permitan conformar una proposición (predicar algo acerca de algo), están en condiciones de servir como entrada a los procesos de codificación lingüística propiamente dichos.
El formato proposicional es el mediador más directo de las funciones de conceptualización y codificación lingüística de las oraciones.
La representación proposicional de una oración, contiene información sobre las funciones o argumentos básicos de ésta, lo que permite la identificación de los “paquetes semánticos” que configuran la representación de la estructura fonética de la oración.
¿Cómo se elaboran éstas representaciones iniciales? Y ¿Qué tipo de información contienen?
LEVELT:
Procesos de planificación del discurso global:
Procesos que afectan a la elaboración de representaciones de los enunciados individuales:
Estos procesos se aplican ya de forma directa a la construcción de los enunciados individuales.
Son procesos responsables de perfilar las decisiones estructurales concretas, que se derivan de las decisiones anteriores:
El resultado final de la ejecución coordinada de los procesos de macro y microplanificación es la representación denominada “MENSAJE PREVERBAL” de la oración.
SCHLESINGER:
En un trabajo anterior al de Levelt, y enormemente influyente para los psicolinguistas del funcionalismo centroeuropeo, analizó tb las condiciones estructurales y funcionales de las representaciones preverbales, durante las fases iniciales de la producción.
Al mensaje preverbal de Levelt lo llama “MARCADORES DE ENTRADA” (input-markers” o “I-markers”).
Se ejecuta tb en parte mediante la aplicación de reglas de concordancia.
A diferencia de las reglas transformacionales de las gramáticas generativas, estas reglas se han de aplicar a los elementos individuales del mensaje, lo que implica, que la codificación lingüística de las oraciones se interpreta como un proceso serial, que exige la transformación de uno en uno de los componentes del I-marker, en componentes lingüísticos (sintagmas, palabras, morfemas, ect.).
Los marcadores de entrada de Schlesinger, y los mensajes preverbales de Levelt, constituyen representaciones funcionalmente intermedias entre los contenidos o intenciones seleccionados en la fase de conceptualización, y las representaciones sobre las que operan los procesos de codificación o formulación lingüística.
TEMA 9: LA PRODUCCIÓN DEL DISCURSO Y LA CONVERSACIÓN
INTRODUCCIÓN
La producción verbal implica, en alguna de sus fases, la realización de operaciones que se ejecutan de manera automática, y reflejan en su organización propiedades y restricciones de tipo gramatical.
Existe una estrecha relación funcional entre la fase de planificación conceptual de las oraciones y la planificación del discurso.
La producción verbal implica tb procesos que requieren la utilización de información semántica y pragmática, no estrictamente “gramatical”.
Los componentes de procesamiento que intervienen en la “producción del discurso” tienen por tanto, un carácter mixto: gramatical y extragramatical.
Son procesos que se sitúan en las “junturas” del pensamiento y del lenguaje, y que operan como un interfaz entre la actividad cognitiva inteligente, y la actividad lingüística propiamente dicha.
La forma más genuina de actividad lingüística humana es la conversación: producción e intercambio de series coordinadas de emisiones lingüísticas, por uno o varios interlocutores, en una situación comunicativa dada.
La producción del lenguaje es una actividad que presupone en el hablante la existencia de una intención de comunicar algo a alguien.
La participación en una conversación implica la coordinación de las emisiones.
Existen principios pragmáticos que regulan la participación de los hablantes en las conversaciones.
SOBRE LAS NOCIONES DE DISCURSO, CONVERSACIÓN Y TEXTO
El estudio de los fenómenos lingüísticos ha de vincularse científicamente a la de las situaciones de interacción comunicativa.
Interacción conversacional como caso paradigmático de interacción social.
Independientemente del paralelismo que puede establecerse entre las interacciones comunicativas y otras formas de interacción social, el uso comunicativo del lenguaje presenta 2 características:
Por tanto, la comunicación a través del lenguaje, puede verse como una forma de actividad compleja, cuya planificación y organización se desarrolla bajo restricciones tanto internas al sujeto (organización funcional del sistema de procesamiento lingüístico), como externas (demandas del contexto comunicativo).
El supuesto de que la conversación constituye la forma más básica y prototípica del discurso, no presupone que las conversaciones constituyan formas de actividad estructuralmente monolíticas.
Cabe asumir que:
Diversas conceptualizaciones de la conversación y/o discurso:
Al igual que los conceptos de conversación y discurso, la noción de “texto” (modalidad escrita), ha sido utilizada tb para expresar:
Los monólogos y los diálogos, poseen propiedades globales que los identifican como unidades en sí mismos:
PRODUCCIÓN DEL DISCURSO:
Conjunto de representaciones (semánticas, pragmáticas y gramaticales) y de procesos (cognitivos y lingüísticos), que subyacen a la planificación y emisión de series coordinadas de enunciados lingüísticos o textos, con propósitos comunicativos, en un contexto conversacional.
3 propiedades de los discursos que resultan pertinentes para una teoría psicológica de la producción:
PROPIEDADES BÁSICAS DEL DISCURSO: SU CARÁCTER INTENCIONAL Y COOPERATIVO
INTENCIONES Y DISCURSO
Austin llama “componente o fuerza ilocutiva de una emisión” a la intención comunicativa con la que se inicia o es realizada por una emisión lingüística.
“Actos de habla”: Emisiones que realizan intenciones comunicativas.
Los actos de habla, no proporcionan por sí mismos, claves de explicación psicológica, es decir de claves que informen de las representaciones y procesos mentales que posibilitan su realización eficaz.
Los teóricos de la I.A, al realizar una DESCRIPCIÓN COMPUTACIONAL DE LOS ACTOS DE HABLA, proporcionan alguna de éstas claves.
Para éstos, los actos de habla se consideran como casos prototípicos de “conducta orientada a metas”, que implican la construcción de planes, por parte del sistema inteligente. Los planes se conciben como representaciones que pre-especifican la secuencia de acciones que tal sistema debe realizar, para la consecución de la meta u objetivo.
3 núcleos computacionales básicos:
Los parámetros que permiten describir formalmente las acciones, y de los que depende su realización efectiva son:
Dado un estado inicial (I), y un estado-objetivo (O), un plan sería la secuencia de acciones que permiten transformar “I” en “O”.
Así, la producción de un discurso se puede concebir como la realización de una serie de acciones lingüísticas, planificadas por un sistema, para conseguir un objetivo comunicativo.
En los últimos años, se ha demostrado que actos de habla básicos (peticiones, producción de enunciados informativos), pueden ser modelados con éxito por operadores de éste tipo, es decir, como operadores de un sistema de planificación especializado en la consecución de objetivos no lingüísticos, a través de acciones lingüísticas.
Esto ha llevado al elaboración de programas de simulación capaces, tanto de definir y realizar lingüísticamente intenciones, como de reconocer e interpretar las intenciones codificadas en los actos de habla de otros.
SUPUESTOS más influyentes en la elaboración de teorías psicológicas de la producción de discursos naturales:
El conocimiento que los sujetos tienen del mundo es complejo y de tipo declarativo, y consta de 3 tipos de elementos:
Estos modelos incluyen, como mínimo, 2 tipos de componentes:
Funcionalmente, los actos de habla deben ser vistos, en opinión de los teóricos de la I.A, como operadores que afectan primariamente a los modelos que tienen los hablantes de sí mismos y del otro.
La deseabilidad no puede ser evaluada computacionalmente. Además, frecuentemente, los sistemas generan intenciones y objetivos incompatibles entre sí. Por eso, los sistemas se ven obligados a establecer una especie de equilibrio, compromiso o jerarquía funcional de objetivos.
El conocimiento consciente de los correlatos fenomenológicos de la intención o meta comunicativa constituye u aspecto irrelevante, desde el punto de vista de la caracterización computacional de los planes y de la explicación cognitiva de los procesos de producción de los discursos.
Los actos de habla individuales del discurso podrían ser vistos como sub-metas de un acto de habla global.
Algunos interpretan que los fallos, proporcionan al sistema información útil, para predecir las alternativas de acción más eficaces, en momentos o situaciones futuras.
La explicación de los mecanismos que regulan la selección de uno u otro plan, formaría parte de una teoría de actuación.
Aunque todavía no existe ninguna teoría de éste tipo, si existen intentos de identificar sus componentes. Entre ellos, uno se menciona frecuentemente y es que, la selección de final entre planes alternativos, se deriva de la evaluación que realiza el hablante de la probabilidad, de que su intención comunicativa, pueda ser reconocida o identificada adecuadamente, por el interlocutor.
Las conductas intencionales como la comunicativa, no sólo realizan intenciones, sino que tb las hacen manifiestas, lo que confiere un carácter ostensivo a las conductas comunicativas, tan importante como su carácter intencional primario, de cara a una caracterización computacional de los discursos.
INTENCIÓN COMUNICATIVA Y COOPERACIÓN ENTRE INTERLOCUTORES
La idea de que, la realización de las intenciones comunicativas, solo es eficaz cuando los hablantes generan actos de habla cuya intención puede ser reconocida por sus interlocutores, obliga a interpretar la producción de los discursos o conversaciones, como una actividad cooperativa, además de cómo una actividad intencional.
La interpretación de la producción de actos de habla, como actividades intencionales, sólo puede realizarse eficazmente, en ciertas condiciones de cooperación.
Esta no es una idea nueva en el ámbito de la investigación sobre el discurso. Ya, Paul Grice, desde la filosofía del lenguaje, había establecido un PRINCIPIO DE COOPERACIÓN, regulador de las estrategas de los hablantes y oyentes en sus intercambios lingüísticos, y lo había interpretado como un elemento potencialmente explicativo de la actividad lingüística.
El principio establece una recomendación a los hablantes:”Haz que tu contribución a la conversación, en el momento en que tenga lugar, sea del tipo requerido por el propósito o dirección del intercambio comunicativo en el que intervienes”.
Esta recomendación se desarrolla a través de 4 máximas: Cantidad, Cualidad, Relevancia y Modo, y ha dado pie a otras máximas (cuadro 14.2 pg 642).
El principio de cooperación, tiene un carácter sistemático, tanto para los hablantes como para los oyentes (los hablantes o cumplen o transgreden las máximas, no puede ocurrir que ni las cumplan ni las transgredían). Por eso, la trasgresión deliberada es un recurso expresivo potente, para optimizar la probabilidad de éxito de los actos de habla, en determinadas condiciones comunicativas (ironías, situaciones de engaño, etc.).
Este principio, resulta compatible con numerosas observaciones empíricas:
Desde el punto de vista teórico, ésta cooperación es necesaria, ya que los objetivos intencionales de los hablantes pueden no coincidir exactamente con los objetivos aceptados pro los otros interlocutores.
Todo esto permite interpretar que, la planificación de los actos de habla está determinada, al menos en parte, por las condiciones que inferencialmente se derivan del desarrollo del propio intercambio comunicativo (posibilidad de definir objetivos comunicativos puramente internos al discurso), y no sólo derivados de las intenciones comunicativas iniciales del hablante per se.
El modelo de Clark, desarrolla una propuesta de la explicación psicológica de la producción verbal, basad en la idea de Grice.
2 procesos distintos:
La noción básica que subyace a los principios de “presentación” y de “aceptación” es la de “CONOCIMIENTO COMÚN”.
Esta noción, refleja la creencia mutua de que, en los distintos turnos de habla, el oyente comprende lo que el hablante pretende comunicarle. Estas creencias, modifican las expectativas iniciales que cada uno de los participantes tenía, acerca de lo que podría ser una contribución aceptable del discurso en progreso.
El conocimiento común o compartido, procede de varias fuentes:
El “conocimiento común” incluye por tanto, información que comparten los dos interlocutores, pero tb, y sobre todo, presuposiciones de orden metarrepresentacional acerca de las creencias y expectativas mutuas que los interlocutores construyen en torno a ese conocimiento común.
Las predicciones empíricas, derivadas del principio de colaboración, se han visto confirmadas con claridad, en numerosos experimentos.
Se ha comprobado que:
Los discursos o las contribuciones a la conversación, no son nunca aceptables o inaceptables en términos absolutos, en el mismo sentido en que una oración es gramatical o no lo es: más bien, son apropiados o eficaces en un contexto concreto, y para unos interlocutores concretos Las condiciones de funcionalidad de los discursos frente a las de las oraciones, son cambiantes y situacionales. Los discursos son unidades “en uso” cuya elaboración, por los hablantes, no puede ser explicada al margen de los contextos físicos y sociales que acontecen.
EL DISCURSO COMO ACTIVIDAD QUE SE DESARROLLA EN UN CONTEXTO: PERSPECTIVA Y DEIXIS
La realización del discurso, por parte del sujeto, implica siempre un acto de enunciación, es decir, un acto de presentación lingüística en unas condiciones espacio-temporales y con una actitud concretas.
La información referida a esa presentación se marca lingüísticamente, a través de los indicadores de persona, espacio y tiempo: los términos deícticos, y a través de las modalidades de enunciación, que permiten identificar la actitud de certidumbre, duda, posibilidad, etc., que el hablante adopta respecto al enunciado.
Desde una perspectiva psicolingüística cognitiva, los aspectos contextuales del discurso, tienen tb interés a nivel teórico, pero sólo en la medida en que su análisis se conecte con un principio explicativo de carácter general, esto es, la suposición de que el conocimiento del contexto forma parte del conocimiento común en el que sustentan los recursos cooperativos, y que, por tanto, constituye un componente representacional necesario de los actos de habla.
Germain, interpreta como “contexto del discurso” 3 tipos de elementos:
CONOCIMIENTO SOCIAL DE LA SITUACIÓN, PERSPECTIVA Y PRODUCCIÓN DEL DISCURSO
Los componentes del conocimiento social, que hipotéticamente intervienen en la actividad discursiva, son bastante heterogéneos.
Sin embargo, estructural y funcionalmente, se pueden agrupar en 2 categorías:
Estos 2 tipos de representaciones dan pie a interpretar que la producción de discursos (igual que la comprensión), implica mecanismos de activación de esquemas de conocimiento social previamente adquiridos, pero tb mecanismos de elaboración, supervisión y actualización, de las representaciones relativas al contexto actual del discurso.
¿Cómo se puede demostrar la influencia del conocimiento social en la producción de los discursos?
Presentaron a los sujetos una pequeña película en la que se reproducía una interacción comercial entre un vendedor de coches y un cliente. Después, es pedían que narraran la escena desde la perspectiva del cliente y/o vendedor, y analizaron so textos en sus aspectos macro y microestructurales.
Obtuvieron efectos empíricos significativos explicables en función de la manipulación experimental de la variable “perspectiva”.
CONOCIMIENTO DEL CONTEXTO FÍSICO Y DEIXIS
El componente social, no es el único que configura e contexto cognitivos común del discurso.
Importancia del contexto físico en el que se generan los discursos, y el anclaje perceptivo que los discursos mismos poseen respecto a tales contextos.
Este anclaje se instrumentaliza lingüísticamente a través de os “términos deícticos”.
Las DEIXIS (en griego “mostrar” o “indicar”) expresa una función: la que conecta el discurso con su contexto físico y con la información que sobre éste contexto comparten el hablante y el oyente.
Gracias a la deixis, el oyente puede localizar e identificar referentes como personas, objetos, acontecimientos, y actividades que se mencionan en el discurso.
Tipos de deixis:
El desarrollo de las habilidades deícticas, al igual que el desarrollo de la mayoría de las actividades cooperativas, está estrechamente vinculado a la capacidad del sujeto para “des-centrarse” (en el sentido piagetiano) y para adoptar las perspectiva del otro, es decir, para elaborar modelos mentales o meta representaciones de los que el otro puede conocer o percibir, en cada momento del discurso.
De la misma forma, la falta de de desarrollo de ésta capacidad (autismo, esquizofrenia), se traducir en la realización de discursos que resultan incomprensibles y no cooperativos.
Levelt, llama la atención sobre el hecho de que el significado de los deícticos espaciales, se tiene que establecer en relación a un sistema de coordenadas que permita relacionar el referente con un punto previamente establecido del contexto (relatum).
Normalmente, el punto de referencia elegido por el hablante es él mismo: el sistema de coordenadas será tridimensional, compuesto por una dimensión vertical, y 2 dimensiones horizontales (delante/detrás y Dcha/izda), que suelen operar en espejo en las relaciones “cara a cara”.
Sin embargo, en otras ocasiones, el hablante utiliza un punto de referencia externo a sí mismo, o combina el relatum externo con sus propias coordenadas espaciales (“el libro está a la derecha del vaso”).
El carácter esencialmente egocéntrico de las deixis, no es un fenómeno exclusivo del lenguaje. En opinión de Graumann y Sommer, la experiencia perceptiva, la experiencia social y la experiencia cognitiva, tb participan de ese carácter egocéntrico.
La “egocentricidad” es una propiedad que se proyecta tb en el discurso, lo hace interpretable para el oyente, y, por tanto, funcional.
EL DISCURSO COMO ESTRUCTURA LINGÜÍSTICA SUPRAORACIONAL: COHESIÓN, COHERENCIA Y RELEVANCIA
El discurso no es una secuencia arbitraria e inconexa de emisiones.
Las emisiones lingüísticas producidas en contextos naturales, configuran unidades holísticas de acción, cuyas propiedades no son la suma de las propiedades de las unidades que las componen.
Se han acuñado distintos términos para dar cuenta de esa noción de unidad coherente sintáctica, semántica y/o pragmática (tema o tópico general del discurso, acto de habla global, macroproposición, etc.).
Esta propiedad tan distintiva de los textos, su textura o su textualidad, admite descripciones o caracterizaciones diversas.
COHESIÓN
Halliday y Hasan:
La posibilidad de que una secuencia de emisiones lingüísticas pueda ser interpretada como un texto, y no como un conjunto incoherente o arbitrario de enunciados, se deriva de la presencia, en la estructura superficial de éstos, de una serie de dispositivos lingüísticos o “vínculos de cohesión”, que relacionan y conectan unas oraciones con otras.
Cohesión: Conjunto de recursos que permiten vincular una oración con las que se han presentado antes (en el texto).
Incluyen: Marcas morfosintácticas especificas (mecanismos de coordinación, subordinación gramatical, concordancias, ect), y tb mecanismos como la elipsis, la referencia y las repeticiones léxicas.
Muchos autores, cuestionan la utilidad de una interpretación tan “centrada en el propio texto”.
La “textualidad” no es una propiedad que pueda ser interpretada solo por referencia a la existencia de relaciones gramaticales o semánticas dentro de un texto, sino que requiere la referencia a condiciones semánticas o pragmáticas (conceptuales). Requiere el recurso a un plano descriptivo más abstracto y menos lingüístico que la cohesión, esto es, un plano de coherencia.
LA COHERENCIA DE LOS DISCURSOS
- COHERENCIA LOCAL O SECUENCIAL
Existen ciertas relaciones locales entre las proposiciones individuales constituyentes de un discurso.
La naturaleza de éstas relaciones no cuenta con una definición unívoca.
Se ha vinculado al hecho de que las contribuciones de los hablantes en las conversaciones, están organizadas en pares adyacentes de actos de habla.
La noción de “par adyacente” fue propuesta para dar cuenta de la observación de que ciertas intervenciones de los hablantes parecen ser contingentes respecto a las intervenciones inmediatamente precedentes, y pueden ser predichas en buena medida a partir de ellas.
Algunos sugieren cambiar éste concepto por el de “intercambio comunicativo”, que, a diferencia de los pares adyacentes, constan prototípicamente de 2 movimientos:
Por ello, cabría esperar que las contribuciones de los hablantes a las conversaciones se rigen por una especie de principio de “búsqueda de satisfacción perlocutiva”.
Frente a éste tipo de interpretaciones, otros autores sugieren que el concepto de coherencia local debe expresar esencialmente la continuidad semántica que existe entre las emisiones que componen el discurso, y no tanto su dependencia pragmática.
Tal continuidad semántica (progresión temática de las oraciones del texto), se ha asociado en ocasiones con la repetición de ciertos elementos léxicos o referenciales individuales, pero, sobre todo con la conexión semántica entre proposiciones más o menos contiguas.
Según Hobbs, la toma de decisión del hablante, acerca del tipo de relación concreta que va a utilizar para conectar unos enunciados con otros, iría regida por un principio de “búsqueda de coherencia proposicional lineal”.
- COHERENCIA GLOBAL
Las relaciones proposicionales en el discurso (ejemplos representativos de interpretaciones centradas en la coherencia local), no garantizan completamente, ni la textualidad ni la interpretabilidad de éstos.
Es necesario apelar a categorías más abstractas aun, que permitan dar cuenta, tanto de la coherencia global de los textos, como de la capacidad de los hablantes para generarlos.
Una interpretación recurrente gira en torno al concepto de tópico o tema general del discurso:
Por tanto, según Van DijK, los tópicos serian unidades equivalentes a los resúmenes de la macroestructura semántica de los textos (“título del texto”), que se derivan inferencialmente, durante la producción de la intención o acto de habla global.
Así, la producción del discurso coherente se interpretaría como un proceso que exigen del hablante las siguientes operaciones:
Reichman, propone una interpretación de la coherencia global basada tb en la noción de tópico, aplicable, sobre todo, al análisis de los discursos dialógicos.
Los tópicos se ven como unidades semánticas abstractas que se desarrollan a través de una serie de “espacios de contexto”, cada uno de los cuales, agrupa aquellas emisiones o turnos de habla que tratan sobre un mismo objeto o evento.
Distingue entre “temas” y “eventos”, que permiten clasificar los espacios de contexto en función de su contenido (general en el caso de los “temas” y específicos en el de los “eventos”).
La capacidad para desarrollar un mismo tópico a través de una secuencia de emisiones o turnos lingüísticos, constituye, en éste modelo, una condición importante de la coherencia coversacional que debe ser respetada por los hablantes que pretenden que sus discursos sean coherentes.
Sin embargo, generalmente no giran en torno a un único tópico, sino que implican cambios de tópico.
Planalp y Tracy se preguntan por las condiciones en que los hablantes pueden cambiar de tópicos sin romper la coherencia de los discursos. Tales cambios parecen estar sujetos tb a distintas reglas.
Comprobaron empíricamente que:
Elaboraron una tipología de estrategias de cambio de tópico, a partir del supuesto de que tales transiciones, se rigen por principios similares a los descritos por Grice en su “máxima de relevancia” y por Clark y Haviland en su contrato de lo “nuevo por lo dado”.
Concluyó que:
- LA COHERENCIA COMO RELEVANCIA
Los trabajos anteriores constituyen una aportación interesante para una caracterización psicológica, no sólo lingüística, de la coherencia de los textos.
A partir de ellos puede decirse que:
La idea de que la coherencia de los discursos no es una propiedad intrínseca a los textos, sino que depende de las condiciones que vienen definidas por los estados de conocimiento y expectativas que los hablantes y oyentes comparten, sobre una determinada realidad psicológica.
Un texto coherente implica:
En ambos casos, el procesamiento de los discursos parecería regirse por un principio de búsqueda de relevancia, que implica la realización eficaz de operaciones inferenciales sobre el estado de conocimientos previos del interlocutor relativamente complejas (para Rivière, estas operaciones son de tipo deductivo).
La TEORÍA DE SPERBER Y WILSON, identifica la coherencia de los textos con su relevancia en un contexto cognitivo y comunicativo.
Toma su nombre de una de las máximas de Grice.
La Teoría de Sperber Destaca que:
Hipótesis del auditor fantástico de Sullivan: Todo discurso implica para el hablante, la realización de un “proceso de autocomposición” que implica la puesta a prueba de la utilidad informativa potencial de sus mensajes, a través del contraste de los mensajes planificados y todavía no emitidos con un “oyente supuesto” o “intelocutor imaginario”, que representa las necesidades informativas del interlocutor real.
Esta hipótesis, aplicada al ámbito de la comunicación humana, permite establecer predicciones empíricas similares a las derivadas del “principio de relevancia” de Sperber y Wilson.
Van Dijk piensa que, nociones como las de tópico o macroestructura, aunque son esenciales para dar cuenta de la textualidad y coherencia de los discursos, resultan por sí mismas insuficientes en una caracterización de la coherencia global.
Y eso lo dice porque, frecuentemente, los textos poseen un carácter esquemático, convencional y fijo, que es independiente de su contenido semántico, es decir, poseeen regularidades estructurales que permiten diferenciar distintos tipos de “formatos” (narraciones, ensayos, sermones).
A las estructuras que identifican los tipos o formatos globales, se les denomina superestructuras: representaciones abstractas de la organización del contenido de los discursos que se fijan culturalmente.
El respeto al orden cronológico de los acontecimientos en las narraciones, la presentación lógica de los argumentos en los discursos expositivos y procedimentales, etc., constituyen mecanismos de coherencia no ligados a l contenido semántico ni a la relevancia pragmática de los discursos, pero importantes en tanto en cuanto conectan a los discursos con formas generales y esquemáticas de representación del conocimiento, que facilitan a los oyentes la construcción de inferencias, y consiguientemente, la comprensión e interpretación de los discursos.
La influencia de “arriba abajo” que las superestructuras tienen sobre las macroestructuras, no ha sido descrita todavía en términos precisos, aunque ha dado pie a ciertas especulaciones sugerentes en relación con la conceptualización de las fases iniciales del proceso.
Dubitsky y Harris han demostrado que los formatos textuales (superestructuras) transportan por sí mismos contenidos ilocutivos que pueden influir y modificar la comprensión y los recuerdos de los textos.
Para probarlo, presentaron a los sujetos una misma información en 4 formatos discursivos distintos: narración, descripción, anuncio publicitario y conversación.
Resultados:
Los resultados no son muy concluyentes porque la investigación adolece de defectos formales.
PENSAMIENTO (2PP)
TEMA 3: PSICOLOGÍA DEL RAZONAMIENTO
INTRODUCCIÓN
El razonamiento es un proceso cognitivo básico, por medio del cual, utilizamos y aplicamos nuestro conocimiento.
Si no tuviéramos la posibilidad de hacer inferencias, el sistema de procesamiento humano, se vería obligado a depender de un conocimiento específico y puntual, ara cada una de las situaciones con las que se encuentra.
En líneas generales, se podría decir que, el razonamiento permite “pasar de una información a otra”, ya que, a partir del conocimiento sobre uno o más enunciados relacionados, podemos derivar otro enunciado o alcanzar una conclusión.
Ejemplo:
Si un compañero de trabajo nos comenta que su hijo de 8 años es más alto que su sobrino de 9, pero más bajo que su hija de 7, se pueden realizar varias inferencias.
No todas las inferencias son iguales:
Los enunciados a partir de los cuales razonamos reciben el nombre de premisas, y el enunciado que se deriva de los anteriores se denomina conclusión.
El conjunto formado por las premisas y la conclusión es el argumento.
LÓGICA Y RAZONAMIENTO
Es un procesamiento dirigido “hacia abajo”, es decir, que de lo general se llega a lo particular.
Se trata de un procesamiento “hacia arriba”, es decir, que de lo particular se llega a lo general.
Pero Skyrms, considera ésta distinción equívoca, y piensa que la diferenciación entre los 2 tipos de argumentos, no se determina por la generalidad o la particularidad de sus premisas o conclusiones, sino por las definiciones de validez deductiva y de fuerza inductiva.
De modo que sostiene que:
El conjunto de inferencias (deductivas e inductivas), puede definirse como la transición entre una o más proposiciones, en la que las premisas aportan una información, para poder alcanzar una conclusión.
Sin embargo, las conclusiones deductivas son tautológicas, es decir, sólo comprenden información que va expresada en las premisas (la verdad de las premisas garantiza la verdad de las conclusiones), mientras que las inductivas son probabilísticas, es decir, van más allá de esa evidencia (las conclusiones solo presentan un grado de probabilidad determinado).
RAZONAMIENTO DEDUCTIVO
El estudio de la deducción se centra en el análisis de los principios del razonamiento que son independientes del contenido sobre el que se razona, y que permiten alcanzar un razonamiento formalmente válido.
Desde Aristóteles, la deducción era el estudio de las conexiones entre proposiciones.
Proposición: Enunciado en el que se afirma o se niega algo, y en el que se establece una relación entre sujeto y predicado (pe, “Todos los A son B”).
Análisis de la deducción: Centrado en el establecimiento de las conexiones encadenadas de un Silogismo (argumento en el que la conclusión establece una nueva conexión entre proposiciones, a través de un término medio: “Todos los A son B, todos los B son C, luego todos los A son C”, siendo B el término medio que permite la conexión entre A y C), o grupo de silogismos por medio de la cópula “es”.
Esta nueva lógica matemática o LÓGICA DEDUCTIVA, emplea símbolos por analogía con las matemáticas, y analiza las relaciones y funciones entre las proposiciones, haciendo posible operar formalmente, sin contaminación de los contenidos.
Las proposiciones se representan por letras (p, q, r, s,), y los operadores o términos de enlace, por unos símbolos que determinan la forma de una proposición lógica.
La representación de los operadores son constantes y se corresponden con los términos “y” (), “o” (ν), “no” (¬), “si… entonces” (→), “si y solo si” (↔).
Los términos de enlace conectan 2 proposiciones, excepto el término “no” que actúa sobre una.
Para definir el operador que domina se utilizan paréntesis. De no haberlos, se entiende que el operador menos fuerte es el que corresponde con la negación (el condicional es el más fuerte).
Las proposiciones formalizadas reciben el nombre de fórmulas lógicas, y se corresponden con las premisas del argumento.
Las reglas de inferencia, permiten dar el paso lógico de las premisas a la conclusión. Cuando se dice que un argumento es válido se entiende que la conclusión es consecuencia lógica de las premisas, en el que cada paso se deduce por medio de una regla de inferencia.
Se puede saber si un razonamiento deductivo es válido, cuando a partir de premisas que son verdaderas, se sigue una conclusión verdadera, por la aplicación de reglas de inferencia.
Sin embargo, el conjunto de reglas de inferencia, no agota el número de inferencias válidas. Para tratar cada caso posible de inferencia proposicional, existe un método general que permite demostrar la validez del argumento: las tablas básicas de verdad (teorías de modelos, o método semántico).
Se asume que cualquier proposición, sólo puede tener 2 valores (verdadero o falso), y si una inferencia es válida, entonces, si las premisas son verdaderas, tb lo es la conclusión.
En las tablas de verdad, se asignan todas las combinaciones posibles de los valores de verdad de las proposiciones, premisas y conclusiones, y se busca si hay alguna combinación en las que las premisas sean verdaderas, y la conclusión sea falsa. Si no la hay, el razonamiento válido sería que las premisas y la conclusión son todas verdaderas.
EL RAZONAMIENTO INDUCTIVO
La validez de un argumento deductivo, es una cuestión de todo o nada; Sin embargo, en la INDUCCIÓN hablamos de fuerza del argumento, y esto es una cuestión de grado. Se enmarca en el concepto de probabilidad, que depende del apoyo empírico que aportan las premisas para alcanzar la conclusión.
Esto, ha provocado PROBLEMAS para la construcción de un sistema de lógica inductiva y su justificación respecto a la probabilidad epistémica.
La inducción asume la regularidad de los fenómenos observados, para poder explicar hechos ya conocidos o por conocer, pero, este supuesto no puede llegar a verificarse, porque no existe garantía de que después de un número x de observaciones, la conclusión sea más precisa, pues se desconoce el tamaño máximo del universo del acontecimiento sometido a observación.
El grado de fuerza inductiva esta determinado por la relación de apoyo que se establece entre las premisas y las conclusiones.
La probabilidad de las premisas y conclusiones se conoce como probabilidad epistémica, porque depende de nuestro conocimiento, y puede variar de una persona a otra y a lo largo del tiempo en la misma persona.
La LÓGICA INDUCTIVA se centra en el estudio de pruebas para medir la probabilidad inductiva de los argumentos, y en las reglas para construir argumentos inductivos fuertes.
Sin embargo:
Una posible solución a éste problema consiste en mostrar que la validez de del razonamiento inductivo se fundamenta en la uniformidad de la naturaleza, que supone que el futuro será semejante al pasado. Sin embargo, la naturaleza en algunos aspectos es variable.
Francis Bacon, propuso unas tablas de investigación, en las que a inducción procedía por exclusión o desestimación. Esta inducción por eliminación, supone la proyección de nuestras experiencias en forma de hipótesis experimentales.
La formulación de las reglas de la inducción, es una tarea más difícil que la deducción.
Si se asume que la naturaleza es uniforme en algunos aspectos, el problema está en determinar cuáles son las regularidades que se pueden proyectar a situaciones futuras, es decir, se necesitan reglas para identificar las regularidades que son proyectables, para lo que habrá que determinar qué aspectos de la naturaleza se suponen uniformes.
El análisis de la causalidad y el cálculo de probabilidades, constituyen 2 avances hacia el desarrollo de un sistema de lógica inductiva.
ANÁLISIS DE LA CAUSALIDAD:
Si se conocen las causas, se tiene control sobre los efectos, de forma que se puede producir una causa para obtener el efecto deseado, o eliminar una causa para prevenir un efecto no deseado.
David Hume propuso reglas para determinar la existencia de una relación causal, y fueron desarrolladas por Mill.
Los MÉTODOS de Mill, son procedimientos para determinar si una causa es suficiente, necesaria, o necesaria y suficiente, para producir un determinado efecto, siempre que se tenga información sobre la presencia o ausencia de otras causas potenciales, y de la presencia o ausencia del efecto bajo éstas situaciones.
Propiedad condicionada: La propiedad o el efecto que se analiza.
Posibles propiedades condicionantes: Las propiedades que son necesarias o suficientes de una propiedad condicionada.
Al igual que el método de variaciones concomitantes, éste método tb se interesa por la cuantificación.
Las inferencias inductivas se encuentran presentes en la categorización, comprobación de hipótesis, generalización y especialización, razonamiento causal, detección de contingencias, solución de problemas, aprendizaje, razonamiento probabilístico, toma de decisiones y en el razonamiento analógico para la solución de problemas y para el aprendizaje.
La lógica ofrece métodos y reglas o modelos normativos que establecen los criterios de un razonamiento deductivamente válido (Teoría de la lógica formal) o inductivamente fuerte (Teorema de Bayes), sin embargo, los resultados experimentales, han puesto de manifiesto que, en las distintas tareas de razonamiento deductivo e inductivo, existen sesgos y errores sistemáticos.
ERRORES Y SESGOS DEL RAZONAMIENTO
Los ERRORES DE RAZONAMIENTO se pueden clasificar en:
Los SESGOS O FALACIAS DE RAZONAMIENTO:
Tendencias sistemáticas que hacen que los sujetos consideren factores irrelevantes para el proceso inferencial.
Clasificación de Evans:
Estos 3 sesgos se encuentran a menudo estrechamente relacionados y resulta difícil su identificación. Por tanto, es preferible tratar el tema de los sesgos, en función del carácter externo o interno de los factores que inducen a error.
FACTORES EXTERNOS
Se consideran externos todos los aspectos de la información que son irrelevantes para el razonamiento, y que se encuentran vinculados con el impacto que ejerce la propia presentación de la información.
El sistema de procesamiento humano, tiene restricciones cognitivas (capacidad de memoria, y recursos de procesamiento limitados). Ante ésta restricción, el sistema tiene que seleccionar lo relevante para solucionar la situación que se le presente (en general, se alcanzas niveles de efectividad muy buenos). Este proceso de selección puede conducir a errores que, cdo son sistemáticos, se clasifican como sesgos.
Aspectos que sobresalen de los demás, y que crean un impacto sobre el sujeto, aunque no sean importantes (relevantes):
El error de “argumentación contra el hombre” pone de manifiesto la importancia que se concede a la fuente de información, independientemente de lo que se sostenga.
Cdo las premisas contienen al menos una premisa particular, la conclusión es particular, y en el caso contrario, será universal. Así mismo, cdo la premisa es negativa, la conclusión es negativa, y en el caso contrario, afirmativa.
Los sujetos tienden a obtener la conclusión del silogismo según se corresponda con el argumento con una de las 4 figuras.
Estos dos efectos se han encontrado en los silogismos categóricos.
Las respuestas de los sujetos coinciden con los enunciados del antecedente y consecuente del problema, en la versión abstracta de la tarea de Wason (pe, se presenta una regla como “si hay un cuadrado azul a la izda, entonces hay un círculo rojo a la dcha”, y se pide a los sujetos que comprueben si el condicional es verdadero o falso, a mayoría de las respuestas comprenden los 2 términos del enunciado: cuadrado azul y círculo rojo). Wason, interpretó éstos resultados como un sesgo hacia la confirmación.
Sin embargo, esto fue cuestionado por Evans y Lynch, debido a los resultados obtenidos con la negación de los términos (“Si hay un cuadrado azul a la izda, no hay un círculo rojo a la dcha” o “si no hay un cuadrado azul a la izda, hay un círculo rojo a la dcha”). En éste caso se observa que los sujetos eligen simplemente los términos que vienen mencionados en la regla (cuadrado azul y círculo rojo), pero no persiguen la confirmación de la misma.
Según Evans, el sesgo de emparejamiento pone de manifiesto la relevancia que adquieren los términos expresados en el condicional, y las dificultades que tienen los sujetos con la negación lógica y lingüística, mostrando en general una preferencia hacia el procesamiento de la información positiva.
FACTORES INTERNOS
Limitación asociada a la cantidad de información con la que puede trabajar el sistema. Cdo ésta información es abundante, el sistema se sobrecarga y la posibilidad de error es mayor.
La selección de la información adecuada tb va a depender de la facilidad con que se recupere determinada información.
Descrito por Tversky y Kahneman para los juicios en los que se pide la estimación de frecuencias (capitulo 8).
La disponibilidad dependerá de:
Si la información que es relevante, no se puede recuperar fácilmente (no está disponible), se cometen errores.
El hecho de tener disponible la información, tampoco garantiza que los sujetos la seleccionen.
Experimento de “el problema de los taxis”: los sujetos se fían más del testimonio que de los datos presentados (color de los taxis), por tanto, la información no sólo tiene que estar disponible, sino que el sujeto tiene que considerarla relevante para la situación que ha de resolver.
Se concede mayor importancia a la evidencia que es consonante con nuestras creencias, y se tiende a minimizar aquello que las contradice.
El sesgo de confirmación: tendencia a la búsqueda de información que sea consistente con el sistema de creencias, expectativas e hipótesis, y a descartar la información que pueda falsearlas.
Este sesgo se encuentra en:
En general, los sujetos adoptan estrategias que persiguen la confirmación y no la falsacion.
Evans señala que éste sesgo puede deberse a una restricción propia del sistema, que se centra en procesar la información positiva, y no en confirmarla. Existe evidencia de que los sujetos tienen muchas dificultades en la compresión de las negaciones lingüísticas y lógicas. Existe predilección del sistema de procesamiento por la información positiva.
Sin embargo, los sujetos tb muestran una cierta sensibilidad ante la información que falsea sus hipótesis, cdo ésta se presenta expresamente.
No siempre, razonar sobre contenidos conocidos produce efectos de facilitación. Esto ha provocado la asociación entre contenido y contexto (vinculación entre el problema y los objetivos o metas del razonamiento).
Se distinguen 3 tipos de contenidos:
Diferencia entre el contenido 2 y 3: El conocido pero arbitrario contiene términos de uso cotidiano pero que no tienen relación directa con los conocimientos o creencias del sujeto, mientras que el familiar, sí mantiene una relación directa con la experiencia del sujeto.
Por contexto se entiende el marco o escenario en el que se sitúa el problema, mediante el uso de instrucciones o descripciones verbales o escritas.
La investigación sobre los efectos del contenido y del contexto es muy abundante.
En tareas de silogismos categóricos:
En estas tareas, la validez del argumento viene determinada por la estructura sintáctica, independientemente del contenido.
Se presenta un argumento deductivo y se pide al sujeto que valore su validez:
En razonamiento inductivo:
En estas tareas, la fuerza de un argumento inductivo va a depender del grado de apoyo empírico entre premisas y conclusiones. Esta probabilidad epistémica va a depender del conocimiento sobre los objetos sobre los que estamos razonando.
Los sujetos están dispuestos a hacer generalizaciones de una muestra pequeña si conocen o creen conocer su variabilidad.
También se ha encontrado que el contenido puede inducir a sesgos cdo es representativo de dominio, pero irrelevante desde el punto de vista estadístico.
Ejemplo: “Problema de los 2 hospitales”: probabilidad de nacimientos de niños y de niñas en un hospital grande frente a uno pequeño.
Los sujetos ignoran el tamaño de la muestra, y consideran que la probabilidad es la misma en ambos casos.
EN RESUMEN:
Los sesgos de razonamiento ocurren por la propia naturaleza de nuestro sistema de procesamiento de información, que presenta restricciones que, por otra parte, lo convierten en un mecanismo adaptativo al medio en que se encuentra inmerso.
Simon: En pocas ocasiones el sistema de procesamiento cuenta con la estrategia exacta para resolver el problema que tiene delante, y debe aproximarse a la solución por medio del “principio de racionalidad restringida”.
Muchos de los sesgos ocurren por las aproximaciones que utiliza el sistema para un mejor aprovechamiento de sus recursos Debate sobre la racionalidad o irracionalidad del pensamiento.
EL CONCEPTO DE RACIONALIDAD
Los sujetos no siempre se ajustan al criterio de racionalidad marcado por la lógica, porque factores ajenos a los principios lógicos, ejercen una fuerte influencia sobre el rendimiento de los sujetos.
Entonces, ¿son irracionales?
Diversas propuestas alternativas intentan acomodar la racionalidad y las desviaciones “ilógicas” observadas en el comportamiento de los sujetos.
COMPETENCIA SINTÁCTICA RESTRINGIDA
Cuando se defiende la racionalidad de los sujetos, se suele aludir a la distinción, propuesta por Chomsky, entre competencia y actuación lingüística.
El concepto de actuación lingüística permite explicar, entre otros aspectos, que el sujeto tenga una facultad para el lenguaje que se actualizará en el español, el inglés, alemán, etc., o que algunas veces se equivoque, sin que por eso se cuestione su competencia lingüística.
Por analogía, tb se defiende que existe una competencia o una capacidad racional en el pensamiento humano, que puede sufrir distorsiones cdo se traduce a una actuación concreta.
Las perspectivas que defienden el enfoque sintáctico, entienden que los errores no demuestran el fracaso de los sujetos para razonar lógicamente, sino la existencia de determinadas condiciones que conducen a error, es decir, los sujetos tienen competencia lógica, y cdo ésta se traduce en actuación se producen errores.
Según el enfoque sintáctico:
Según Henle, el razonamiento depende de la comprensión de las premisas, y la utilización de material familiar, podría explicar los efectos de facilitación observados en la actuación de los sujetos.
El sesgo del sistema de creencias (aceptar una conclusión como válida o inválida, independientemente de la validez del argumento) puede explicarse, si se considera que las premisas de los argumentos válidos son más susceptibles para la conversión que la de los argumentos inválidos.
Este sesgo, fue explicado por Henle como un fracaso en la aceptación de la tarea lógica, es decir, los sujetos no entienden las instrucciones o no saben lo que tienen que hacer, y por tanto, hacen algo distinto de los que se pretende analizar que es el razonamiento.
En general, desde la perspectiva sintáctica se asume que existen 2 componentes fundamentales en el razonamiento:
Así, si el contenido y el contexto influyen en la interpretación, la actuación de los sujetos podría explicarse, por su adherencia a las reglas sintácticas aplicadas a dicha interpretación.
La facilitación que se produce cuando los argumentos contienen material familiar, podría deberse a la facilidad con la que la información se ha procesado por el resto de los componentes del sistema, es decir, el tipo de contenido determina la interpretación y el control del conocimiento que ha de recuperarse de la memoria a largo plazo, sin que ello implique la alteración del conjunto de reglas sintácticas del sistema. Si el tipo de contenido cambia las respuestas, esto se debe a la utilización de un conjunto distinto de proposiciones, no de reglas.
Trabajos de Wason sobre la tarea de selección:
A pesar de su aparente simplicidad estructural, sólo el 4% respondió correctamente a la tarea (en estudios posteriores entre el 6-33%).
Esto demuestra que el contenido presentado incide sobre el rendimiento, facilitándolo cdo es un contenido concreto. Sin embargo, no todos los contenidos concretos producen facilitación, y algunos trabajos sugieren que la experiencia previa puede desempeñar un papel importante en esa facilitación.
Esta inconsistencia de los efectos del contenido es problemática para las teorías sintácticas, pues, el sistema sintáctico, solo suministra formas y reglas que van a permitir organizar y analizar los datos.
Otra perspectiva alternativa, subraya el papel de la experiencia y el contexto lingüístico en la determinación del rendimiento, y cuestiona la plausibilidad de las reglas desvinculadas del contenido.
Si los componentes de facilitación han de controlarse para aislar el conjunto de reglas sintácticas, los problemas abstractos serían los más adecuados para estudiar el sistema deductivo. Sin embargo, la alta tasa de errores encontrada en éste tipo de problemas, oscurece la viabilidad de una competencia lógica.
Esta polémica ha provocado que los factores de contenido, vayan asociados al contexto, entendiendo que éste contexto se encontraría vinculado con los aspectos pragmáticos del razonamiento.
La teoría de los esquemas de razonamiento pragmático (Cheng), propone que los sujetos cuentan con reglas de razonamiento que son específicas de dominio. Estos dominios, tienen un nivel intermedio de abstracción (no son demasiado concretos), de forma que se aplicarían a un conjunto de acontecimientos (pe, situaciones de relación: permisos, contratos sociales, advertencias, etc.).
Estos esquemas de razonamiento, estrechamente vinculados con el contenido y el contexto, darían lugar a inferencias que coinciden con las estipuladas por la lógica.
La racionalidad, bajo esta perspectiva, no vendría explicada por la posesión de un conjunto de reglas lógicas propiamente dicho, sino por unas reglas de razonamiento apropiadas para alcanzar los objetivos que se propone el sujeto, y para los que hace falta considerar el contenido y el contexto.
Pero, estos esquemas, se han estudiado sólo en tareas de razonamiento condicional, lo que limita la generalización a otro tipo concreto de situaciones.
Al igual que las teorías de competencia lingüística, el modelo de competencia no constituye un tipo de teoría que pueda verificarse empíricamente, debido a que los factores de actuación no se pueden especificar completamente, ya que dependen en muchas ocasiones, de las características específicas de la tarea.
COMPETENCIA SEMÁNTICA RESTRINGIDA
Ante las dificultades encontradas por el enfoque sintáctico, surgen otras perspectivas que descartan las reglas de inferencia formales para defender una representación semántica de las premisas y un procedimiento de comprobación semántica del argumento.
Modelo de Erickson: Los sujetos representan cada premisa como una combinación de diagramas de Euler, y para evaluar o producir una conclusión, se han de combinar las representaciones de las premisas en una sola representación de silogismo.
Teoría de los modelos mentales de Jonson-Laird:
Se analiza el significado de los operadores lógicos.
Explica el razonamiento por el conocimiento tácito que tienen los sujetos sobre los principios semánticos fundamentales que subyacen en los procesos de inferencia.
Entiende la validez como las posibles interpretaciones del argumento (no como las propiedades y relaciones que lo caracterizan). La validez del argumento se prueba por la búsqueda de argumentos alternativos que puedan falsar el modelo mental en cuestión, el argumento es válido cuando no se encuentran modelos mentales alternativos de las premisas que sean compatibles con la conclusión generada.
Según la teoría, los sujetos construyen modelos mentales que constituyen la representación de las situaciones descritas por las premisas y generan combinaciones de representaciones buscando contraejemplos para las posibles conclusiones.
Explica la dificultad de los problemas en términos de cantidad de procesamiento, y los errores por las limitaciones de la memoria de trabajo en la consideración de todas las combinaciones posibles de las representaciones relevantes: los sujetos razonan de acuerdo con un procedimiento semántico adecuado, pero limitado por la capacidad de la memoria de trabajo.
La racionalidad viene reflejada en el Metaprincipio semántico de validez: Una inferencia es válida sólo si su conclusión no puede ser falsada por un modelo de las premisas.
Problema del modelo semántico: No considera el contenido del argumento (= que el modelo sintáctico).
El procedimiento semántico (método de la teoría de los modelos) analiza el significado de los operadores lógicos, y el sintáctico (método de la teoría de la demostración), utiliza las reglas de inferencia para delimitar este significado, pero ninguno de los dos procedimientos considera el contenido del argumento.
COMPETENCIA EN LA SATISFACCIÓN DE RESTRICCIONES
En los modelos conexionistas, la representación del conocimiento, se encuentra distribuida y ponderada diferencialmente en patrones de activación que forman parte de un sistema dinámico con procesamiento paralelo.
En éstos modelos, el proceso de búsqueda de contraejemplos de los modelos mentales, vendría explicado por la bondad de ajuste (búsqueda del ajuste óptimo) entre el patrón de activación generado por el argumento, y el conocimiento representado en el sistema. Además, la propia generación de los modelos mentales de las premisas, tb dependerá del conocimiento del sujeto.
Bajo este enfoque, se diluye la distinción entre contenido y reglas y se asume el concepto de racionalidad restringida.
En el modelo conexionista, el conocimiento del sujeto (sistema de creencias), viene representado por los sistemas de activación, y al razonar, el sistema busca el emparejamiento que viole el menor número de restricciones, para generar la mejor interpretación posible.
MODELOS HÍBRIDOS:
Conjugan la representación conexionista del conocimiento, con el cómputo simbólico (basado en reglas o en modelos mentales).
Dos propuestas que consideran la coexistencia de 2 sistemas de razonamiento:
Permite que los procesos de razonamiento sean rápidos y económicos, y no hace falta un proceso de análisis, pues su resultado ya forma parte de la propia representación.
Desventaja: Depende de la experiencia anterior y del contexto.
Requiere procesos más lentos y costosos, aunque su aplicación es más general y no depende del contexto.
Ambos sistemas sirven para funciones distintas:
La distinción psicológica la hacen entre el tipo de sistema de procesamiento:
Ya anteriormente, Evans, proponía una distinción entre:
Esta distinción puede considerarse como un intento de preservar la noción de competencia lógica en los procesos analíticos.
De acuerdo con su nueva formulación, el componente heurístico se caracteriza por el procesamiento implícito y el analítico, por el procesamiento explícito. La racionalidad2 sigue garantizando que los sujetos tengan competencia, tanto deductiva como inductiva, pero limitada.
Evans, se inclina por la teoría de los modelos mentales (más que por el de reglas de inferencia), por entender que pude constituir una teoría de razonamiento en general, tanto deductivo como inductivo, y que el metaprincipio semántico de validez, tiene mayor validez psicológica.
Pero, éstas 2 propuestas, conllevan varios problemas, y han recibido algunas críticas:
Ahora bien, la tesis de la coexistencia reconoce la naturaleza convincente y el atractivo intuitivo de los principios de racionalidad, al a vez que admite su violación sistemática.
La racionalidad, desvinculada de la realidad, no parece caracterizar adecuadamente el razonamiento humano.
TEMA 4: LA INDUCCIÓN CATEGÓRICA
INTRODUCCIÓN
La Categorización, constituye uno de los procesos básicos del funcionamiento cognitivo, y refleja la forma en que los sujetos dividen el entorno en clases.
Las categorías son los cimientos o la estructura a partir de la cual el sujeto va a poder seguir clasificando, interpretando, generando inferencias tanto deductivas como inductivas, y comunicándose con aquellos que comparten una estructuración categórica común.
Funciones de la inducción categórica:
Distinción entre conceptos y categorías:
Las categorías se relacionan con los conceptos naturales: Aquellos que pueden observarse en la experiencia cotidiana, o que se forman a partir de categorías ontológicas (concepto de ave o fruta).
Sin embargo, ésta distinción no es clara, ya que, a veces, conceptos artificiales se incorporan al uso cotidiano, haciéndose difícil la demarcación entre lo natural y lo artificial, o los conceptos naturales presentan alguna de las características de los conceptos ratifícales.
Conceptualización: proceso secundario, derivado del primero.
Sin embargo, aquello que se denomina categorías preceptúales, es tan conceptual como lo demás.
Categorías: clases en las que se agrupan los objetos del mundo real.
Proceso de inducción categórica:
Proceso mediante el cual se agrupan en un conjunto varios ejemplares particulares.
LA ESTRUCTURACIÓN CONCEPTUAL
Cuando se agrupan una serie de experiencias particulares en una categoría, tiene que existir algo en estas experiencias, que permita dicha agrupación.
Es decir, las categorías se definen por sus propiedades, y sus reglas de formación dependerán de estas propiedades.
ENFOQUE DE LAS PROPIEDADES DEFINITORIAS (Es el enfoque más tradicional)
Las categorías se definen por un conjunto de propiedades que son:
Ejemplo: Concepto de “soltero”.
Presenta 3 propiedades: ser varón, ser adulto, y no estar casado.
Cada una de estas propiedades es por sí sola necesaria, aunque no suficiente (no se puede ser soltero si se es un niño). Sin embargo, conjuntamente, estas 3 propiedades, sí son suficientes.
Estas propiedades se llaman definitorias porque constituyen colectivamente una definición del concepto, y, de acuerdo con éste enfoque, un objeto es miembro de una clase si y solo si presenta el conjunto de propiedades que lo definen.
Las principales teorías psicológicas hasta los 70, compartían los supuestos de éste enfoque clásico.
Sin embargo, pronto surgieron críticas:
ENFOQUE DE LAS PROPIEDADES PROBABILÍSTICAS
Este enfoque asume que los conceptos no están constituidos por propiedades definitorias, sino que las propiedades más comunes o típicas de un concepto, ocurren sólo en determinados ejemplares. El conjunto de éstas propiedades recibe el nombre de prototipo (describe sólo a los mejores ejemplares del concepto).
Este enfoque ofrece una explicación de la estructuración conceptual en niveles jerárquicos, proponiendo 3 niveles:
El nivel básico comprendería el mayor número de propiedades que comparten los ejemplares de una categoría, y el menor número de propiedades de otras categorías de contraste.
El trabajo de Malt y Smith, cuestiona la viabilidad del enfoque clásico, al poner remanifiesto que:
En este trabajo, a cada propiedad se le asigna una puntuación que es igual al número de ejemplares que presenta esa propiedad, y la suma de esas propiedades constituye su puntuación de parecido familiar.
El parecido familiar:
En resumen:
CRÍTICAS:
Por tanto, ésta propuesta no es lo suficientemente flexible como para explicar la sensibilidad que muestran los sujetos a la variabilidad, tantote los ejemplares como de las propiedades que constituyen una categoría.
Una postura conciliadora:
Los modelos mixtos:
Proponen que los sujeto cuentan con ambos tipos de propiedades (definitorias o diagnósticas, y prototípicas), y se recurre a las propiedades diagnósticas, sólo en casos especiales, como cdo se tiene que arbitrar una categorización dudosa.
Así, el prototipo puede considerarse como un heurístico por medio del cual se utilizan las propiedades no necesarias, y se recurre a las propiedades diagnósticas, solo en casos muy determinados (pe, para categorizar una ballena como mamífero).
EL ENFOQUE DE LOS EJEMPLARES
Un concepto está constituido pro el conjunto de sus ejemplares, es decir, es un conjunto de casos concretos.
No es necesario asumir un único prototipo con el que se comparan los ejemplares, sino que la categorización es función de la semejanza entre el ejemplar y todos los miembros de la categoría.
Este enfoque asume que no hay una estructuración conceptual propiamente dicha, sino que existe una representación de todos los ejemplares, y, el nivel de abstracción necesario para crear una categoría, ocurrirá en el momento mismo de la recuperación de la información almacenada.
Ventajas del enfoque:
El no asumir una única representación del concepto, sino que, en un momento dado se pueden utilizar varias representaciones, dependiendo del criterio de semejanza y de los ejemplares representados. Por éste motivo, se dota a la categorización de una gran flexibilidad, que permite utilizar y relacionar toda la información representada, según los objetivos planteados en cada situación. (Algunos conceptos se generan sólo en un contexto muy determinado, presentando ejemplares que en otros contextos, pertenecerían a otras categorías). En éste caso, el parecido familiar no predice la tipicidad, sino que ésta se encuentra determinada por el peso de las propiedades en el contexto en que ocurren.
CRÍTICAS:
Se han propuesto modelos mixtos en los que el enfoque de los ejemplares se complementa con algún nivel de abstracción (probabilístico), que se corresponde con el prototipo.
El problema:
Poder identificar cuales son las restricciones impuestas sobre este proceso, como para permitir que el sistema manifieste un comportamiento coherente, a la hora de categorizar el mundo.
LA COMBINACIÓN DE CONCEPTOS
A información conceptual se combina para producir otros conceptos como “sofá cama” (2 sustantivos), “sangre azul” (sustantivo-adjetivo), y “mujer muy alta” (sustantivo-adverbio-adjetivo). Este proceso de combinación conceptual, debería estar en consonancia con la concepción que se tenga sobre la estructuración conceptual.
COMBINACIÓN CONCEPTUAL DE SUSTANTIVO-ADJETIVO
- MODELO DE MODIFICACIÓN SELECTIVA
Trabajos de Osherson y Smith:
Abordan el problema del cómputo de la tipicidad de los conceptos compuestos, a partir de los conceptos prototípicos que lo constituyen.
Encuentran que las predicciones de la teoría de los conceptos difusos (teoría del prototipo), no se cumplían en los juicios de tipicidad sobre la conjunción de conceptos, y proponen el modelo de modificación selectiva para explicar el proceso de combinación conceptual, dentro del marco teórico de los prototipos.
El modelo surgió por la necesidad de explicar algunos resultados experimentales no esperados, que se conocen como el “EFECTO DE CONJUNCIÓN”:
Para explicar este efecto, el modelo asume una representación prototípica, en la que se reincluyen atributos (pe, color), con pesos diagnósticos y prominencia distinta (pe, para el concepto “sangre” el atributo color tendría el calor de rojo, éste valor sería muy prominente comparado con otros como su estado líquido).
El proceso de modificación selectiva parte de la identificación del concepto que desempeña la función de sustantivo como marco conceptual sobre el que se va a operar, y del concepto que desempeña la función de adjetivo como aquello que opera o modifica (pe, en “sofá cama” la propiedad “sirve para dormir” del concepto cama, que desempeña la función de adjetivo, se pone en correspondencia con esa propiedad o una análoga del concepto “sofá” (en los sofás tb se duerme, se descansa), haciéndola más prominente y diagnóstica).
Para determinar el cómputo de tipicidad de un ejemplar, se utiliza la REGLA DE CONTRASTE DE Tversky, que calcula la semejanza mediante el contraste entre las propiedades comunes y no compartidas, entre ejemplar y prototipo.
La semejanza es una propiedad creciente de las propiedades que son comunes al ejemplar y al prototipo, y una función decreciente de las propiedades no compartidas entre ambos.
Cada propiedad conlleva un índice que pondera la prominencia y el valor diagnóstico de los atributos, de forma que:
CRÍTICAS:
MODELO DE ESPECIALIZACIÓN CONCEPTUAL
Se trata de un proceso guiado por el conocimiento.
Cohen y Murphy asumen que los conceptos simples se encuentran representados por esquemas que estructuran el conocimiento con variables y valores.
En el caso de los conceptos compuestos, hay un concepto principal (sustantivo) y otro que modifica (adjetivo), dando como resultado una especialización o descripción detallada de los valores del concepto principal.
Este proceso no es posible sin tener acceso a la base de conocimientos que tiene el sujeto (pe, en el compuesto “sangre azul”, el valor azul para el atributo color no solo se pondera en diagnóstico y prominencia, sino que se pone en relación con el conocimiento que tenemos sobre el lenguaje figurado, de modo que el concepto se completará con otras propiedades atribuidas al líquido noble).
El modelo de combinación selectiva podría formar parte del de especialización conceptual, de modo que el primero aportaría un procedimiento detallado para el cómputo de los conceptos compuestos, y el segundo ofrecería un marco teórico mucho más amplio, para explicar la riqueza de la representación conceptual.
CRÍTICAS:
Falta de especificación del procedimiento de cómputo para el proceso de selección del conocimiento.
MODELO HÍBRIDO DE EJEMPLARES Y TEORÍAS PREVIAS
Conjuga la representación de ejemplares y el conocimiento del mundo.
Es una propuesta todavía más inespecífica que la anterior.
Surge ante la necesidad de una teoría de la estructuración conceptual más completa, y con mayor capacidad de cómputo.
Los conceptos presentan una estructuración interna rica en el número de relaciones que se establecen entre sus propiedades (una de las limitaciones del modelo de modificación selectiva es que asume que las propiedades son independientes y que unas no afectan a las otras).
Además, estas relaciones fluctúan en función del contexto, y el papel que desempeña una propiedad, determina su valor crítico para el concepto.
Resultados experimentales de Medin y Shoben:
Los sujetos consideraban que la “cuchara de metal” era más típica del concepto simple “cuchara” que la “cuchara de madera”, pero, la “cuchara de metal” era menos típica del concepto “cuchara grande” que la “cuchara de madera”.
(En el modelo de modificación selectiva, la diferencia entre “cuchara de metal” y “cuchara de madera”, con respecto al concepto simple “cuchara” se encontraría en los pesos de la dimensión tipo de material).
Cuando los mismos adjetivos (negro, gris y blanco) se aplicaban a 2 conceptos distintos (“nubes” y “pelo”), los sujetos consideraban que para el concepto “nube”, el color negro y el gris eran más semejantes, mientras que para el concepto “pelo” lo eran el gris y el blanco.
La propiedad “ser curvo”. Los sujetos consideraban que un “plátano no curvo” era más típico del concepto “plátano” que un “boomerang no curvo” del concepto “boomerang”.
Todos estos modelos ofrecen una visión limitada a la combinación “sustantivo-adjetivo”. Sin embargo, entre los conceptos se pueden establecer distintas relaciones.
COMBINACION CONCEPTUAL SUSTANTIVO-SUSTANTIVO
Wisniewski, presenta un análisis sobre las combinaciones conceptuales “sustantivo-sustantivo”, e identifica 3 tipos básicos de combinaciones:
MODELO DE ESPECIALIZACIÓN CONCEPTUAL
Representación por esquemas en las que el concepto-base (principal) adopta la relación del concepto-modificador.
Pe, en “perro perdiguero”, el esquema del concepto “perro” adopta en a variable “cazar” el valor de “perdiz”.
MODELO DE ESPECIALIZACIÓN CEPCEPTUAL AMPLIADO
Se añaden los procesos de construcción y comparación para lo conceptos compuestos por propiedades y combinaciones híbridas.
Estos procesos son necesarios para determinar las semejanzas y diferencias entre el concepto base (pez) y el que lo modifica (martillo), y poder integrar la nueva información para la construcción del nuevo concepto combinado (pez martillo).
En éste caso, las propiedades no se suman al nuevo concepto sino que se crean produciendo un cambio conceptual.
EL PROCESO DE CATEGORIZACIÓN
¿CÓMO SE AGRUPAN LAS PROPIEDADES DE LOS EJEMPLARES EN UNA CATEGORÍA?
Tiene la ventaja de no restringir, mediante una descripción abstracta (prototipo), los ejemplares que pueden agruparse en una categoría.
La semejanza parece ser aquello que hace que una categoría pueda aglutinar un conjunto de ejemplares. Sin embargo, es un término escurridizo, pues muchas cosas parecen semejantes por el simple hecho de pertenecer a la misma categoría.
Pero, ¿explica la semejanza por qué se ha formado una categoría?:
Según Tversky, la semejanza se define en función de las propiedades que son comunes y distintivas en un conjunto de ejemplares, pero que se encuentran ponderadas en términos de su saliencia o relevancia.
Sin embargo, Tversky demuestra que las ponderaciones pueden variar en función del contexto estimular y de la tarea experimental, de forma que no existe una respuesta unívoca a la pregunta de cuán semejante es un objeto con respecto a otro. Además, la ponderación no es independiente de la entidad en que se encuentra inmersa. Se podría decir que una propiedad es aquello que se ha validado consensuadamente en una muestra de sujetos (los sujetos enumeran no todo lo que conocen, sino las propiedades que en esa situación les parecen más relevantes).
La categorización no se da aisladamente, sino que los conceptos se organizan circunscritos al conocimiento estructurado que tienen los sujetos. La estructuración conceptual no se reduce a listas de propiedades, sino que se encuentra inmersa en un cuerpo de conocimientos con estructura y coherencia.
En ésta línea se pueden incluir todas las teorías que asumen una representación de la información en estructuras de conocimiento como los esquemas, guiones, los marcos o los modelos mentales.
Dependiendo del tipo de estructura que se proponga para representar el conocimiento, el proceso de inducción categórica tb será distinto: aplicación de reglas, la generación de modelos mentales, el emparejamiento de patrones, etc.
DOS PERSPECTIVAS SOBRE LA INDUCCIÓN CATEGÓRICA
Ambas pertenecen al marco de los modelos computacionales.
INDUCCIÓN CATEGÓRICA COMO SISTEMA DE REGLAS DISTRIBUIDAS
MODELO DE LOS ESQUEMAS DEL RAZONAMIENTO PRAGMÁTICO (Holland y cols)
SUPUESTOS:
El sistema dirige sus inducciones en función del contexto concreto en el que se encuentra, generando reglas que serán utiles para esta situación, y para situaciones futuras semejantes.
Las restricciones impuestas sobre el mecanismo categórico, pueden derivarse de la naturaleza general del propio sistema procesador de información que persigue metas, en un ambiente complejo con el que está en continua interacción.
Representación de los esquemas de razonamiento pragmático como un sistema de producción.
Los aspectos procedimentales, se basan en el emparejamiento cíclico y la ejecución de reglas de condición-acción (si ciertas condiciones se cumplen, entonces tiene lugar la acción). Estas reglas son de 2 tipos:
Este enfoque busca la combinación de 2 aspectos claves:
La actividad de éste sistema de producción comprende un ciclo de 3 pasos:
La organización del proceso categorizador:
Las reglas están organizadas en función de los patrones de condiciones y acciones, dando lugar a 2 tipos de organización:
DESCRIPCIÓN DEL PROCESO DE INDUCCIÓN CATEGÓRICA
El modelo de los esquemas de razonamiento pragmático concibe las categorías como un conjunto de reglas agrupadas, que comprenden supuestos probabilísticos, sobre las propiedades que ocurren con otras propiedades.
Las categorías se corresponden con las agrupaciones de reglas explícitas e implícitas, en función del contexto en el que ocurran.
Un objeto que va a ser categorizado recibe apoyo de varias fuentes (reglas) con diferentes condiciones.
Si suponemos que todas las reglas presentan la misma fuerza, el nodo que reciba apoyo de mayor número de ellas, hará que se active la acción correspondiente.
Cuando las categorías no son mutuamente excluyentes, las reglas pueden activarse simultáneamente (un animal peludo con cola puede categorizarse como perro, gato, o ardilla), y, por tanto, pueden disparar acciones que entran en conflicto, por lo que se establecen reglas que inhiben las reglas conflictivas.
Las reglas inhibitorias se encuentran representadas por líneas discontinuas bajo los nodos, y son del tipo “si el nodo C3 está activado, entonces el nodo C2 se encuentra inactivo”.
Además, cada regla cuenta con un valor de apoyo y una ponderación previa (ver figura 4.3, pg 167). El nodo que presente la ponderación previa mayor, será considerado como la categorización tentativa.
Para evitar que el sistema genere generalizaciones, se cuenta tb con un umbral de confirmación que establece la variabilidad del conjunto de propiedades que se están considerando (si no se alcánzale umbral, se requerirá mayor información para confirmar la categorización).
En éste modelo no se entiende que las reglas que forman una categoría sean una definición de la misma, sino un conjunto de expectativas que se consideran verdaderas siempre y cuando no se contradigan por la información presentada al sistema.
En ausencia de mayor información, estas expectativas por defecto proporcionan el mejor esquema par a la situación actual.
La probabilidad condicionada de una categoría puede representarse implícitamente por la fuerza de un conjunto de reglas.
Estas reglas se organizan en jerarquías por defecto, que se ordenan por expectativas basadas en relaciones subordinadas y superordenadas.
A través de la organización explícita (por medio de marcadores), se conectan las relaciones sincrónicas entre las categorías. En virtud de estos marcadores, un objeto dentro de una categoría se encuentra implícitamente conectado con una red de categorías. Así, la categorización no depende de una descripción monolítica, sino de una combinación de propiedades y situaciones.
A través de estas jerarquías por defecto, se pretende representar la incertidumbre sobre la que tiene que operar el sistema. Pueden representar en un nivel las generalizaciones que son útiles, y en otro, la información más específica de las excepciones. Se representa tanto la variabilidad como la uniformidad que existe en el ambiente.
El número de ejemplares necesarios para alcanzar una generalización, será función de esa variabilidad:
Según esta teoría, no es necesario asumir un prototipo explícito. Lo que se propone es una abstracción y representación del conocimiento general de las distribuciones de las propiedades, por medio de las agrupaciones de reglas. Esto permite que se pueda acceder a un prototipo siempre y cuando lo requiera la situación, pero tb puede existir implícitamente como una amalgama de supuestos por defecto. De ésta forma, se explican los resultados experimentales que ponen de manifiesto que los sujetos saben mucho más acerca de la estructura categórica que la simple información sobre las tendencias centrales o prototipos.
LA INDUCCIÓN CATEGÓRICA COMO SISTEMA DE ACTIVACIÓN DISTRIBUIDA
SUPUESTOS
EL MODELO DE SATISFACCIÓN DE RESTRICCIONES (Rumelhart y cols)
Los modelos de satisfacción de restricciones, pretenden simular un proceso que satisface simultáneamente, un número considerable de restricciones, y en el que no hay una solución única que pueda satisfacer todas las restricciones.
La relevancia diferencial de las restricciones, se encuentra reflejada en la fuerza de la conexión entre unidades. Además, cada unidad presenta tb un sesgo, reflejando la probabilidad a priori de estar activadas.
El ajuste global que alcanza el sistema es la suma de los grados en que cada par de unidades contribuye a la bondad de ajuste, más el grado en que las unidades satisfacen las restricciones de la entrada de información. Concretamente, la contribución de un par de unidades es el producto de sus valores de activación multiplicado por el peso de sus conexiones. Por tanto, el ajuste es la suma de todas las contribuciones individuales que el sistema busca maximizar.
DESCRIPCIÓN DEL PROCESO DE INDUCCIÓN CATEGÓRICA (leer pg 171)
Las ponderaciones de un conjunto de unidades, hacen que emerja una configuración que se identifica con el prototipo. Las propiedades se encuentran distribuidas por toda la red, y la fuerza de sus conexiones hace que el patrón adquiera una configuración determinada.
Cualquier configuración inicial con elementos activos e inactivos, puede evolucionar hacia una configuración estable partiendo de unos pesos iniciales. Cada vez que entra una estimulación en el sistema, éste remueve hacia un estado estable en el que se alcanza una bondad de ajuste máxima.
El sistema es completamente reactivo (guiado por los datos).Cuando entra información en el sistema, todas las unidades ajustan su activación para satisfacer el mayor número de restricciones.
Estos prototipos no son entidades estructuradas, sino que emergen en el momento en que la interacción de todo el conjunto de unidades de la red, alcanza una bondad de ajuste óptima, es decir, aquella configuración que teniendo en cuenta el estado anterior del sistema y las activaciones y desactivaciones provocadas por la entrada de información, logra satisfacer el mayor número de restricciones.
CONCLUSIÓN:
En ambos modelos se contempla un conjunto de restricciones que vienen impuestas por el contexto y el estado del propio sistema, siendo el procesamiento en paralelo y estando el conocimiento distribuido, aunque su representación sea distinta.
La decisión sobre qué tipo de representación es la más adecuada no resulta fácil, ya que ambos modelos computacionales son lo suficientemente potentes como para acomodarse a las exigencias del funcionamiento y datos empíricos del comportamiento humano.
Estes sugiere que sería bueno investigar sobre la posible combinación de ambos tipos de representaciones, como en la propuesta mixta de los ejemplares y una representación conexionista del conocimiento.
Sin embargo, la coexistencia de ambos tipos de representaciones no está exenta de problemas, ya que podría entenderse de 2 formas distintas.
TEMA 6: EL RAZONAMIENTO SILOGÍSTICO Y EL TRANSITIVO
INTRODUCCIÓN
Las investigaciones psicológicas sobre RAZONAMIENTO DEDUCTIVO, tienen como objetivo estudiar los procesos cognitivos que utilizan los sujetos cuando resuelven una tarea de razonamiento y explicar los errores que cometen.
Al importar el modelo lógico como modelo normativo, el estudio del razonamiento deductivo, ha partido del criterio de validez lógica.
El argumento deductivo comprende una conclusión que se sigue necesariamente de las premisas, y las tareas experimentales han adoptado esta estructura.
Se suele presentar como tarea experimental un argumento deductivo, y los sujetos tienen que evaluar si el argumento es válido o no, seleccionar la conclusión válida entre un conjunto de alternativas, o generar sus propias conclusiones.
Las respuestas de los sujetos se evalúan como correctas o incorrectas de acuerdo con el criterio de validez del modelo lógico.
Los argumentos deductivos que se han estudiado, se han centrado en los # tipos de inferencias, que dependen de los operadores lógicos (negación, disyunción, condicional, bicondicional, de las relaciones internas entre proposiciones, como la transitividad y las proposiciones con cuantificadores).
Según el tipo de argumento deductivo, las investigaciones se pueden agrupar en 3 tipos:
RAZONAMIENTO SILOGÍSTICO
El silogismo categórico está constituido por dos premisas y una conclusión, en la que se establece una nueva conexión entre proposiciones a través del término medio.
La premisa que contiene el sujeto de la conclusión se denomina premisa menor, y la que contiene el predicado de la conclusión, premisa mayor.
Ej: “Todos los hombres prudentes evitan el tabaco” (premisa menor)
“Todos los médicos son hombres prudentes” (premisa mayor)
En consecuencia, “todos los médicos evitan e l tabaco”.
Además, los silogismos categóricos contienen enunciados de cantidad (universal vs particular) y polaridad (afirmativa vs negativa), dando lugar a 4 tipos de proposiciones:
Tb se tiene en cuenta la posición del término medio en cada una de las premisas.
Existen 4 posiciones que dan lugar a las 4 figuras del silogismo categórico:
De la combinación de los 4 tipos de enunciados, en cada una de las premisas y la conclusión, y de los 4 tipos de figuras, se obtienen 256 silogismos, de los que solo 24 son válidos.
Jonson-Laird y Steedman, encuentran que los sujetos no siempre consideran como sujeto de la conclusión la segunda premisa, produciéndose conclusiones en los 2 sentidos: C-A y A-C. Así, el número de silogismos ascendería a 512 de los que 48 serán válidos.
Los silogismos validos incluyen todas las conclusiones válidas, sean fuertes o débiles (se obtiene una conclusión particular cdo se permite una conclusión universal).
Ejemplo: ver el anterior.
El silogismo pertenece a la figura 1, y la conclusión es universal afirmativa, siendo la estructura del argumento AAA, que sería la conclusión válida más fuerte, pero, tb se podría alcanzar la conclusión particular afirmativa (“algunos médicos evitan el tabaco”) (AAI).
El rendimiento de los sujetos en los distintos silogismos es variable, encontrándose desde un 89% de respuestas correctas hasta un 8%.
HIPÓTESIS DE LA ATMÓSFERA DE LAS PREMISAS
No es una teoría sino una explicación para explicar la actuación de los sujetos, que se basa en la tendencia observada en sus respuestas, y que parece determinada por los aspectos estructurales de los silogismos.
Woodworth y Sells presentaron una tarea de silogismos categóricos, en la que los sujetos debían evaluar la validez de los argumentos. Encontraron que los sujetos se equivocaban, y que los errores podían explicarse por el modo de las premisas. Pej, cdo el modo de las premisas era el mismo (AA), los sujetos muestran una tendencia a elegir la conclusión del mismo modo A El aspecto estructural del silogismo crea una “atmósfera” que inducía a elegir una conclusión del mismo tipo.
Begg y Denny, tuvieron tb en cuenta la cantidad (universal, particular) y la polaridad o cualidad (afirmativa, negativa) de las premisas, y ampliaron el efecto para las premisas que fueran heterogéneas de modo que cuando las premisas contienen al menos una premisa particular, entonces la conclusión es particular, y en el caso contrario, universal, y cdo es negativa la conclusión es negativa, y en el caso contrario afirmativa.
Este efecto recibió el nombre de “efecto atmósfera”.
Sells sugiere que puede existir un principio general de prudencia (las conclusiones universales son menos prudentes que las particulares), lo que explicaría la preferencia de los sujetos por ellas.
Sin embargo, los sujetos producen pocas conclusiones particulares - negativas (O).
La tendencia no lógica del efecto atmósfera, puede predecir un porcentaje aceptable de respuestas (43%). Sin embargo, éste efecto sólo explica la tendencia al error, pero no es propiamente una teoría de razonamiento silogístico. Además, al encontrarse que el efecto es distinto para los silogismos válidos que para los inválidos, debería haber un proceso de inferencia además del sesgo de respuesta descrito.
Por otra parte, la hipótesis siempre predice una conclusión, sin embargo, los sujetos responden con frecuencia que no hay una conclusión válida cdo la tarea es de producción.
PRINCIPALES TEORÍAS Y MODELOS PARA EXPLICAR EL RAZONAMIENTO SILOGÍSTICO
MODELOS BASADOS EN LA INTERPRETACIÓN DE LAS PREMISAS
Principio de inferencia probabilística:
Los sujetos muestran una consistencia interna en su razonamiento, pero con una regla errónea. Esta regla les conduce a que consideren, que aquellas entidades que comparten determinadas propiedades, tendrán mayor probabilidad de compartir otras relaciones.
Ejemplo:
Algunos A son B (“Algunos peces son carnívoros”)
Algunos C son B (Algunas plantas son carnívoras”)
En consecuencia, algunos C son A (“Algunas plantas son peces”)
Hipótesis de la conversión ilícita:
Se trata de un error de interpretación de la universal afirmativa y de la particular negativa (sin aludir al efecto atmósfera).
Ocurre cdo se interpreta que la premisa universal afirmativa (A) “Todos los A son B” es equivalente a “Todos los B son A”; y que la premisa particular negativa (O) “Algunos A no son B” es equivalente a “Algunos B no son A”.
Esta conversión es lícita para las premisas en el modo universal negativa (I) y particular afirmativa (E).
Ejemplo:
(A): “Todos los hombres son seres mortales” no es equivalente a “Todos los seres mortales son hombres”.
(O): “Algunos hombres no son deportistas” no es equivalente a “Algunos deportistas no son hombres”.
(E): “Ningún hombre es un ser inmortal” es equivalente a “Ningún ser inmortal es un hombre”.
(I): “Algunos hombres son deportistas” es equivalente a “Algunos deportistas son hombres”.
En el modelo propuesto por Revlis hay dos representaciones del silogismo: una versión de las premisas original (tal y cómo se presentan) y una versión de las premisas convertidas.
Según éste modelo:
1º.- Se codifican las premisas y se convierten quedando representadas ambas versiones.
2º.- Se elabora una representación compuesta de las 2 premisas y se pasa a la codificación de la conclusión.
3º.- Se realiza un proceso de comparación entre la representación conjunta de las 2 premisas y la representación de la conclusión.
Versión original
Algunos peces son carnívoros (Algunos A son B)
Algunas plantas son carnívoras (Algunos C son B)
Conclusión: Algunas plantas son peces (Algunos C son A)
Versión convertida
Algunos carnívoros son peces (Algunos B son A)
Algunos carnívoros son plantas (Algunos B son C)
Conclusión: Algunas plantas son peces. (Algunos C son A)
En la representación de la conclusión en ambas versiones se trata de vincular los términos A y C a través del término medio B, que es común a ambas premisas. Cuando dotamos de contenido a este silogismo, el sujeto advierte, en ambas versiones, que es inválido puesto que de su estructura no se sigue una conclusión. Sin embargo, en su versión abstracta es fácil que el sujeto se equivoque y admita la validez de la versión original, mientras que en la versión convertida puede detectar que no se sigue una conclusión.
Efecto de contenido o de las creencias:
El contenido temático puede facilitar el razonamiento silogístico, dado que el proceso de conversión se puede bloquear, cdo el contenido da lugar a premisas que entran en conflicto con el conocimiento del sujeto (pe, la conversión de “Todos los gatos son felinos” en “Todos los felinos son gatos”, daría lugar a una premisa contraria al conocimiento del sujeto).
Sin embargo, el efecto del contenido o de las creencias se sigue manifestando incluso en silogismos en los que la conversión no altera la validez del argumento.
Los resultados experimentales han puesto de manifiesto que los sujetos tienden a considerar que un argumento es válido si están de acuerdo con su conclusión, y que es falso si no lo están.
Concretamente, los sujetos aceptaban más conclusiones creíbles (80%) que increíbles (33%), independientemente de su validez lógica. Pero, la diferencia entre la aceptación de conclusiones inválidas creíbles e increíbles fue mayor (61%) que la diferencia entre conclusiones válidas creíbles e increíbles (33%).
Modelo de escrutinio selectivo:
Los sujetos se centran primero en la conclusión del argumento, y si es coherente con su sistema de creencias, la aceptan sin más (no se molestan en hacer un análisis lógico). Solo cdo las conclusiones son increíbles, se procede al análisis lógico del silogismo.
Es una propuesta basada en los resultados del análisis de protocolos verbales, en los que se identificaron 3 tipos de estrategias para la solución de silogismos (“solo conclusión”, “de la conclusión a las premisas”, y “de las premisas a la conclusión”).
Correspondería a la estrategia de “sólo conclusión” (durante la resolución del silogismo en voz alta, los sujetos solo mencionan la conclusión sin alusión a las premisas) o a la “de la conclusión y las premisas” (los sujetos mencionan primero la conclusión y luego las premisas).
Los sujetos que respondían utilizando las 2 estrategias mencionadas, fueron los que presentaron una mayor tendencia a responder de acuerdo con la credibilidad de la conclusión.
Modelo basado en una interpretación incorrecta de la “necesidad lógica”:
Sostiene que los sujetos en realidad no entienden la “necesidad lógica” (un argumento deductivo es válido solo si es imposible que su conclusión sea falsa mientras sus premisas sean verdaderas).
Según el modelo, cdo hay un argumento con conclusiones posibles, pero no necesarias desde el punto de vista lógico (silogismo inválido indeterminado), los sujetos responden de acuerdo con la credibilidad de las conclusiones.
Así se distingue entre:
Ambos modelos dejan sin explicar el proceso de razonamiento, centrándose en las posibles explicaciones de los errores para algunos silogismos, como los inválidos indeterminados.
Según ellos, los errores de razonamiento silogístico se encuentran en la interpretación de las premisas, pero no por un proceso de conversión, sino porque los sujetos interpretan los cuantificadores de acuerdo con la lógica de las convenciones lingüísticas, y no con el significado propio de la lógica.
Los sujetos interpretan los cuantificadores sólo de 3 formas: “ninguno” como exclusión, “algunos” como intersección, y “todos” como identidad.
La interpretación de “alguno” como “todos” y de “algunos no” como “ninguno”, es psicológicamente inútil.
De acuerdo con la máxima conversacional de cantidad se debe transmitir la mayor cantidad de información posible, y no ocultar deliberadamente parte de la información (Grice). Desde ésta perspectiva, el significado lógico de “algunos” sería una trasgresión de las máximas conversacionales, cdo se sabe que “todo” tb es verdadero y éste cuantificador es el que transmite mayor información.
Begg pone de manifiesto que la interpretación de algunos cuantificadores se rige por las implicaturas conversacionales, y no por la lógica.
Estas perspectivas teóricas defienden la racionalidad desde un modelo de convenciones lingüísticas, en el que las reglas del lenguaje otorgan una lógica intuitiva y natural.
Sin embargo, los datos no permiten decir que las interpretaciones “gricerianas” constituyan la principal fuente de errores del razonamiento silogístico.
MODELOS BASADOS EN LA REPRESENTACIÓN DE CONJUNTOS
Método de los círculos de Euler:
Se basa en la utilización de círculos para la representación, en un plano euclideano, de las relaciones entre los conjuntos comprendidos en las premisas de los argumentos (ver figura 6.1, pg 247).
Para saber si una conclusión es válida o no, hay que considerar todas las formas posibles en que se combinan los diagramas que representan todas las posibles combinaciones de las 2 premisas.
Según su modelo, los sujetos representan cada premisa de forma análoga a la representación espacial de los círculos de Euler.
3 etapas:
Las distintas interpretaciones posibles de las premisas llevan asociados unos parámetros probabilísticos que determinan su selección.
Se asume que el sujeto no realiza un análisis exhaustivo de todas las combinaciones posibles, sino que selecciona una combinación de acuerdo con unos parámetros probabilísticos.
Los errores de razonamiento pueden ocurrir en cualquiera de las tres etapas, asumiendo, además, que los sujetos pueden ser proclives al “efecto atmósfera”.
Problema:
El mayor problema es el número tan extenso de formas distintas en las que se pueden combinar los diagramas. Para resolverlo, Erickson utiliza los parámetros porbabilísticos, pero estos parámetros han sido determinados a posteriori en función de los datos empíricos de investigaciones anteriores.
Tb proponen un modelo de 3 etapas y basado en los círculos de Euler, pero libre de errores al ser una representación exhaustiva.
Por último, se da la respuesta que se corresponda con la conclusión seleccionada.
Críticas:
Diagramas de Venn: Técnica lógica para representar las relaciones entre conjuntos. Se presenta el silogismo en un solo diagrama. Los círculos se encuentran sobrepuestos de forma que representen las relaciones entre los conjuntos del silogismo (ver figura 6.2, pg 250).
Este modelo pretende acomodar los silogismos categóricos, al marco diseñado por Newel y Simon para la solución de problemas.
Entienden que el razonamiento silogístico es un proceso de búsqueda a través del espacio problema, y que ese espacio se representa de forma análoga a los diagramas de Venn.
No hace predicciones ni sobre los errores ni aporta datos empíricos sobre la viabilidad del modelo.
Hoy constituye un marco teórico general del razonamiento deductivo.
Según éste modelo, el razonamiento deductivo consta de 3 etapas:
Es en esta etapa donde se ubica el aspecto “deductivo” del razonamiento.
La dificultad de los problemas se explica en términos de cantidad de procesamiento, y los errores por la limitación de la memoria en la consideración de todas las combinaciones de las representaciones relevantes.
(Leer y ver explicación de la representación del modelo, pg 252, 253 figura 6.3).
Los errores se explican por
Si el contenido influye, se estaría razonando con modelos mal interpretados, lo que podría acortar el proceso de búsqueda de modelos alternativos, si la conclusión tentativa es compatible con el sistema de creencias, aunque sea inválida.
Tb podría ocurrir que el sujeto buscara afanosamente modelos alternativos, cdo la conclusión fuera contraria a su sistema de creencias.
Por tanto, el efecto del contenido influye en el aspecto puramente deductivo de la teoría: la búsqueda de contraejemplos.
Al afectar a la construcción de modelos alternativos, cabría esperar que el contenido no influyera en los silogismos con un solo modelo mental, pero esto no es así, ya que, una conclusión increíble tb podría actuar de filtro en el proceso de evaluación, haciendo que los sujetos la sustituyan por otra creíble, o que respondan que no hay conclusión.
Ventajas del modelo:
Explicar, bajo un único marco teórico, tanto el proceso como los errores del razonamiento en general.
Problemas:
Aunque admite la influencia del conocimiento, no analiza esta influencia sino que la da por supuesta, y sus explicaciones y predicciones se basan en la interpretación semántica de los operadores lógicos.
Esta teoría se autodefine como semántica, pero no explica como se vincula el conocimiento almacenado con la construcción de los modelos mentales, en la memoria operativa.
La teoría no explica como se construyen los modelos mentales, ni el orden en la construcción de la secuencia de las posibles interpretaciones, no se compromete con el tipo de representación, ni con el orden de la combinación de los modelos mentales
Sin embargo, ésta teoría es una perspectiva teórica fuerte, que se encuentra apoyada por una amplia gama de trabajos experimentales, aunque el debate con otras teorías no ha concluido, ni se acepta éste como único modelo.
RAZONAMIENTO TRANSITIVO
Tb llamado silogismo lineal, problema de órdenes lineales o problema de series de 3 términos.
Estudian las inferencias que dependen de las relaciones de transitividad.
Relación de transitividad: propiedad de cualquier escala o dimensión, de acuerdo con la que se comparan u ordenan objetos.
Se trata de un silogismo constituido por 2 premisas en las que se relacionan 3 términos en función de una propiedad transitiva, y 1 conclusión que establece la relación entre los 2 términos no adyacentes.
Ejemplo:
“Luis es mayor que Juan”
“Juan es mayor que Pedro”
En consecuencia, “Luis es mayor que Pedro”
Hay 8 estructuras básicas para representar un silogismo transitivo A>B>C:
A>B A>B B<A B<A C<B C<B B>C B>C
B>C C<B C<B B>C B<A A>B A>B B<A
Se pueden introducir tb relaciones negativas en una de las 2 premisas o en ambas (premisas de igualdad negada)
“Luis no es tan pequeño como Juan”
“Juan no es tan pequeño como Pedro”
En consecuencia, “Luis no es tan pequeño como Pedro”
En total habría 32 pares de premisas:
La tarea experimental: Presentar las 2 premisas del silogismo y pedir al sujeto que conteste a una pregunta sobre la relación entre A y C (¿cuál es mayor? O ¿Cuál es menor?), o que evalúe la validez de una conclusión (Luis es mayor que edro o Pedro es menor que Luis).
Desde sus orígenes experimentales (Störring), éste tipo de razonamiento ha planteado una polémica centrada en el tipo de representación de las premisas.
MODELO OPERACIONAL (Hunter)
Para poder hacer una inferencia transitiva es necesario que las premisas contengan la misma relación (mayor) y que el término medio (Juan) sea el predicado de la primera premisa y el sujeto de la segunda.
“Luís es mayor que Juan” A>B C<B
“Juan es mayor que Pedro” ó
En consecuencia, “Luis es mayor que Pedro” B>C B<A
Cuando el argumento no contiene la misma relación, o no viene expresado en un orden natural, se deben aplicar las operaciones de conversión y reordenación de las premisas.
Hunter propuso que la operación de conversión es más fácil que la de reordenación.
Se establecieron 3 niveles de dificultad en función de la aplicación de éstas operaciones:
C<B A>B
Es necesario convertir la relación de la segunda premisa (B>C y B<A)
C>B A>B
Requiere una reordenación de la segunda premisa, y esta operación es más difícil que la conversión.
B<A B>C
B>C B<A Requieren convertir la relación de la segunda premisa, y luego reordenarla.
Los resultados experimentales no apoyaron todos los datos del modelo operacional.
Johnson-Laird encontró que en los silogismos transitivos tb ocurría el efecto de la figura: el tipo de figura favorecía las conclusiones A-C o C-A.
MODELOS BASADOS EN LAS IMÁGENES MENTALES (De Soto y cols)
El proceso de solución de los silogismos transitivos requiere la combinación de las interpretaciones de las premisas en una representación unitaria y espacial.
El modelo está basado en la elaboración e interpretación de una imagen del contenido de las premisas y la dificultad depende del tipo de términos relacionales empleados en las premisas.
Dos principios generales que subyacen al proceso de elaboración de imágenes:
Los sujetos prefieren construir los órdenes espaciales en determinadas direcciones: en la cultura occidental de izda a dcha y de arriba hacia abajo.
Un silogismo transitivo será más fácil si la primera premisa contiene en primer lugar el término que se sitúa más arriba o más a la izda de los ejes espaciales (“A es mejor que B”, es más fácil que “B es peor que A”).
La construcción espacial será más fácil cdo se enuncia en primer lugar uno de los dos extremos de los ejes espaciales (“A es mejor que B” o “C es peor que B”, serán más fáciles que “B es peor que A” o “B es mejor que C”).
Sin embargo, éste principio solo parece influir en la segunda premisa.
Huttenlocher explica el efecto aludiendo al papel que desempeña el término extremo en el enunciado. Si el tercer término de la segunda premisa es el sujeto gramatical, la comprensión será más fácil que si es el objeto gramatical.
Los resultados experimentales muestran que los silogismos “A es mejor que B, C es peor que B” y “B es peor que A, C es peor que B” (en los que el tercer término “C” es el sujeto gramatical de la segunda premisa) son semejantes en el nº de aciertos y tiempos de solución, y más fáciles que “B es peor que A, B es mejor que C” y, contrariamente a lo predicho por el principio de anclaje de los extremos, la primera premisa del segundo silogismo presenta en primer lugar el término medio “B” y no uno de los extremos.
EL MODELO LINGÜÍSTICO
Frente a los modelos de la imagen, Clark propone que la inferencia transitiva se basa en representaciones proposicionales, y que la dificultad de los problemas se debe a factores lingüísticos que influyen sobre la comprensión.
3 principios generales:
Las relaciones del tipo sujeto, predicado, verbo u objeto directo, se almacenan y se recuperan con prioridad a otras informaciones.
Pe, las premisas “A es mejor que B” “B es mejor que C” se representan de forma comprimida como “A es mejor, B es mejor y C esmeros bueno”, haciendo más fácil el problema, ya que no se pierde el término medio y la relación entre A y C se puede extraer directamente de la representación.
Algunos adjetivos son neutros respecto a la magnitud de la escala, mientras que otros presuponen uno de los extremos de la escala.
Pe, la premisa “A es mejor que B” contiene un adjetivo no marcado que expresa el distinto grado en que recomparan A y B con respecto a ser buenos. Sin embargo, la premisa “A es peor que B” contiene un adjetivo marcado que hace que los términos A y B se sitúen hacia un extremo de la escala, siendo una premisa semánticamente más compleja, y más difícil de procesar.
La recuperación de la información es más fácil si la representación de las relaciones funcionales es congruente con la pregunta formulada.
Los silogismos serán más fáciles cdo la pregunta se formula en la misma dirección. Pe, “A es mejor que B, B es mejor que C” será más fácil cdo la pregunta es “¿Cuál es el mejor?, que cdo es “¿cuál es el peor?”.
Ambos modelos ofrecen explicaciones alternativas del mismo fenómeno, generando una polémica en torno al modo de representación más adecuado de las premisas.
Según Clark, la confrontación entre ambos modelos es más evidente en las premisas negativas, y los datos apoyan las predicciones del modelo lingüístico.
Según el modelo espacial, ambos tipos de premisas (afirmativas ó negativas) darían lugar a los mismos resultados, ya que a preferencia para la construcción de la imagen mental es en ambos casos de arriba hacia abajo.
El modelo lingüístico, sin embargo, predice que la estructura lingüística es distinta, siendo las premisas negativas más fáciles al conservar el término medio en la representación proposicional.
No obstante, algunos autores señalan que la supuesta equivalencia entre las premisas afirmativas y negativas (defendido por Clark), puede no existir en el proceso de comprensión (“A no es tan malo como B” puede que no siempre se interprete como “A es mejor que B”, sino como “B es peor que A”), y entonces, la direccionalidad (de abajo a arriba) y el marcado léxico, vuelven a coincidir en sus predicciones.
Tampoco se diferencia el principio de anclaje de los extremos del modelo espacial, del principio de la congruencia del modelo lingüístico, dado que predicen resultados convergentes, aunque por razones distintas.
MODELO MIXTO de Sternberg
Reúne la contribución de los aspectos lingüísticos y espaciales, en la explicación del razonamiento con series de 3 términos.
El procesamiento de la información lingüística contenida en las premisas, precede a la representación espacial, y ambos tipos de representaciones se encuentran disponibles durante la ejecución de los procesos de búsqueda y recuperación de la información.
Los datos experimentales sobre los tiempos de solución de los silogismos transitivos, se ajustan mejor al modelo mixto, que al modelo de la imagen o lingüístico, considerados aisladamente.
Sin embargo, es posible que los sujetos desarrollen distintas estrategias, a medida que adquieren experiencia en la solución de silogismos transitivos.
Las instrucciones o el tipo de presentación de los problemas, tb pueden influir en la representación que se adopte para resolverlos:
LA TEORÍA DE LOS MODELOS MENTALES (Johnson-Laird)
La polémica entre los modelos de la imagen y lingüísticos, es infructuosa.
La teoría de los modelos mentales se centra en el análisis del proceso de inferencia, independientemente del tipo de representación.
La construcción de un modelo mental de premisas refleja la estructura de la disposición espacial, y esta estructura no tiene que identificarse necesariamente con una imagen mental concreta.
Los sujetos construyen un modelo mental de la situación descrita por las premisas, basándose en su conocimiento del significado de los términos relacionales: se representa la disposición espacial del contenido de las premisas y se combinan éstos modelos mentales para llegar a una inferencia sobre las relaciones entre los 2 términos no relacionados explícitamente en las premisas.
La teoría se encuentra más en la línea de los modelos de la imagen mental (sin comprometerse). Esta en desacuerdo con la representación proposicional de los modelos lingüísticos.
Sin embargo, las predicciones de ambos modelos coinciden, por lo que Byrne y Johnson-Laird, estudian las relaciones transitivas en series de 5 términos, en las que se pueden plantear el estudio de la dificultad de los problemas en función del número de modelos mentales.
La dificultad de los problemas, dependerá del número de modelos mentales que puedan construirse a partir de las premisas.
Los resultados experimentales, apoyaron las predicciones de la teoría, poniendo de manifiesto que es el número de modelos mentales, y no el número de reglas, lo que determinaba la dificultad de los problemas.
Tb hay datos a favor de una representación espacial integrada en las investigaciones sobre la memoria de trabajo y razonamiento silogístico.
En la teoría de los modelos mentales, la sobrecarga de la memoria de trabajo, es una de las fuentes principales de error, y a medida que aumentan el número de modelos mentales, tb aumenta la dificultad de los problemas.
La memoria de trabajo esta constituida pro un procesador central, que recibe apoyo de un almacén fonológico y uno visoespacial (encargado de retener en la MCP la información visual).
Si, durante la realización de una tarea de silogismos lineales, se introduce otra que requiera la utilización del almacén visoespacial, se produce un deterioro en el rendimiento de los sujetos.
Esto apoya la representación de una disposición espacial, en el razonamiento silogístico.
Sin embargo, no se ha demostrado que esta representación espacial, se tenga que concretar en una imagen mental.
TEMA 7: EL RAZONAMIENTO CONDICIONAL
INTRODUCCIÓN
Argumento condicional: 2 premisas y 1 conclusión, en la que se establece una relación de contingencia, real o hipotética, enunciada por medio de “si, entonces” (implicación material) y “si y solo si, entonces” (equivalencia material).
Esta formulación tan sencilla y habitual en el lenguaje cotidiano, presenta varias dificultades, cdo se interpreta desde el modelo normativo lógico.
INFERENCIAS BÁSICAS DEL CONDICIONAL:
Como la expresión lingüística del bicondicional (“si y solo si”) es poco habitual, la afirmación del consecuente y la negación del antecedente, se deben a que los sujetos interpretan la implicación material (“si, entonces”) como equivalencia material (“si y sólo si, entonces”).
EJEMPLO: “Si Pepa va a cenar a casa de sus padres, entonces se queda a dormir”:
Estas cuatro inferencias serían válidas si el comentario fuera “si y sólo si Pepa va a cenar a casa de sus padres, entonces se queda a dormir” (bicondicional).
3 TIPOS DE TAREAS EXPERIMENTALES:
Son las más habituales, consisten en presentar un enunciado condicional y una premisa, y pedir al sujeto, que evalúe si la conclusión es válida o no, que seleccione la conclusión válida entre un conjunto de conclusiones alternativas, o que genere su propia conclusión.
Consisten en presentar un enunciado condicional, y pedir al sujeto que evalúe las distintas combinaciones de los valores de verdad de las proposiciones, premisas y conclusiones, o que genere estas combinaciones.
Consiste en presentar cuatro tarjetas y una regla, y pedir al sujeto que seleccione las tarjetas necesarias para comprobar si la regla es verdadera o falsa.
LOS MODELOS DE REGLAS MENTALES
Modelos más cercanos en sus planteamientos al modelo lógico.
Supuestos:
Estas reglas, no comprenden el número total de las reglas normativas, por eso, se habla de reglas básicas, como el modus ponens, que pertenecen al grupo de reglas deductivas “naturales”.
MODELO DE DEDUCCIÓN NATURAL (Braine):
Propuesto para subsanar la falta de correspondencia observada entre la interpretación lógica de los operadores, y su interpretación en el lenguaje natural. Para esto, haría falta que el componente de lógica mental, fuera capaz de aprehender las propiedades semánticas y sintácticas de los operadores que se utilizan en el lenguaje natural.
La regla mental o esquema de inferencia del condicional es el modus ponens. Para el resto de formulaciones, se requieren cómputos adicionales, ya que la regla no se puede aplicar directamente. En este sentido, sus resultados experimentales muestran que las formulaciones que no se ajustan al modus ponens son más difíciles, lo que se refleja en un mayor nº de errores y tiempos de solución más largos.
Componentes de la última versión del modelo de deducción natural:
Este componente explica las falacias de afirmación del consecuente y negación del antecedente y la inferencia del modus tollens, recurriendo a inferencias invitadas (sugeridas por el contexto) y violando los principios de la lógica que limitan la interpretación a lo explícitamente expresado en las premisas.
Los esquemas de inferencia para el término lingüístico “si”, son:
El repertorio de esquemas de inferencia 18 reglas básicas y universales constituyen. La utilización de estos esquemas de inferencia está determinada por el programa de razonamiento de los sujetos, que está constituido por rutinas para el razonamiento directo y estrategias para el razonamiento indirecto
Rutinas de razonamiento directo:
Las rutinas de razonamiento directo son universales (comunes a todos los sujetos) y buscan el emparejamiento entre los esquemas de inferencia y la forma de las proposiciones que constituyen las premisas del argumento.
En contra de la lógica, el razonamiento humano parte de suposiciones: Parte de premisas que supone verdaderas y no deriva una conclusión a partir de premisas contradictorias.
La regla mental se aplica cuando se produce el emparejamiento entre un esquema de inferencia y una proposición, y la inferencia pasa a formar parte del conjunto de premisas.
Para evaluar si un argumento es válido se comprueba si existe una correspondencia o una contradicción entre las proposiciones del conjunto de premisas y la conclusión.
Los resultados experimentales indican que los sujetos cometen pocos errores en los problemas que se pueden resolver por las rutinas de razonamiento directo.
Problema: Las rutinas de razonamiento directo no se pueden aplicar a todos los problemas.
Estrategias de razonamiento indirecto:
Se aplican en los casos en que no pueden aplicarse las rutinas de razonamiento directo. Las estrategias de razonamiento indirecto no son universales (variabilidad intersujetos) y pueden ser procesos heurísticos sin correspondencia con el repertorio de reglas mentales, una de estas estrategias es la transferencia del problema a otros procedimientos de razonamiento (razonamiento analógico o probabilístico).
SISTEMA DE DEDUCCIÓN NATURAL (ANDS) (Rips)
Es un modelo computacional, constituido por 2 componentes básicos:
Supuesto general:
El razonamiento humano consiste en la aplicación de reglas mentales, y las rutinas de inferencia son las encargadas de aplicar las reglas para probar argumentos condicionales, disyuntivos y conjunciones.
Procedimiento de prueba. Consta de:
Las reglas de inferencia, van ubicando éstas proposiciones en ambas configuraciones, y se prueba el argumento cdo se encuentra un emparejamiento entre las submetas y los asertos.
Este modelo explica el proceso de razonamiento condicional como la generación de una prueba en la memoria de trabajo en la que se admiten suposiciones, que no tienen por qué ser necesariamente verdaderas. El procedimiento es sensible a las metas del sistema deductivo.
Rips formula 14 reglas de inferencia que se aplican por un orden de preferencia, empezando por las más básicas.
De éste conjunto, 2 son del tipo modus ponens:
El sistema genera la submeta “p” y se puede inferir “q”, que es el consecuente de la proposición en el árbol de asertos. Esta regla permite encontrar un emparejamiento entre submeta y aserto.
Limitaciones del modelo:
Los 2 modelos son muy parecidos en sus concepciones teóricas, y en el conjunto de reglas mentales que proponen para el condicional.
Sin embargo, el de Braine es más completo, ya que permite, tanto la evaluación como la generación de argumentos, y la detección de la contradicción de forma inmediata, al admitir suposiciones contradictorias (El modelo de Rips sólo puede evaluar argumentos).
Existen varias perspectivas que no están de acuerdo con el acento lógico de éstos modelos (por muy naturales que pretendan ser), y critican la falta de explicación de los efectos del contenido sobre el proceso de razonamiento.
TEORIA DE LOS MODELOS MENTALES (Johnson-Laird)
Marco teórico alternativo y contrapuesto a los modelos de reglas mentales, rechaza las reglas de inferencia y acentúa los aspectos semánticos del razonamiento.
La interpretación de un enunciado condicional “si p, entonces q” dependerá de su significado lingüístico y del contexto.
El modelo mental que se genera describirá el estado actual de aquello descrito en el antecedente y la relación del consecuente con el antecedente que se presupone en ese contexto.
El modelo mental inicial supone una representación exhaustiva del antecedente, [p], mientras que el consecuente, q, puede darse en otros modelos mentales.
MODELO INICIAL: [p] q
……
(Una representación exhaustiva viene indicada por un corchete, y los puntos representan otros modelos posibles que no se encuentran representados)
La inferencia modus ponens es directa y, por tanto, la más fácil.
Además el modelo mental inicial, tanto para el condicional como para el bicondicional es el mismo, lo que explicaría la ambigüedad de su interpretación.
El modelo inicial también explica por qué los sujetos parecen ajustarse a una tabla de verdad defectiva al considerar irrelevantes aquellos condicionales en los que el antecedente es falso: al ser una representación exhaustiva del antecedente, el modelo inicial no representa un estado de cosas en el que el antecedente sea falso, por tanto, los sujetos consideran irrelevante todo antecedente falso.
Para explicar otras inferencias diferentes del modus ponens, es necesario generar modelos mentales explícitos a partir del conocimiento general y del conocimiento de las relaciones que se pueden establecer entre el antecedente y el consecuente. A medida que aumenta el nº de modelos mentales explícitos, aumenta la dificultad del problema.
MODELOS EXPLÍCITOS DEL MODUS TOLLENS:
Condicional Bicondicional
[p] [q] [p] [q]
[¬p] [q] [¬p] [¬q]
[¬p] [¬q]
La inferencia modus tollens es más fácil en el bicondicional (requiere dos modelos mentales) que en el condicional (requiere tres modelos).
En la falacia de la afirmación del consecuente, los sujetos representan exhaustivamente tanto el antecedente como el consecuente, cuando se afirma “q” se afirma también “p”: [p] [q]
En la falacia de la negación del antecedente (menos frecuente), los sujetos generan un segundo modelo mental explícito del bicondicional, que da lugar a la inferencia [¬q]: [¬p] [¬q]
Si los sujetos no generan este segundo modelo, pueden responder correctamente que no hay una conclusión válida, pero debido a una interpretación incorrecta de la implicación material “si, entonces”.
LIMITACIONES DE LA Tª DE LOS MODELOS MENTALES:
Aunque asume que tanto el conocimiento sobre el significado de los operadores lógicos como el conocimiento general (contenido/contexto) determinan los modelos mentales que se representan, no explicita las consecuencias del efecto del conocimiento general sobre los procesos que generan modelos mentales y que recuperan contraejemplos.
MODELOS DE REGLAS MENTALES vs Tª DE LOS MODELOS MENTALES:
La Tª de los modelos mentales explica un mayor nº de resultados experimentales sobre la dificultad de los problemas, en términos de la cantidad de procesamiento y de las limitaciones de la memoria de trabajo, como la mayor dificultad del modus tollens en el condicional, que en el bicondicional.
MODELOS CON COMPONENTES PRAGMÁTICOS
La tarea de selección de Wason se considera la tarea paradigmática del condicional.
En su versión original la tarea se presentaba con contenido abstracto (4 tarjetas que tenían letras por una cara y números por la otra). La presentación de la tarea iba acompañada de un enunciado condicional en forma de regla (pe, “si hay una consonante por una cara, entonces hay un número impar por la otra”), y se pedía a los sujetos que dieran la vuelta a la(s) tarjeta(s), para confirmar o falsar la regla.
Se observó que se producían errores sistemáticos y persistentes.
Ejemplo: 4 tarjetas que mostraban P, E, 7, 2
La mayoría de los sujetos seleccionaban la tarjeta que se corresponde con el antecedente del condicional (P), o las 2 tarjetas que se corresponden con el antecedente y con el consecuente (P y 7).
Sin embargo, de acuerdo con el modelo normativo, la respuesta correcta sería la elección de la letra P (confirmaría la regla) y la elección del número 2 (falsearía la regla).
Cdo se dotó de contenido a la tarea de selección (pe, ciudades de destino y medios de transporte), se encontró que el rendimiento de los sujetos mejoraba significativamente (los sujetos seleccionaban las tarjetas correctas para falsar o confirmar la regla.
Sin embargo, el efecto de facilitación no era el mero contenido, sino que éste fuera conocido por los sujetos (el rendimiento correcto de los sujetos se interpretó como un proceso de memoria, y no como la aplicación de unas reglas lógicas).
Pero, seguían existiendo efectos de facilitación que no se explicaban por el proceso de recuperación de conocimientos de la memoria, pues problemas con contenido concreto pero no familiar seguían produciendo facilitación, y el contexto en el que se formulaba la tarea, permitía resolver correctamente los problemas con contenido tanto familiar como abstracto.
Varias propuestas alternativas defienden unos procesos de razonamiento específicos del dominio de conocimiento y marcados por el contexto.
ESQUEMAS DE RAZONAMIENTO PRAGMÁTICO
Para explicar por qué el contenido no familiar tb produce el efecto de facilitación, Cheng y Holyoak, proponen que los sujetos utilizan unos esquemas de razonamiento: estructura de conocimiento formada por un conjunto de reglas, con un nivel intermedio de abstracción, definido por el contexto.
Debido a la importancia de las metas, estos esquemas se denominan esquemas de razonamiento pragmático.
Las reglas son sensibles a diferentes clases de metas, que ocurren en determinados contextos. Las respuestas serán correctas en la medida que sean las alternativas más útiles para la situación concreta en la que se encuentra el sujeto.
Los esquemas se han ido formando por la experiencia ante un conjunto de situaciones con una misma clase de metas.
Para explicar los efectos de facilitación en la tarea de selección se identifican unos esquemas de regulación constituidos por permisos y obligaciones, que logran agrupar a la mayoría los problemas con contenido temático.
Los componentes de estos esquemas incluyen los conceptos de posibilidad, necesidad, acción y requisitos que se han de cumplir.
Reglas de los esquemas de permiso:
Esta es una regla semejante al modus ponens (la precondición debe producirse si se va a realizar la acción).
Con esta regla se bloquea la falacia de la negación del antecedente (hace explícita la irrelevancia de que se cumpla la precondición si no se va a realizar la acción).
Con esta regla se bloquea la falacia de la afirmación del consecuente (la acción puede, aunque no necesariamente, satisfacerse, cdo se cumpla la precondición).
Esta regla enuncia explícitamente el modus tollens (incluye el imperativo “no debe” realizarse la acción si no se satisface la precondición).
Estas reglas no son propiamente reglas lógicas, ya que son sensibles al contexto y a la interpretación de los términos “debe”, “puede”, que no se contemplan en la lógica formal. Además, no siempre hay una coincidencia entre éstas reglas y las reglas lógicas.
Los resultados experimentales mostraron que los sujetos resolvían correctamente la tarea de selección, siempre y cuando tuvieran las claves contextuales para interpretar la regla como un permiso.
TEORÍA DE LOS CONTRATOS SOCIALES
Una interpretación alternativa a los efectos de facilitación en la tarea de selección de Wason es la teoría del intercambio social de Cosmides.
Teoría inscrita dentro del marco del evolucionismo cultural.
Similitudes con la teoría de los esquemas de razonamiento pragmático:
Para ésta teoría las reglas son innatas (no fruto de la experiencia).
Para Cosmides, en su teoría se integra la moderna biología evolucionista y la ciencia cognitiva, de forma que las teorías de la selección natural se utilizan para generar hipótesis sobre las características de la mente humana.
Por tanto, los mecanismos de procesamiento de la información serían producto de la selección natural a los largo de la evolución, y estarían especializados para producir conductas que solucionen determinados problemas adaptativos.
Según la teoría de los contratos sociales, hay leyes que son inherentes al proceso de selección natural y que gobiernan y limitan el tipo de conducta que puede desarrollarse.
La solución adaptativa para las situaciones de intercambio social son unos algoritmos de contrato, mediante los que el individuo está obligado a pagar un costo a un individuo o grupo, si quiere tener derecho a recibir un beneficio.
Pero, este intercambio no se da indiscriminadamente, sino que requiere garantía de cumplimiento por ambas partes. Por ello, éstos algoritmos incluyen procedimientos para detectar rápida y eficazmente cdo alguien ha engañado o intenta engañar (violación de una norma establecida, explícita o implícitamente, al aceptar un contrato social).
Aplicación a la tarea de selección:
El contenido de la tarea se adapta a la estructura costo/beneficio, de forma que las cuatro tarjetas enuncian:
Se proporciona una norma de contrato social: “Si se recibe un beneficio se tiene que pagar el coste”.
En éste caso, el procedimiento para la detección de posible engaño daría lugar a que el sujeto eligiese las tarjetas “¬q” y “p”, e ignorase las tarjetas “q” y “¬p” por irrelevantes.
Las respuestas de los sujetos coinciden con los dictámenes de la lógica. Estos algoritmo de contratos sociales operarán tb con normas no familiares, siempre y cdo el sujeto perciba que representan una estructura costo/beneficio. Además, las normas que no sean contratos sociales, no mostrarán el patrón de respuestas expuesto.
Críticas de Cosmides a la explicación de la tª de los esquemas de razonamiento pragmático sobre los efectos facilitadores:
Los efectos facilitadores se deben a que se añade información contextual que convierte las normas de permiso en contratos sociales. Decir que uno tiene que satisfacer una precondición para que le sea permitida la acción no es más que otro modo de decir que uno tiene que pagar un costo para obtener un beneficio.
Respuesta de Cheng y Holyoak:
Cosmides utiliza indiscriminadamente los términos “intercambio social” y “contrato social”, el mero hecho de decir que se ha de cumplir un requisito para poder realizar una acción no implica que se considere dicha acción como un beneficio obtenido.
EJEMPLO: “Si limpias sangre derramada, entonces debes ponerte guantes de goma”, según Cosmides “limpiar sangre derramada” sería un beneficio, los sujetos desearían hacerlo, pero esto es poco probable.
Cosmides amplió su definición de intercambio a “cumplir un requisito cuando hay un resultado que no coincide con la estructura costo/beneficio”.
Problemas utilizados para probar las predicciones de la tª del intercambio social:
Problema de la raíz de cassava. En una tribu (imaginaria):
Como la raíz de cassava es un afrodisíaco, los ancianos establecen la siguiente norma: “Si un hombre come raíz de cassava, entonces tiene que llevar un tatuaje en la cara”.
Problema del huevo de avestruz.
La norma es: “Si comes duiker, entonces tienes que haber encontrado un huevo de avestruz”.
Resultados:
Cuando los sujetos razonan acerca de situaciones con la estructura costo/beneficio, sus respuestas se ajustan a las predicciones del procedimiento para la detección del engaño.
Investigaciones planteadas por la polémica entre esquemas de razonamiento pragmático y contratos sociales:
Considerando que los esquemas de permiso podrían considerarse como normas de contrato social, estudian los esquemas de obligación, en los que no se da esta ambigüedad.
Resultados:
Efectos de facilitación, a pesar de que los problemas formulados como obligaciones carecen de la estructura costo/beneficio.
Estos resultados apoyan la tª de los esquemas de razonamiento pragmático.
Estudian el papel que desempeña el sujeto en la tarea de selección cuando adopta distintas perspectivas:
Las promesas y advertencias condicionales se ajustan a un esquema compuesto de permiso y obligación dependiendo del papel que desempeña el sujeto en ambas situaciones:
Estos resultados apoyan la tª de los esquemas de razonamiento pragmático.
Interpretan el cambio de perspectiva como evidencia a favor de la tª de los contratos sociales. Defienden el papel crítico del mecanismo para la detección de tramposos en la explicación de los efectos facilitadores de la tarea de selección: el mero hecho de interpretar la tarea como un contrato social no es suficiente pera producir efectos facilitadores, se requiere adoptar una perspectiva en la que se pueda producir el engaño.
Encuentran que la estructura costo/beneficio es necesaria para obtener los efectos facilitadores en problemas de contrato social, también es importante la presencia del término “debe”, sin embargo, la perspectiva del engaño sólo contribuye a mejorar el rendimiento cuando la tarea es ambigua (también la negación explícita: ¬p y ¬q).
Apoyan una ampliación de la tª de los modelos mentales, descartando tanto la tª de los esquemas de razonamiento pragmático como la tª de los contratos sociales. Distinguen entre:
Los efectos facilitadores se deben a dos factores ajenos a los esquemas de razonamiento: negación explícita (¬p y ¬q) y presentación de un contexto para la búsqueda de posibles violaciones de la regla.
Según Girotto y cols., la negación explícita no es necesaria para producir facilitación, los problemas de permiso que logran romper la ambigüedad de la negación implícita por medio del contexto en que se presenta la tarea, también producen ese efecto.
Críticas a la tª de los contratos sociales:
Se ha centrado en el concepto de la estructura costo/beneficio, y muchos de los problemas en los que se han obtenido efectos facilitadores no se ajustan a esta estructura.
Aportación de la tª de los contratos sociales:
Concepto del mecanismo para la detección del engaño como vía para el análisis de la adopción de perspectivas: la posibilidad de engaño ha puesto de manifiesto que los contextos interactúan con las metas del sujeto y con la perspectiva que adopta.
TEORÍA DE LA RELEVANCIA
TEORÍA HEURÍSTICA Y ANALÍTICA de Evans:
Se distinguen 2 procesos para explicar el razonamiento:
Las respuestas más frecuentes en el condicional son “p” y “p y q”, lo que fue interpretado por Wason como un sesgo hacia la confirmación de la regla y no hacia su falsación.
Sin embargo, Evans, advierte sobre el sesgo de emparejamiento: los sujetos seleccionan las tarjetas que coinciden con los términos de la regla.
En las versiones afirmativas de la regla no se pueden distinguir entre ambos sesgos, pues ambos dan lugar a las mismas respuestas (p y “p y q”). Por eso, se introducen las negaciones en las tareas de selección, de forma que:
Ejemplo:
Regla: “Si hay una consonante por un lado, entonces no hay un número impar por el otro lado” (si p, entonces ¬q).
Sesgo de confirmación: los sujetos elegirían las tarjetas p (consonante) y ¬q (número par).
Sesgo de emparejamiento: los sujetos seleccionaron las tarjetas p (consonante) y q (número impar).
Para explicar el sesgo de emparejamiento, Evans alude a 2 heurísticos:
En la tarea de selección, se pide la selección de tarjetas, y los sujetos seleccionan las tarjetas que consideran relevantes, sin necesidad de pasar por la etapa analítica, es decir, sin razonar.
(En otro tipo de tareas, como las tablas de verdad, la etapa analítica se pone en marcha, y filtra parte de la información que ha sido seleccionada en la etapa heurística).
TEORÍA DE LA RELEVANCIA DE SPERBER Y WILSON
En esta teoría la relevancia se considera que es un producto de los procesos inferenciales.
El razonamiento se encuentra determinado por las expectativas que tienen los sujetos, sobre la relevancia suscitada por el contenido y el contexto de la tarea. Pero, la concepción de relevancia es genérica, es decir, no se encuentra vinculada a ningún contenido particular.
Los procesos cognitivos se guían por la información más relevante en ese momento y sobre la que acomodan un contexto de supuestos para maximizar su relevancia.
A su vez, la consideración de lo que es lo más relevante depende de las expectativas que se tengan sobre sus efectos y costes cognitivos:
Todo acto de comunicación transmite una presunción de su propia relevancia. Este principio garantiza que espontáneamente se ponga en marcha el proceso de comprensión ante la emisión del acto comunicativo. El éxito que tenga el emisor, dependerá de que produzca efectos adecuados bajo costes mínimos en el receptor.
Aplicación a la tarea de selección:
El proceso de interpretación tiene las siguientes consecuencias:
Los sujetos seleccionan “p” o “p y q” (consecuencias 1 y 2), que suponen un menor coste y satisfacen un bajo nivel de expectativas de relevancia con un esfuerzo mínimo (la Rs. correcta sería “p y ¬q”).
La consecuencia 3 es la de mayor coste cognitivo, porque supone el procesamiento de una contradicción y una negación (¬q).
Tanto el orden de accesibilidad de las consecuencias como las expectativas de relevancia pueden variar en función del contexto y contenido del enunciado condicional.
Se proponen unas directrices para generar una tarea de selección en la q el sujeto seleccione las dos tarjetas correctas (p y ¬q):
EJEMPLO: La palabra “soltero” combina “ser varón” (p) con “no estar casado” (¬q).
EJEMPLO: Introducir la regla dentro del contexto de una historia y que ésta sea expuesta por uno de los personajes.
Cuando en la tarea de selección se utiliza la negación, los tres componentes más pertinentes serán:
Los sujetos seleccionan las tarjetas “p” y “q” porque la negación implícita requiere menos coste y los efectos cognitivos son los de la interpretación de una negación.
EJEMPLO: “Si una persona bebe alcohol, entonces es mayor de edad”.
Aunque no introduce el término “debe”, la regla se interpreta como un deber.
Los resultados se ajustan a las predicciones de la tª de la relevancia,
y muestran la utilidad de las directrices propuestas para generar una
tarea de selección sencilla y con resultados correctos.
MODELO BAYESIANO (RAZONAMIENTO INDUCTIVO)
Concibe la tarea de selección como una tarea de comprobación de hipótesis, ya que considera que la relevancia es el resultado de un juicio probabilístico sobre la capacidad informativa de las alternativas, e integra razonamiento y toma de decisiones: se razona con el fin de tomar una decisión y al razonar también hay que decidir entre las posibles conclusiones, la más relevante para el problema.
Trabajos experimentales:
Kirby (Análisis de los juicios probabilísticos):
El fracaso de la mayoría de los sujetos al no seleccionar la tarjeta “¬q” se explica por la baja probabilidad que hay de encontrar “p” cuando el conjunto de ocurrencias es pequeño.
EJEMPLO: “Si hay una vocal por un lado, hay un nº impar por el otro”
El conjunto de ocurrencias de “p” (vocales) es pequeño con respecto a “¬p” (consonantes), los sujetos consideran poco probable que detrás de un nº par (¬q) pueda haber una vocal.
Sin embargo, estas probabilidades no son fijas, sino subjetivas y las evaluaciones del tamaño del conjunto de las ocurrencias varían en función del conocimiento del sujeto y de aquello que aporte más información.
Oaskford Y Chater (Determinación del valor informativo):
Las frecuencias en la selección de las tarjetas son una función monotónica de la ganancia de información que se espera obtener en cada una.
Las metas del sistema cognitivo se dirigen hacia la selección de información relevante, y los sujetos resuelven la tarea de selección de acuerdo con el modelo bayesiano para la selección óptima de los datos y bajo el supuesto de rareza (las propiedades que figuran en las relaciones causales son raras o poco frecuentes en el ambiente): los sujetos seleccionan la/s tarjeta/s que al darle/s la vuelta aporte/n más información sobre la comprobación de una de dos respuestas:
Al aplicar el modelo se obtiene que:
-La tarjeta “p” será informativa en la medida en que la probabilidad
de “q” sea baja.
-La tarjeta “q” será informativa cuando las probabilidades de “p” y
de “q” sean bajas.
-La tarjeta “¬q” será informativa cuando la probabilidad de “p” sea
alta.
-La tarjeta “¬p” no es informativa.
De esta forma se obtiene que el orden de frecuencias en la selección de las tarjetas será p>q>¬q>¬p, que coincide con los resultados habituales en esta tarea.
Cálculo de la utilidad esperada en versiones de la tarea de selección con términos deónticos:
La tarea de selección se concibe como el uso de una regla (versión deóntica) para maximizar la utilidad esperada:
Kirby: “Si una persona bebe cerveza, entonces es mayor de 21 años”
(variando ¬q: 4, 12 y 19 años). Resultados: La selección de la tarjeta “¬q” aumenta a medida que aumenta la probabilidad de “p” de desobecer la regla (19>12>4).
Green y cols., las estimaciones que hacen los sujetos sobre la ocurrencia de los contraejemplos de “q” se encuentran determinadas por el tamaño del conjunto de “p”, aunque esta relación es algo más compleja, ya que el valor asignado a la información (confirmación y desconfirmación) también se tiene que comparar con otros beneficios/costes esperados.
El modelo bayesiano explica cómo influye el contenido y la variación de las probabilidades y utilidades sobre la selección de las tarjetas.
TEMA 8: EL RAZONAMIENTO PROBABILÍSTICO
INTRODUCCIÓN
En el razonamiento inductivo, la persona no obtiene una conclusión directamente derivada de la información disponible en las premisas (deductivo), sino que ha de ir más allá de esa información.
Hay ocasiones en las que no se pueden extraer conclusiones definitivas, bien por no disponer de suficiente información, o porque esa información sólo conduce a predecir resultados. Las conclusiones alcanzadas bajo estas circunstancias son probables, pero permiten descubrir y predecir hechos nuevos basándose en los hechos anteriores.
En nuestra vida diaria, estamos acostumbrados a realizar juicios de probabilidad, aunque no los clasifiquemos como tales.
Los resultados de estos procesos (inductivos) constituyen las bases sobre las que se apoyan la mayor parte de las decisiones que las personas toman en su vida, por lo que cabe preguntarse por la precisión de éstos juicios.
NOCIONES BÁSICAS DE PROBABILIDAD
¿Qué es y cómo se obtiene la probabilidad de un suceso?:
Hay 2 enfoque objetivos:
Sin embargo, en la vida diaria, es raro que podamos asignar probabilidades objetivas, puesto que los acontecimientos no se repiten tanto.
Por eso, se utilizan probabilidades subjetivas, procedentes de la información a disposición del sujeto o, en ocasiones, de sus opiniones y creencias.
AXIOMAS DE LA TEORÍA DE LA PROBABILIDAD:
Por tanto, la probabilidad de “no ocurrencia” de un suceso será igual a 1 menos la probabilidad de su “ocurrencia” P(no S)=1-P(S).
P(S1 ó S2) = P(S1)+P(S2)
La probabilidad de la conjunción de 2 sucesos es igual a la probabilidad del primero, asumiendo que se producido el segundo, por la probabilidad de éste último. De aquí que, la probabilidad de la conjunción de 2 sucesos, es siempre menor o igual, que la probabilidad de uno de los 2 sucesos considerado aisladamente.
Bayes añadió el TEOREMA DE BAYES:
Permite estimar la probabilidad de un suceso a la luz de un nuevo dato, partiendo de las probabilidades del suceso a priori del suceso, y de la capacidad predictiva que la ocurrencia del dato tiene para la ocurrencia del propio suceso, es decir, la diagnosticidad del dato.
La probabilidad condicional (o a posteriori) se obtiene:
La estadística bayesiana permite introducir probabilidades subjetivas, al evaluar las probabilidades a priori, y las probabilidades condicionales del suceso.
Estas probabilidades subjetivas pueden obtenerse de distintos datos, tales como la evidencia existente, teorías previas o la opinión o creencias de la persona.
(leer ejemplo de oposición de Pedro para puesto de trabajo, pg 327)
La probabilidad a priori P(H) de obtener un puesto de trabajo sin tener experiencia práctica es de 0,05. Sin embargo, la probabilidad a posteriori de obtener un puesto de trabajo una vez sabemos la nota de Pedro en la oposición es mayor (p(H/D) = 0,34).
ENFOQUE DE LOS HEURÍSTICOS DE RAZONAMIENTO
Los primeros intentos de comparar a conducta ideal, especificada por el teorema de Bayes, y el rendimiento de las personas, mostraron que las personas no utilizaban el teorema al emitir juicios de probabilidad, puesto que se apreciaba una tendencia conservadora: se integraba la información sobre el nuevo dato para producir unas probabilidades a posteriori, más cercanas a las probabilidades a priori, que las predichas por el teorema de Bayes.
En investigaciones posteriores se observó que se ignoraban las probabilidades a priori, produciéndose juicios más extremos.
Tversky y Kahneman desvelaron que los juicios, no solo no seguían la norma estadística, sino que se producían errores sistemáticos.
La Teoría de la Racionalidad Restringida (Simon) abrió una nueva perspectiva, señalando que: Debido a las limitaciones cognitivas, las personas construyen modelos simplificados del mundo, en los que posteriormente basan sus juicios y decisiones, no buscando un beneficio máximo (máxima exactitud) sino una cierta satisfacción (resultado satisfactorio) con menor coste cognitivo.
Se trataría de centrarse en cómo se lleva a cabo la tarea realmente más que en cómo debería realizarse.
A partir de sus trabajos, Tversky y Kahneman sostienen que, las personas no muestran un razonamiento estadístico, sino que utilizan heurísticos que se aplican espontáneamente, en una gran variedad de tareas, y que son muy difíciles de eliminar, aun cdo conducen a juicios erróneos (no siempre).
Esta especie de reglas de andar por casa, permiten simplificar la tarea de asignar probabilidades y la tarea de predecir, y su uso se explica por las restricciones cognitivas (pe, limitación de MCP), ya que raramente podemos tener en cuenta toda la información, por la que la seleccionamos dependiendo del tipo de juicio a realizar y de su disponibilidad.
3 heurísticos principales: Heurístico de representatividad, Heurístico de accesibilidad y Heurístico de anclaje y ajuste.
HEURÍSTICO DE REPRESENTATIVIDAD
Consiste en asignar la probabilidad de un suceso en función de su semejanza con una clase o un prototipo.
Puede conducir a resultados correctos, pues la tipicidad de un objeto perteneciente a una clase, estaría relacionada con la frecuencia de ese objeto.
Sin embargo, la semejanza no se ve afectada por variables que influyen en la probabilidad del evento, como el tamaño de la muestra de la que se extrae la información, las probabilidades a priori, o la capacidad predictiva de la información. Tampoco se relaciona con conceptos como la regresión a la media, o el hecho de que la probabilidad de la conjunción de 2 sucesos siempre ha de ser menor que la probabilidad de cada uno por separado.
Por tanto, estos juicios, al ignorar toda esta información estadística, serán sesgados.
Este heurístico se utiliza en problemas como ¿cuál es la probabilidad de que un objeto A pertenezca a la clase B?, o, ¿cuál es la probabilidad de que el proceso B genere el evento A?.
INSENSIBILIDAD DEL TAMAÑO DE LA MUESTRA
Se considera que la probabilidad asignada será más cercana a la probabilidad real del suceso cuanto mayor sea el número de observaciones de que partimos. Sin embargo, ésta información (tamaño de la muestra) no parece ser importante para la mayoría de las personas.
El hecho de esperar que la frecuencia real de un suceso se manifieste en muy pocos ensayos, es un error muy frecuente, y origina la “falacia del jugador” (suponer que la ruleta ha de pararse en el rojo tras una serie de aradas en el negro).
Las personas tienden a extraer concusiones sobre la frecuencia de un suceso, de un acontecimiento o de una característica, a partir de muy pocas observaciones, generalizando a partir de muestras pequeñas si éstas son representativas.
Ejemplo “explorador en una isla desconocida” (pg 333)
Pero, ésta generalización, no se da siempre en la misma medida, sino que las personas tienen en cuenta la homogeneidad que presenta el grupo con respecto a la característica en cuestión:
Las personas no generalizan y tienen en cuenta el tamaño de la muestra cdo se les pregunta por ciertas características (color o anidación de los “sheerables”, y sobre todo sobre la obesidad de los “barratos”), mientras que sí generalizan a partir de una sola observación en el caso de otras características (propiedades del “floridium” o el color de los “barratos”).
Esta diferencia se debe a la homogeneidad o heterogeneidad de las características:
INSENSIBILIDAD A LAS PROBABILIDADES A PRIORI
El teorema de Bayes, partía de las probabilidades a priori, y las combinaba con la información nueva. Sin embargo, las personas ignoran probabilidades a priori y emiten juicios basados únicamente en la información específica que se proporciona, cdo esta es suficientemente representativa.
Ejemplo: “problema de Tom” (pg 334)
3 grupos:
Resultados:
Conclusiones:
Los sujetos se basaban en la semejanza más que en la frecuencia. Realizaban juicios por representatividad de la descripción, ignorando la probabilidad a priori de que un individuo, del que conocen muy pocos datos, de dedique a una profesión determinada.
INSENSIBILIDAD DE LA CAPACIDAD PREDICTIVA DEL DATO
Este sesgo se manifiesta cdo se tiene en cuenta únicamente la evidencia que puede confirmar la hipótesis de que se parte, y se ignora la evidencia que puede conducir a su falsación.
Se tienden a utilizar únicamente la información disponible que salta a la vista, sin tratar de inferir nada. Sin embargo, la información ausente tb se tiene en cuenta en la formula de Bayes (se contempla la probabilidad de la presencia del dato nuevo, en ausencia de la hipótesis que se contrasta: P(D/H´)).
Ejemplo: “Fiesta en el club Ruiz” (pg 338)
El señor Pérez es miembro del club Ruiz, y está en una fiesta a la que solo han sido invitados profesores universitarios y hombres de negocios.
Se pide asignar la probabilidad de que el señor Pérez sea profesor universitario, para lo que se pueden realizar 4 preguntas:
Las preguntas 1, 3 y 4 representan las P(H), P(D/H) y P(D/H´), mientras que la 2 es irrelevante.
Resultados:
FALACIA DE LA CONJUNCIÓN
La probabilidad conjunta de 2 sucesos es siempre menor o igual que la probabilidad de cada suceso por separado, sin embargo, los sujetos consideran más probable la ocurrencia simultánea de 2 sucesos, si ofrecen un modelo más representativo de la información inicial.
Ejemplo: “Problema de Linda”
Este resultado tb podría explicarse mediante el uso del heurístico de representatividad, puesto que se considera que la afirmación f) es menos representativa de la descripción de Linda.
Este sesgo tb se encuentra relacionado con la construcción de escenarios: las personas consideran más probable una situación que aparece como una conjunción de varios sucesos, formando un escenario más detallado y complejo, que otra situación más ambigua en a que únicamente se describe un suceso.
REGRESION A LA MEDIA
“Las puntuaciones extremas en una medición, tienden a acercarse a la media en una medición posterior”
Sin embargo, se ignora la regresión a la media y se espera que las puntuaciones extremas se mantengan, basándose en al semejanza entre 2 eventos relacionados.
Ejemplo: Tendencia a pensar que los hijos de los padres extremadamente altos e inteligentes, lo serán también, aunque en la vida diaria existen continuos ejemplos de lo contrario.
Cdo las personas perciben el efecto de la regresión, inmediatamente proponen una explicación a posteriori.
HEURÍSTICO DE ACCESIBILIDAD
Consiste en asignar la probabilidad de un suceso o de un acontecimiento, en función de la facilidad con la que puede recordarse.
Puede conducir a resultados correctos, pues lo más frecuente es tb lo más disponible, y su recuperación es más rápida. Sin embargo, lo más accesible no siempre es lo más probable.
Se utiliza en juicios en los que se pide la estimación de frecuencias. En tareas de recuerdo.
Variables que afectan:
El heurístico de accesibilidad esta estrechamente vinculado con el HEURÍSITCO DE SIMULACIÓN.
Este se utiliza en tareas de predicción (el de accesibilidad en tareas de recuerdo), ya que se estimaría la probabilidad de un acontecimiento en función de la facilidad con que puede anticiparse o imaginarse. Consiste en considerar más probable una situación (un escenario), cuanto más fácil pueda construirse o imaginarse.
Tanto los sesgos de accesibilidad como los de simulación conducirían a errores parecidos a los producidos por la representatividad: Se ignorarían las probabilidades a priori, o la frecuencia real de un evento, si se dispone de información más reciente o impactante que contradiga dichas probabilidades a priori (ejemplo del “accidente automovilístico”).
En el ámbito social, se relaciona con el sesgo egocéntrico: creer que la opinión que cada uno mantiene es la más frecuente, debido a que las propias ideas, son más accesibles que las de otros.
Un sesgo relacionado es el sesgo retrospectivo: la probabilidad percibida de un suceso aumenta cuando los sujetos conocen el resultado final. Una vez que ha sucedido un acontecimiento, los sujetos piensan que podrían haberlo predicho y que “no podía haber sido de otra forma”. Es más fácil imaginar cómo ha ocurrido un suceso que cómo podría haber ocurrido.
Además, la información, no se encuentra almacenada en unidades aisladas, sino que existen relaciones entre distintos tipos de información. Así, cdo en la memoria existe un vínculo muy fuerte entre 2 sucesos, las personas consideran que habitualmente, ambos se presentan unidos. La recuperación del primer suceso, conlleva a la recuperación inmediata de la segunda. Se conoce como “CORRELACIÓN ILUSORIA”: evaluar como latamente probable la presencia simultánea de 2 acontecimientos, dado el vínculo que pudiese existir entre ellos.
Ejemplo: La tarea consistía en relacionar los diagnósticos de los enfermos con las descripciones realizadas por éstos enfermos.
Resultados: Los sujetos consideraron que ciertas asociaciones se daban con más frecuencia de l o que realmente ocurren, por ejemplo, asociación del enfermo paranoico con la descripción de ojos saltones.
La correlación ilusoria podría tener efectos para la formación de estereotipos sociales: Si un miembro de un grupo minoritario realiza una acción anómala o negativa, ambos sucesos se asociarían y se estimaría como relativamente frecuente.
HEURÍSTICO DE ANCLAJE Y AJUSTE
Consiste en la emisión de un juicio basado en algún valor inicial (obtenido mediante cualquier procedimiento, incluido el azar), que posteriormente se va ajustando, a medida que se añade más información, hasta producir la respuesta final.
La persona realizaría el juicio a partir de alguno de los rasgos del estímulo, y posteriormente, se ajustaría este primer juicio para que integre los rasgos restantes.
Por tanto, la respuesta final estará sesgada hacia el valor inicial, tanto si es relevante para el problema como si no lo es.
Ejemplo: “Estimación de la proporción de población negra en EEUU”.
Previamente se mostraba un número al azar, y se comprobó la influencia que este número tenía en el juicio emitido por los sujetos: los que habían recibido previamente un 10 consideraron la proporción en el 25%, mientras que los que habían recibido un 65, de un 45%.
CRÍTICAS A LOS HEURÍSTICOS
En ocasiones no se conoce en qué condiciones se aplicará uno u otro heurístico, ya que, pequeños cambios en la presentación del problema influyen en la estrategia a utilizar, mientras que el mismo heurístico se aplica en situaciones muy diferentes.
Es posible que los heurísticos se apliquen sucesivamente (se consideraría primero la información más accesible, y después la más representativa).
En todo caso, los 3 heurísticos están muy relacionados entre sí, y a veces, es difícil saber cual es el que se está utilizando (la falacia de la conjunción puede atribuirse al heurístico de representatividad, pero tb estaría relacionado con la construcción de escenarios, y por tanto, con el heurístico de simulación).
Entre los 3 heurísticos, el heurístico de representatividad es el más estudiado y el mejor definido.
El de accesibilidad, con su doble acepción en tareas de recuerdo y de construcción, está muy relacionado con la construcción de escenarios.
El heurístico de anclaje podría se equivalente al de accesibilidad, si el punto de anclaje es el más accesible, o ser una estrategia posterior a los heurísticos de representatividad y accesibilidad, si el uso previo de cualquiera de ellos, determina ese punto inicial de anclaje.
En el ambiente natural, las personas se encuentran en situaciones mucho más complejas que las presentadas en el laboratorio.
Las personas no solo usan los datos que se les proporcionan, tb usan: su conocimiento del mundo, las correlaciones que han percibido en la vida real, sus percepciones sobre la intención oculta de las personas, la aplicación de reglas que habitualmente conducen a conclusiones correctas.
Adquisición de la información: En situaciones de laboratorio, aparecen todas las hipótesis posibles y éstas son complementarias. Esta no es la situación habitual en la vida real, en la que rara vez se dispone de una lista exhaustiva de hipótesis ni de las complementarias (necesario para la aplicación del teorema de Bayes).
Precisión del juicio: En la vida diaria generalmente no existe un criterio objetivo con el que contrastar los juicios emitidos, lo que leva a evaluar la racionalidad de dichos juicios por consenso social, por relación entre el coste y el beneficio obtenido, o por su adecuación a la meta perseguida.
En algunos casos, los heurísticos resultarían estrategias más adecuadas que la norma estadística en el ambiente natural, ya que no siempre conducen a resultados erróneos. Por eso, cabe preguntarse por la adecuación del modelo bayesiano, como criterio con el que contrastar la precisión de los juicios humanos.
Existen enfoques alternativos que tratan de explicar los resultados observados en tareas de juicios probabilísticas.
ENFOQUE DE LOS MODELOS MENTALES
Johnson Laird, tb defiende la utilidad de ésta teoría como explicación de los procesos de razonamiento probabilístico (no solo deductivo), ya que, en la vida diaria, las personas no diferencian entre ambos tipos de razonamiento (lo que “podría ser” frente a lo que “debería ser” cierto, dadas las premisas), sino que construyen algunos modelos y obtienen una conclusión.
En el caso del razonamiento probabilístico, la información presentada en las premisas sólo conduciría a una conclusión “probablemente” cierta en la medida en que puedan construirse más modelos favorables que contrarios a dicha concusión.
Sin embargo, debido a las limitaciones de la memoria operativa, la persona rara vez puede llevar a cabo una exploración sistemática de todos los modelos posibles, y, en consecuencia, ha de emitir la respuesta basándose en algunos de ellos.
Esto daría lugar a sesgos de respuesta, como los derivados del uso de los heurísticos de accesibilidad y representatividad.
Ejemplo: Ante la disyunción exclusiva:
Solo uno de estos sucesos es verdadero:
Hay un rey o un as, o ambos. / Hay una reina o un as, o ambos.
¿Cuál es más probable: rey o as?
Los sujetos consideran más probable la ocurrencia del as (venía representado en el mayor número de modelos mentales).Sin embargo, la respuesta correcta es el rey, puesto que al ser una disyunción exclusiva, si uno de los enunciados es verdadero, el otro es falso.
Explicación:
Se representa en los modelos explícitos la mínima información y solo en la de los casos que son verdaderos, con el fin de no sobrecargar la memoria de trabajo.
Este estudio no es propiamente de razonamiento probabilístico, sino que está enmarcado dentro de la deducción, y las probabilidades analizadas se refieren a los modelos mentales que se construyen para razonar en tareas deductivas.
Respecto a los problemas de razonamiento probabilístico, Rodrigo y cols, estudian los efectos del orden de presentación de las fuentes de información, y la congruencia/incongruencia entre estas fuentes: Resultados:
Aunque se sigue mostrando el valor de la representatividad en los juicios probabilisticos, se descarta la utilización de una estrategia de razonamiento heurística, pues se integran ambas fuentes de información (representativa y probabilística), cdo estas son congruentes.
Legrenzi y col, estudia la tendencia de las personas a centrarse en algunos de los posibles modelos derivados de las premisas, y, muchas veces, en un solo modelo que vendría determinado por la información explícita de las premisas.
Esta tendencia puede explicar algunos sesgos como la insensibilidad de las probabilidades a priori, o la insensibilidad a la capacidad predictiva del dato.
TEORÍA DE LOS MODELOS MENTALES PROBABILISTICOS (Gigerenzer y cols)
Estos autores rechazan la asunción de irracionalidad de las personas, pues consideran que las teorías estadísticas no pueden entenderse como modelos normativos, dado que los problemas tratan de un solo caos, mientras que la probabilidad tb se aplica sobre frecuencias y poblaciones. Cuando el problema se presenta como frecuencias, en lugar de la probabilidad de un solo acontecimiento, lo sesgos de razonamiento desaparecen o se atenúan (pe, la falacia de conjunción o la insensibilidad de probabilidades a priori). Estos resultados subrayan la importancia que tiene el tipo de representación de la información estadística, para el cómputo. Las inferencias bayesianas se dan cuando la representación de la información se da en forma de frecuencias, sin embargo:
La teoría sostiene que, si la persona dispone de suficiente conocimiento para emitir un juicio, lo hará construyendo un Modelo Mental Local que asociaría a la estructura de la tarea con el conocimiento disponible.
Pero, si no dispone de suficiente conocimiento, es preciso construir un marco e inferencia, un MODELO MENTAL PROBABILÍSTICO, que consta de:
Esta teoría se ha desarrollado fundamentalmente al estudiar el sesgo de sobreconfianza.
RAZONAMIENTO Y CALIBRACIÓN
También se ha estudiado la confianza del sujeto en el juicio emitido.
Esta confianza puede considerarse como un juicio de segundo orden: La persona evalúa su ignorancia o su certeza con respecto a al respuesta emitida (asignar una confianza escasa a un juicio sesgado, señalaría cierta capacidad de las personas para detectar el juicio o el razonamiento racional).
La técnica:
Dar a los sujetos una serie de preguntas con 2 alternativas de respuesta, y pedirles que asignen su confianza en que la respuesta emitida ha sido correcta.
(50% significa indiferencia entre las 2 respuestas posibles, y 100% significa “completa certeza” en la respuesta emitida).
Tras una serie de preguntas, se analiza:
El resultado suele indicar un exceso de confianza con respecto a la proporción de aciertos (las personas solo responden correctamente en el 80% de las preguntas a las que han asignado una certeza absoluta, por lo que estarían incorrectamente calibrados). Este sesgo de sobreconfianza, aumenta a medida que la dificultad de las preguntas es mayor.
Los sujetos estarían mejor calibrados (mostrando incluso subconfianza), cdo se enfrentan a preguntas más fáciles.
Interpretaciones del sesgo:
Críticas al tipo de tarea presentada:
Se critica el hecho de que se compare el grado de confianza en un suceso único (que a respuesta sea correcta), con la frecuencia relativa de respuestas correctas.
Gigerenzer, presentó a un grupo de sujetos una prueba con 5 preguntas, pidiendo tb la confianza en la respuesta emitida, y otra pregunta al final de la prueba: “¿Cual de estas 5 preguntas consideras que has respondido correctamente?”.
Resultados:
Para explicar éste resultado se propuso la TEORIA DE LOS MODELOS MENTALES PROBABILISTICOS:
Ejemplo: ¿Qué ciudad tiene más habitantes?
¿Cuál es tu confianza en que la respuesta emitida es correcta?
Una forma de responder sería construyendo un Modelo Mental Local, para lo que el sujeto apelaría a su conocimiento previo.
Si el sujeto sabe el número de habitantes de ambas ciudades, emitirá una respuesta con una confianza del 100%, sin necesidad de realizar inferencias.
Pero, si el sujeto no dispone del conocimiento suficiente para emitir la respuesta con certeza, construirá un marco de inferencia llamado Modelo Mental Probabilístico, que consta de:
Cada una de las claves tiene una “validez”, que será objetiva, pero tb es posible que el sujeto le asigne una validez subjetiva, basándose en su propio conocimiento.
En la medida en que la validez asignada por la persona se acerque a la validez objetiva, el modelo mental probabilístico estará mejor o peor adaptado.
La teoría asume que los sujetos basan su respuesta en una de las claves de probabilidad, la de más alta validez.
(Pej, la única clave que podría ser válida para comparar las 2 ciudades es “ser capital de la nación”, pues Bonn lo fue durante algún tiempo, pero, se trata de una clave con una validez muy baja, pues Bonn no puede compararse con otras capitales como Madrid, Paris,…. Consecuentemente, la confianza en esta respuesta debería ser baja).
Esta teoría tb explicaría:
Esta teoría sin embargo no explica:
Que la sobreconfianza sea mayor en tareas difíciles o en los casos en los que las preguntas se han tomado al azar.
Esta teoría no alude a la calibración.
Desde éste enfoque, el sesgo de sobreconfianza, podría deberse a que las personas tienen una necesidad de “satisfacción” (seleccionarían aquellos modelos que conducen a conclusiones creíbles o deseables).
Si la conclusión es poco creíble, la persona seguirá buscando modelos que permitan falsearla. Esta sobreconfianza será mayor cuanto más difícil sea la tarea y, por tanto, sean necesarios más modelos para llegar a una conclusión correcta.
TEMA 9: LA TOMA DE DECISIONES
INTRODUCCIÓN
La toma de decisiones es un proceso que va más allá del juicio probabilístico, a pesar de que frecuentemente, ambas tareas se consideran equivalentes y se estudian juntas.
Algunos consideran el juicio como una etapa predecisional que se continua, aunque no siempre, con una elección entre las diferentes alternativas posibles.
En otros casos, la tarea de juicio no se lleva a cabo, por tratarse de una decisión sencilla en la que se dispone de toda la información.
Por tanto, la toma de decisión es un proceso amplio que puede incluir la evaluación de alternativas, el juicio y la elección de alguna de ellas.
Este proceso abarca distintas tareas cognitivas, y es un proceso dinámico que varía a medida que se dispone de un conocimiento mayor, que surgen nuevas alternativas, o que varía la importancia de cada una de ellas.
PLANTEAMIENTO GENERAL SOBRE LA TOMA DE DECISIONES
PASOS DEL PROCESO:
Es necesario ser muy cuidadoso, pues el planteamiento de la decisión, determina las alternativas que se generan, lo que puede dar lugar a resultados completamente diferentes.
El planteamiento de la decisión está determinado por las metas de la persona. Pe, ante varias ofertas de trabajo, decidirán de forma distinta los sujetos con metas a corto plazo o a largo plazo.
En la mayor parte de los trabajos sobre elección, se asume que la respuesta óptima es la que ofrece mejor resultado a largo plazo, tras un número elevado de ensayos, a pesar de que las personas generalmente se plantean tareas a corto plazo, tratando de lograr el mejor resultado en el próximo ensayo.
Esta insensibilidad a las metas reales de las personas, ha dado lugar a la mayor parte de las críticas dirigidas hacia los modelos normativos.
Las alternativas variarán en función del conocimiento y de los valores de la persona, así como de los factores socioculturales.
La investigación ha mostrado que las personas no tienen un buen rendimiento en ésta tarea, ya que no consideran todas las alternativas posibles.
Frecuentemente, la consideración de unas alternativas sobre otras, está determinada por la accesibilidad de la información, pe, al decidir sobre varios productos las personas tienden a tener solo en cuenta la información que se presenta y solo en la forma en que se presenta.
Se evalúan de diferentes formas:
Las personas asignan probabilidades bastantes cercanas a las correctas cdo deben estimar la proporción relativa de un suceso que perciben directamente, aunque sea de forma rápida o subliminal.
Por el contrario, cdo las frecuencias relativas no se presentan y la persona ha de buscar ejemplos en su memoria, la precisión disminuye sustancialmente, y estas estimaciones de probabilidad se ven afectadas por el uso de heurísticos.
Da lugar a juicios basados en la representatividad, que lleva a las personas a no contar con la suficiente información.
Ejemplo: El inversor que sólo investiga las empresas con éxito, ignorando aquellas que han fracasado.
Lleva a las personas a considerar sólo la información más accesible.
Ejemplo: Considerar más probable una enfermedad de lo que es en realidad cuando es presentada de forma alarmante en los medios de comunicación.
Tendencia a asignar probabilidades más altas a las alternativas más deseables y probabilidades bajas a las alternativas menos deseables.
Ejemplo: Sobreestimar la probabilidad de ganar un premio en la lotería.
Exceso de confianza en el juicio emitido, sin percibir que no ha sido correcto.
Creencia, una vez conocido el resultado, de que las cosas no podían suceder de otra forma y que ya lo habíamos predicho.
Pueden asignarse en términos de ganancias o de pérdidas.
Pueden darse 4 modelos de elección:
Situaciones en las que existe incertidumbre sobre el resultado, lo que implica una elección de bajo riesgo, y un solo atributo a evaluar en cada alternativa, generalmente la ganancia o pérdida económica tras la ocurrencia o no de un suceso.
Ventaja: Control de variables extrañas del contexto y de la persona.
Inconveniente Son situaciones lejanas a las de la vida diaria.
La decisión es más compleja y cada alternativa muestra una serie de atributos que tb se darán de forma probabilística.
Estos modelos son tan complicados que, frecuentemente, se requiere la intervención de un experto en e tema sobre el que trata la decisión. La necesidad de evaluar simultáneamente las probabilidades y las consecuencias, se pone de manifiesto especialmente en decisiones que afectan a poblaciones (pe, campañas de vacunación contra enfermedades cuya incidencia es bajísima, pero cuyas consecuencias son tan graves que no permiten correr riesgos).
La elección no conlleva riesgo, ya que, una vez seleccionada una de las alternativas, el resultado de ésta se dará con certeza (no es probabilístico).
La elección no conlleva riesgo, ya que la alternativa elegida muestra una serie de atributos no probabilísticos. La importancia dada a cada atributo varía de una persona a otra y en la misma persona en distintas situaciones.
Ventaja: Son situaciones cercanas a las de la vida diaria.
Ejemplo: Licenciado que evalúa sus alternativas de trabajo, cada una con una serie de atributos no probabilísticos (sueldo, horario, etc.).
PERSPECTIVA NORMATIVA DE LA TOMA DE DECISIONES
Una vez que la persona dispone de toda la información necesaria (alternativas, probabilidades y consecuencias), ha de elegir entre la alternativa que considera más adecuada.
Existen una serie de modelos normativos que defiende cual es la elección óptima.
Los teóricos consideran las alternativas como si fuesen juegos o apuestas, y tratan de determinar cual sería la mejor. Por eso, los estudios sobre elección, suelen proponer tareas muy sencillas, con 2 alternativas de las que se conoce su probabilidad, así como la ganancia o pérdida a que darán lugar (consecuencias).
TEORÍA DE LA UTILIDAD
Los primeros estudios se derivan de los trabajos de Jacques Bernouilli, y son consecuencia de la teoría de a probabilidad del siglo XVII.
Probabilidad de un suceso: Su frecuencia relativa en un número suficientemente grande de ensayos (pe, probabilidad de obtener cara tras el lanzamiento de una moneda será de ½ ).
Asociamos una consecuencia (ganancia o pérdida) a cada resultado (si sale “cara” ganaríamos 100 Ptas. y si sale “cruz perderíamos 50 Ptas.).
Su pongamos que realizamos 100 lanzamientos y sale “cara” 56 veces (56 x100 = 5600) y “cruz” 44 veces (44 x 50 = 2200) (En total se obtendría una ganancia de 3400 Ptas. tras 100 lanzamientos). El resultado obtenido (ganancia de 3400 Ptas.) constituiría el valor (valía) de éste juego.
En general la decisión se toma a priori, y existe una ganancia o una pérdida, un valor esperado, sin especificar el número de lanzamientos.
VE = [V(cara) x (P(cara)] + [V(cruz) x P(cruz)]
VE = [100 x ½] + [-50 x ½ ] = 25 Ptas.
(Este juego tendría un valor esperado de 25 Ptas., en cada lanzamiento)
Según la teoría del valor esperado, cdo la persona ha de tomar una decisión, debería asignar el valor esperado a cada alternativa, y, una vez asignado, la elección correcta sería aquella cuyo valor esperado fuese más alto.
Sin embargo, con frecuencia las alternativas no tienen un valor objetivo, puesto que el valor de una opción es diferente para distintas personas, e incluso para la misma persona en distintas situaciones (pe, el valor del dinero dependerá de la riqueza de la persona que lo valora).
Por tanto, la teoría del valor esperado no describe correctamente la conducta de las personas.
Daniel Bernouilli, sustituyó la noción de valor esperado por la de utilidad esperada, que incorpora las metas, expectativas y preferencias de las personas.
Ante varias alternativas, la persona evalúa la probabilidad de ocurrencia de cada una y les asigna una puntuación en función de su utilidad en una situación concreta. La alternativa que maximice la utilidad esperada, será la más acertada.
Los autores de esta teoría asumen que:
Sin embargo, el principio de Bernouilli no proporciona una justificación normativa de lo que constituye “maximizar la utilidad en una elección única”.
Por eso Morgan y Morgenstern formulan la MODERNA TEORÍA DE LA UTILIDAD:
Si las preferencias de un individuo satisfacen ciertos axiomas básicos de la conducta racional, podría decirse que su elección maximiza la utilidad esperada.
Axiomas (ver pgs 377-378).
Principio de invarianza en la toma de decisiones:
Axioma básico de la conducta racional, según la teoría de la utilidad esperada de Neumann y Morgenstern, que asume que una alternativa en la que el resultado “x” tenga una probabilidad “pq” e “y” tenga una probabilidad “1-pq”, será equivalente en cuanto a preferencias a otra alternativa más compleja en la que el resultado “x” tenga una probabilidad “q” e “y” una probabilidad “1-q”.
Cdo todos los axiomas se satisfacen, existe una función de utilidad que se define como:
U(x) U(y)
A partir de éste teorema se propone un orden de preferencias que queda totalmente establecido, excepto en su punto de origen, el paso de la indiferencia a la preferencia, y la unidad de medida, o el paso de una utilidad a otra utilidad mayor, que son arbitrarios, ya que dependen de la persona que toma la decisión.
En todos los casos, se acepta que el orden de preferencia entre las alternativas no depende de su presentación (cdo 2 versiones diferentes se reconocen como equivalentes cdo se presentan juntas, deben dar lugar a las mismas preferencias cdo se muestran pro separado).
La principal aportación de ésta teoría moderna es que puede aplicarse a situaciones de una sola elección (a diferencia de la de Bernouilli).
Su mayor limitación: el tto que se da a las probabilidades, ya que se asume que existen unas probabilidades objetivas para cualquier suceso. Sin embargo, estas probabilidades de sucesos únicos no siempre son conocidas.
TEORÍA DE LA UTILIDAD SUBJETIVA ESPERADA
Savage generalizó la teoría de la utilidad, para permitir la inclusión de probabilidades subjetivas, basadas en las creencias propias u opiniones sobre la probabilidad de los sucesos.
Incluye un principio clave: el “aspecto cierto”: si 2 alternativas comparten un resultado concreto, la preferencia que se establecerá entre las 2 alternativas, será independiente del valor de este resultado común (las personas descartarían el resultado seguro, ya que se dará en ambos, y basarían la elección en los posibles resultados diferentes entre las alternativas).
Sus axiomas y teoremas cumplen todas las leyes de la teoría de la utilidad, y las probabilidades subjetivas que contempla cumplen las leyes de la teoría de la probabilidad.
Edwards denomina este modelo, modelo de la utilidad subjetiva esperada.
Se trata de un enfoque más dirigido desde la psicología, que estudia cómo se toman las decisiones en lugar de cómo deberían tomarse.
Sin embargo, la evidencia empírica mostró que, al igual que ocurría con los juicios probabilisticos, los principios básicos establecidos por los teóricos, se violan repetidamente cdo realizamos elecciones:
El 2º axioma contemplaba la presencia de ciertas leyes lógicas como la transitividad: si una persona prefiere el resultado A sobre el resultado B, y éste sobre el resultado C, entonces preferirá el resultado A sobre el resultado C (en términos formales si A>B y B>C, entonces A>C).
Sin embargo, esta afirmación no siempre se cumple en el campo de las preferencias.
La intransitividad en las elecciones se presenta incluso en casos simples, pero la circularidad descrita, es más frecuente en situaciones complejas.
Tampoco parece cumplirse el axioma 5º: un juego que incluye 2 resultados posibles, no puede ser mejor o peor que ambos, sino que siempre tendrá un orden intermedio en cuanto a las preferencias (si x>y, entonces x>(x,p,y)>y: si el resultado x se prefiere al resultado y, entonces x será preferido a cualquier apuesta o juego en los que x e y se den con cierta probabilidad, y ésta apuesta se preferirá al resultado y).
Las personas sin embargo, muestran una preferencia por el juego en el que se mezclan los 2 resultados posibles, sobre cada uno por separado, debido al nivel de riesgo que presenta cada una de las alternativas.
Preferencia por la alternativa de ganancia cierta aunque su valor sea menor. Lo contrario en el caso de pérdida (aversión o preferencia por el riesgo).
Ejemplo pg 382-3:
La elección de los sujetos contradice el principio descrito por la teoría de la utilidad.
Cdo los resultados son inciertos, ha de considerarse la relación entre la probabilidad y la ganancia de un resultado, y no solo el valor absoluto de su producto.
Las respuestas de los sujetos muestran una preferencia pro la alternativa cierta. La preferencia por el riesgo se aprecia solo cdo las ganancias no son considerables para el sujeto. Sin embargo, a medida que la ganancia aumenta, la tendencia general es preferir la posibilidad más cierta (aversión al riesgo).
La aversión al riesgo observada cdo se trata de ganancias, se acompaña de una preferencia por el riesgo cdo se trata de pérdidas, y viceversa.
Se han encontrado diferencias culturales en la percepción de riesgo:
Por tanto, no se cumple el principio de invarianza: la relación entre preferencias no debe depender de la descripción de las opciones o del procedimiento.
CONCLUSIÓN:
La elección, es una tarea de razonamiento más cualitativa, en la que se relaciona la alternativa con el valor más alto en el atributo más importante, mientras que en la tarea de juicios, se evalúan y ponderan todos los atributos presentados.
Las elecciones de los sujetos no cumplen los axiomas y principios descritos, para considerar si la elección es o no racional.
Como consecuencia, algunos teóricos, han interpretado estas violaciones como muestra de que la teoría de la utilidad no es ni normativa, ni descriptivamente válida.
En los últimos 30 años se ha producido una creciente sensibilidad de las teorías de decisión hacia las consideraciones psicológicas.
La teoría de la utilidad es importante como teoría prescriptiva de cómo debería realizarse la decisión correcta. Sin embargo, no ha demostrado se una buena descripción de cómo eligen las personas en su vida diaria.
Por todo esto, algunos teóricos han propuesto nuevos axiomas más consistentes con las conductas observadas, mientras que en otros casos se han desarrollado teorías alternativas con un carácter más descriptivo.
PERSPECTIVA DESCRIPTIVA EN LA TOMA DE DECISIONES
Las teorías formales anteriores, utilizan modelos lineales, que son muy potentes y elegantes por su simplicidad, y son buenos predoctores de los juicios humanos. Por tanto, estos modelos podrían servir para definir qué deciden las personas (modelos prescriptitos adecuados) pero no para describir cómo deciden las personas.
Algunos teóricos han intentando acercar las teorías formales a la estrategia real de las personas:
LA TEORÍA DE LA PERSPECTIVA
Kahneman y Tversky proponen esta teoría en la que consideran aspectos como el marco o perspectiva de la persona y las manipulaciones contextuales.
La teoría parte tb de una función matemática, ya que a partir de la combinación de ciertos parámetros, se puede predecir la actuación de la persona.
El proceso de elección se divide en 2 fases:
Para ello, se aplicarían varias operaciones que transforman los resultados y las probabilidades asociadas:
Estaría en función de la probabilidad en el valor final y del valor subjetivo del resultado.
En esta teoría las estimaciones en el valor de una alternativa, son cambios en riqueza o en bienestar, en lugar de estados finales.
Así, el valor podría ser tratado como una función de 2 aspectos:
Con las 2 funciones que incorpora esta teoría, se puede asumir que en ocasiones el punto de referencia sobre ganancias o pérdidas dependa de las expectativas de la persona (pe, cdo se gana menos de lo esperado la ganancia puede percibirse como una pérdida).
Además, se puede describir el efecto de algunas variables que tb afectan a las elecciones, como las normas sociales, la prudencia o la importancia de la seguridad.
LA TEORÍA DEL PORTAFOLIO
Coombs desarrolla esta teoría que incluye el riesgo percibido de cada alternativa como un determinante de la elección de las personas.
Supuestos de la teoría:
De forma que, cdo 2 alternativas presentan el mismo valor esperado, la elección será función únicamente del riesgo.
Situación típica de decisión, según Yates: La situación típica de decisión implica la promesa de una ganancia potencial (valor esperado) y la posibilidad de sufrir una pérdida (riesgo).
Las personas elegirán las alternativas con mayor valor esperado y menor riesgo.
Problema: Las personas no siempre prefieren la alternativa con menor riesgo.
REGLAS Y ESTRATEGIAS EN SITUACIONES MULTIATRIBUTOS Y SIN RIESGO
Esta línea de investigación descarta cualquier descripción matemática, para tratar de identificar las estrategias empleadas.
Las situaciones en nuestra vida diaria, tienen varias alternativas, con un gran número de aspectos o atributos a validar en cada una, y son alternativas sin riesgo (los atributos se dan asociados automáticamente a la alternativa elegida, y no de forma probabilística).
En estas situaciones, la capacidad de la memoria operativa, no puede abarcar todas las alternativas posibles con sus consecuencias.
Simon introduce el concepto de racionalidad restringida:
Se asume que lo que cada persona considera satisfactorio puede cambiar con el tiempo y la experiencia, a medida que el nivel de aspiración aumente o no.
Reglas básicas para simplificar las alternativas y elegir entre varias de ellas:
Ejemplo: en la elección de un trabajo, se descartan empleos en los que el sueldo sea bajo, se encuentre lejos del domicilio, etc.
Ejemplo: en un trabajo se elige uno de ellos, si es interesante, si se pueden tomar decisiones propias, etc.
Ejemplo: si se considera prioritario que el trabajo sea interesante, se ignoran atributos como el sueldo, horario, movilidad, etc.
Versión probabilística de la regla lexicográfica.
Contempla cada alternativa como un conjunto de atributos que pueden medirse, describiendo la elección como un proceso de eliminación sucesiva de alternativas en función de sus valores en dichos atributos.
En cada estado del proceso se selecciona un aspecto de las alternativas y se elimina cualquiera de ellas cuando no incluya el atributo elegido; se repite el proceso hasta que quede una sola alternativa.
Ejemplo: Elección de un restaurante para cenar. Primer atributo que sirvan pescado, por lo que se eliminan hamburgueserías, pizzerías. Segundo atributo, que no sea muy caro, etc.
Este modelo resulta atractivo para explicar la toma de decisiones, ya que puede aplicarse fácilmente y es fácil de justificar ante los demás. Sin embargo, no hay garantía de que pueda conducir a decisiones coincidentes con el modelo normativo.
Las reglas básicas pueden clasificarse en:
Ejemplo: regla lexicográfica.
Utilizando otro criterio de clasificación, las reglas básicas se pueden clasificar en:
Ejemplo: las reglas conjuntivas y todas las compensatorias.
Ejemplo: reglas lexicográficas y disyuntivas.
En general, en una tarea de decisión, las personas alternan entre unas reglas y otras.
El uso de una u otra regla, dependerá de:
La respuesta depende de la representación de la tarea y ésta está influida por el contexto.
En general, los sujetos simplifican la tarea, presentando más atención a los datos negativos que permiten la eliminación de ciertas alternativas.
El proceso más frecuentemente observado son las cadenas de reglas: se utilizan en primer lugar las reglas que permiten descartar varias alternativas para efectuar, a continuación, evaluaciones más detalladas.
TEORÍA DE LOS MODELOS MENTALES
Esta teoría es más global, ya que puede aplicarse a situaciones con un solo atributo o multiatributo.
No distingue entre situaciones con o sin riesgo, ya que la persona construiría modelos mentales de cada una de las alternativas, sin evaluar detalladamente las probabilidades ni utilidades.
Se generarían las alternativas mediante los modelos mentales, y éstas se darían en función de las instrucciones o de la información del enunciado del problema. La respuesta se determina por las alternativas que se han generado.
La elección estaría representada por 2 modelos:
Si la elección debe darse en situaciones en que la persona dispone de modelos igualmente salientes para todas las alternativas, es posible que elija la alternativa cuyo modelo resulte más atractivo, y ésta preferencia puede deberse a la presencia de un solo atributo que se considere especialmente relevante.
Las decisiones serán más difíciles a medida que aumente el número de modelos mentales necesarios en función de las alternativas de respuesta.
ALGUNOS ASPECTOS COLATERALES DE LA TOMA DE DECISIONES
TEMA 10: EL RAZONAMIENTO ANALÓGICO
COMO SOLUCIÓN DE PROBLEMAS
1. INTRODUCCIÓN
El razonamiento analógico es un aspecto crítico para la comprensión del pensamiento humano. Como proceso para la solución de problemas, se aplica a dominios de conocimiento poco familiares o desconocidos basándose en situaciones previas conocidas.
Holyoak y Koh lo definen como la generación de conocimiento aplicable a un dominio nuevo por la transferencia del conocimiento de un dominio mejor conocido
Vosniadou lo entiende como la extrapolación (emparejamiento de correspondencias) de una estructura relacional desde un dominio familiar a un dominio nuevo. En este sentido, los dos dominios deben compartir una estructura explicatoria similar (estructura representacional común), aunque en otros aspectos sean diferentes.
Los principales estudios experimentales muestran que los procesos básicos que subyacen al razonamiento analógico son los siguientes:
El grado de incertidumbre de las relaciones que son extrapoladas variará en función de la naturalidad de esas relaciones: en la extrapolación y transferencia global influirá la distancia semántica
El razonamiento analógico es un procedimiento heurístico porque busca hipótesis para avanzar hacia la solución. En este proceso hay que diferenciar entre:
2. TEORIAS Y MODELOS DEL RAZONAMIENTO ANALOGICO
Los modelos y teorías sobre el razonamiento analógico se pueden clasificar en dos grandes grupos:
2.1. EL ENFOQUE COGNITIVO DE TRADICIÓN PSICOMÉTRICA
Los trabajos de Spearman abren una nueva perspectiva sobre el razonamiento analógico. Sus trabajos estudian el razonamiento analógico a través del formato clásico A:B::C:D
Stenberg propone una teoría componencial de la inteligencia en la que se especifican los procesos que rigen el funcionamiento y en concreto, el razonamiento analógico.
La teoría componencial parte del supuesto de que las operaciones mentales son limitadas en número y duración. Por otro lado, estas operaciones ocurren de manera secuencial. En esta teoría, el componente sería la unidad básica de análisis del procesamiento de la información.
Un componente es un proceso elemental de información que opera sobre representaciones internas de objetos y símbolos. Cada componente tiene tres propiedades: duración, dificultad y probabilidad de ejecución. Además, Stenberg distingue tres tipos de componentes:
istingue 3 tipos de componentes:
El rendimiento en los problemas analógicos se explica por la combinación aditiva de los componentes de actuación, cinco de los cuales son obligatorios:
Por ejemplo, en la analogía “abogado: cliente::doctor:paciente”, la codificación del término “abogado” implica percibir y reconocer que se trata de una persona que presta unos determinados servicios.
Las investigaciones hechas sobre el modelo componencial han arrojado resultados interesantes como son los siguientes:
Críticas
2.2. EL ENFOQUE COGNITIVO SINTÁCTICO (GENTNER)
Este enfoque plantea el estudio del razonamiento analógico prescindiendo del formato proporcional y abordando el análisis de la analogía tal y como suele ocurrir en la vida diaria.
Gentner propone una teoría del razonamiento analógico que se basa en una extrapolación sintáctica de la estructura representacional del conocimiento entre el dominio fuerte y el dominio meta, lo que supone un mismo sistema de relaciones entre los conceptos que componen ambos dominios.
Según esta autora, las reglas básicas que regulan el proceso de extrapolación son de carácter sintáctico y se concretan en:
El predicado planetas no es atributo de sol sino que se relaciona con él. La analogía se basa en la semejanza estructural (correspondencia de relaciones abstractas) más que en la semejanza superficial de atributos
Todas las relaciones no se extrapolan desde el análogo fuente al análogo objetivo, sino que se produce una extrapolación selectiva. Para explicar esto, la teoría se basa en el principio de la sistematividad. Según este principio se extrapolan sólo aquellas relaciones que formen parte de una estructura de orden superior en la que se encuentran mutuamente interconectadas, eliminando todas las relaciones irrelevantes que se presentan aisladas.
La secuencia de procesos se desarrolla en la siguiente secuencia:
En este sentido, la analogía se basa en la semejanza estructural más que en la semejanza superficial de atributos. En el ejemplo de los planetas, el principio de sistematicidad impondría que aceptásemos extrapolar la relación “más pesado que” (sol, planetas), y descartáramos la relación “más caliente que” (sol, planetas) actuando este principio como una restricción dentro del modelo propuesto.
Gentner encontró también que los sujetos se centran sobre la información relacional cuando tienen que pronunciarse sobre la interpretación de las analogía, omitiendo las descripciones de los objetos, mientras que dan prioridad a los atributos cuando tienen que describirlos, aunque también hay sujetos dan cuenta tanto de las relaciones como de los atributos del objeto.
Gentner se hace eco del planteamiento de tener en cuenta el contexto del razonamiento (planes y objetivos del razonador), admitiendo que influyen sobre el pensamiento antes y después, pero no durante la ejecución del proceso analógico
En su nueva formulación de la teoría sintáctica considera que tanto las propiedades estructurales como las consideraciones pragmático-contextuales influyen en la solución analógica de problemas, pero la influencia pragmática no es comparable ni equivalente al peso de las propiedades sintácticas, ya que existen unos procesos básicos y comunes en toda analogía que son independientes del contexto y se repiten ante cualquier contexto pragmático
Esto tiene como ventaja que se puedan explicar emparejamientos no esperados o contrarios a los fines del razonador Por ejemplo, aceptación de resultados inesperados por un nuevo descubrimiento científico
Con respecto al aprendizaje que pueda derivarse de la práctica se entiende que serán los sujetos expertos frente a los novatos los que logren mayores beneficios
Críticas:
2. 3. EL ENFOQUE PRAGMÁTICO
a) Los esquemas de razonamiento pragmático (Holyoak)
Sostiene que el proceso de transferencia analógica está determinado por las metas del razonador y que el principio de restricción en la transferencia analógica será pragmático y no sintáctico. Por tanto, los procesos de recuperación del análogo previo y su transferencia dependerán de las reglas sincrónicas (específicas de la situación) como diacrónicas (son propias de este tipo de razonamiento)
En este sentido, Holyoak afirma que los principios estructurales desempeñan un papel secundario en la transferencia analógica y que el emparejamiento está determinado por la importancia de sus predicados (atributos y relaciones) en estrecha relación con los fines u objetivos del sujeto.
La teoría, como modelo básico para la solución de problemas, entiende que los diferentes dominios se representan en un nivel abstracto, según un esquema (organizado jerárquicamente) que consta de los siguientes componentes:
Este esquema consta de relaciones verticales (cadenas causales) y de correspondencias horizontales. Concretamente, los componentes del estado inicial se relacionan causalmente con el plan de solución, de manera que la meta se convierte en el motivo, los recursos lo posibilitan y las restricciones impiden otros planes de solución alternativos.
Los datos experimentales provienen de los estudios iniciales de Gick y Holyoak sobre la solución de problemas por analogía. Dos ejemplos utilizados son el problema de la radiación y el problema del general. Ver páginas 424-425
En la teoría de los esquemas de razonamiento pragmático se distinguen los siguientes procesos:
El modelo propuesto para explicar este proceso es el de “suma de la activación”. Según este modelo, la recuperación de un análogo está en función de las características compartidas por los problemas. Pero, sobre todo, el análogo más útil es aquel que comparte con el problema objetivo las propiedades de los fines del problema (los conceptos)
En concreto, este modelo plantea que los conceptos incluidos en la representación del problema objetivo tienden a activar aquellos conceptos comprendidos en las representaciones de otros problemas análogos. La activación de los las características se sumará hasta conseguir un umbral determinado en una de las representaciones almacenadas, estando a partir de entonces para su procesamiento.
Puede interpretarse como el proceso de la transferencia analógica, siendo el que mejor contribuye al éxito de la transferencia desde dominios remotos.
Para Holland (de acuerdo con la propuesta de Gentner) el proceso de recuperación debe estar guiado por características estructurales, de forma que sólo se recuperen situaciones relevantes. Si la recuperación se hace por claves superficiales se pueden recuperar situaciones superficialmente semejantes pero irrelevantes, produciendo una transferencia negativa y por tanto una solución incorrecta.
Sin embargo, es difícil distinguir en situaciones poco familiares para los sujetos cuales son las claves superficiales y las estructurales. Lo que hace pensar que ambas características pueden influir sobre la selección del análogo
En resumen la teoría considera que los aspectos básicos del razonamiento analógico para la solución de problemas son:
B) Teoría del razonamiento analógico progresivo
Esta teoría fue formulada por Keane y señala que las teorías sobre razonamiento analógico no tienen en cuenta el proceso inicial de identificación de objetos paralelos entre los dos dominios de conocimiento.
En este sentido Winston ya apunta en su teoría computacional que si el emparejamiento entre objetos de ambos dominios no se encuentra basado en algún principio, las permutaciones potenciales serán enormes.
Keane entiende que para la explicación del proceso de identificación son importantes 3 tipos de categorías de información:
Para Gick y Holyoak: la generación de proposiciones de solución dependía de una extrapolación inicial parcial entre el análogo y ciertas proposiciones del problema objetivo que actúan como condiciones causales para las proposiciones de solución. Estos procesos ocurren en un nivel optimo de abstracción.
Pero Keane no ve claro cómo se consigue esto sin sobrecargar la memoria de trabajo y considera más probable que la extrapolación inicial ocurra en el nivel más abstracto (esquema), y sirva para identificar las proposiciones de solución del problema; o que se pueda acceder a las proposiciones de solución usando directamente el conocimiento sobre la organización del problema en la memoria
En función de estas valoraciones y críticas, Keane sobre los procesos de generación de solución por analogía según el cual, después de identificar las proposiciones de solución del dominio base se propone que éstas interactúan con los objetivos del problema.
Los pasos concretos de su modelo son:
Mas tarde, Keane reformula sus planteamientos con su teoría de la analogía paso a paso o analogía progresiva. Según esto, una analogía implica encontrar y establecer ciertas correspondencias entre objetos y relaciones del dominio fuente y el dominio objetivo para posteriormente transferir información entre esos dominios y así poder llegar a solucioinar el problema planteado, y todo aquello teniendo en cuenta las siguientes restricciones:
Esta restricciones estructurales también las comparte la teoría del razonamiento pragmático y la de la extrapolación estructural (enfoque sintáctico de Gentner, aunque no se expresa en términos de restricciones).
En el modelo computacional basado en estas restricciones, un elemento del dominio base se convierte en entrada de información para la extrapolación al dominio objetivo. Si se encuentra un emparejamiento o se produce la transferencia, este elemento y el resultado se almacenan en la memoria de trabajo.
Si lo que se incorpora a la memoria de trabajo es un emparejamiento entre elementos, entonces se evalúa, y si lo que se incorpora es una transferencias, entonces se verifica. A continuación se procedería de la misma forma con el siguiente elemento del dominio base en el siguiente incremento o paso.
En un segundo paso o incremente, se procede al a selección de una de las diferentes relaciones establecidas, y para ello se recurre a los heurísticos de evaluación que actúan al final del paso o incremento..
Después del emparejamiento entre elementos de los dominios y el descubrimiento de las correspondencias y relaciones entre los objetos, se inicia el proceso de transferencia de un dominio a otro., proceso esencial para que se produzca aprendizaje de un dominio conocido a otro nuevo. Según el modelo, no se transfieren simples relaciones sino más bien cadenas de relaciones como sucede en la solución de problemas.
También aporta Keane datos experimentales que ponen de manifiesto que existe una mayor dificultad para la recuperación de análogos semánticamente remotos frente a los análogos más literales. Esto puede relacionarse con lo propuesto por Schank, quien propone que el está mediatizado por estructuras o tópicos de organización temática representan información abstracta independiente del dominio que coordinan y enfatizan el nivel abstracto de una combinación de episodios. Cuando se recuerda una hisoria en función de un análogo sucede que ambas situaciones comparten la misma estructura abstracta conceptual junto con algunos rasgos idénticos de más o menos bajo nivel, rasgos que sirven de índices para distinguir cuál nos interesa recuperar.
La recuperación de análogos se concreta en:
Los procesos que subyacen a la recuperación analógica y a la extrapolación analógica son procesos diferentes, ya que la extrapolación es relativamente flexible y tiene en cuenta la correspondencia semántica detallada entre el problema y el análogo, mientras que la recuperación es menos flexible y no tiene en cuenta estas correspondencias detalladas. De esta manera se podría homologar el funcionamiento de la recuperación analógica de Keane con la extrapolación estructural de Gentner con respecto a su rigidez
Keane, en contra de Gick y Holyoak, dice que se puede acceder directamente a las proposiciones de solución usando un conocimiento esquemático. Esta hipótesis del acceso directo está apoyada experimentalmente: Los sujetos pueden identificar y usar soluciones proporcionadas de análogos previos, como ayuda de resolver un problema propuesto.
Por tanto la aportación de una solución análoga es suficiente para la generación de una solución convergente (sin necesidad de aportar todo el análogo entero, aunque sigue siendo esto lo preferible para lograr mayor solución)
Según Keane el acceso directo indica que no tenemos que construir análogos que contengan proposiciones innecesarias sino que hagan hincapié en los objetos críticos y sus relaciones
Keane también demostró que los atributos funcionalmente relevantes son críticos para el éxito en la generación de la solución debido a que facilitan la identificación de la solución crítica correcta influyen significativamente en los procesos de extrapolación, pudiendo considerarse también un factor importante en la transferencia relacional
Keane da un paso cualitativo al ampliar e integrar las restricciones propuestas por las anteriores teorías, pero sigue presentando algunas dificultades:
Frente a las teorías anteriores sobre la recuperación analógica, el modelo de Keane es diferente desde su propia génesis, ya que, mientras Gick y Holyoak presentan una teoría de solución de problemas, el modelo TOP (Keane) parte de una teoría de la comprensión y de la memoria.
El modelo de Keane es más completo ya que especifica las condiciones bajo las que se recupera el análogo y también bajo las que no se recupera
Con respecto a los factores que interviene y determinan el proceso de recuperación, Keane señala que los dos modelos pueden ser válidos, pero sólo bajo ciertas condiciones. Estos dos modelos son:
Las condiciones bajo las cuales ambos modelos podrían ser válidos son las siguientes:
3. CARACTERIZACION DE LA TRANSFERENCIA ANALOGICA
En la transferencia analógica, el grado de certidumbre de las conclusiones que son extrapoladas de un dominio de conocimiento a otro varía en función de la naturaleza de las relaciones, pareciendo lógico pensar que la menor o mayor distancia semántica entre los 2 dominios puede influir en el proceso de extrapolación y posterior transferencia global
En el extremo de un isomorfismo total, el razonamiento conducirá a una solución correcta. Mientras que en el isomorfismo muy parcial, es fácil desembocar en soluciones erróneas
Esta vulnerabilidad del razonamiento analógico conduce a que se considere como un procedimiento heurístico en tanto que busca hipótesis para avanzar hacia la solución, pudiendo diferenciarse dos tipos de transferencia:
3.1. TRANSFERENCIA ANALÓGICA POSITIVA
En los trabajos sobre transferencia analógica se descubre que existe una estrecha relación entre semejanza y transferencia. Por semejanza se entiende la aspectos comunes que existen entre 2 situaciones, pudiendo distinguir entre dos tipos de semejanza:
El paradigma básico para el estudio del razonamiento analógico fue propuesto por Gick y Holyoak. Este paradigma tiene dos fases:
En las tareas de solución de problemas por insight y en otros trabajos, los sujetos muestran también grandes dificultades para recuperar información relevante, precisando recibir información explícita. Además, la condición de no informado puede provocar un estado preocupante de déficit debido a las respuestas inadecuadas previas que se autogeneran.
Al tratar de explicar la dificultad encontrada por los sujetos para establecer la analogía entre las dos situaciones que plantea la tarea experimental, surge una polémica sobre los diferentes tipos de semejanza y los efectos que producen. Así la semejanza estructural puede facilitar la recuperación espontánea o inducir a situaciones de interferencia y provocar la transferencia negativa. Por otra parte, no queda claro si ambos tipos de semejanza presentan efectos diferentes sobre los procesos de recuperación y extrapolación
Keane mostró que la recuperación de análogos previos, semánticamente remotos, resulta más difícil que la de los análogos más próximos semánticamente, ya que una analogía remota implica una extrapolación estructural entre los dominios base y objetivo y una relación en la que los objetos/conceptos comparten pocos atributos. Sin embargo, en una analogía literal se establece una extrapolación entre ambos dominios, existiendo un solapamiento entre las relaciones y los atributos de todos o casi todos los objetivos/conceptos.
De la Fuente encuentra que existe una mayor probabilidad de recuperación espontánea cuando los análogos comparten elementos superficiales, aunque esto no influye en la extrapolación.
Gentner y Landers muestran que el acceso a la recuperación del análogo está influida por la semejanza superficial y sólo débilmente por la semejanza estructural, incluyendo la sistematicidad compartida, y se encuentra poco afectado por la semejanza superficial. Se piensa que el proceso de extrapolación está sustentado sólo en la semejanza estructural de los problemas, como por ejemplo los rasgos funcionales, relaciones sistemáticas o relaciones causales.
Holyoak y Koh, Keane y Ross entienden que ambos tipos de semejanza intervienen en la recuperación espontánea aunque los rasgos estructurales influyen más en la extrapolación, mientras que los superficiales son básicos en la recuperación, excepto cuando no están integrados en la estructura del problema, lo que posibilita una interacción constante entre superficialidad y estructuralidad.
Ross encuentra que la semejanza superficial tiene una importancia extrema en el proceso de recuperación y evocación de análogos.
Los efectos de la semejanza sobre la transferencia también se encuentra modulados por otros factores. Gick, Holyoak, Luger y Bauer diseñaron una condición experimental que permitiera mejorar la recuperación espontanea pero no atendiendo al incremento de la semejanza superficial compartida sino al numero de análogos que se presenta al sujeto.
Los resultados pusieron de manifiesto que la transferencia es significativamente mayor cuando los sujetos recibían 2 análogos previos para resolver el problema que cuando recibían 1 solo. Esto se debe a la inducción de esquemas representacionales en función de la experiencia con las 2 historias análogas. Los esquemas son categorías abstractas y la recuperación del análogo se producen función de una semejanza abstracta más próxima a la estructural.
Sierra encontró que el contexto semántico y el número de análogos son 2 factores relevantes para explicar la formación y transferencia de esquemas, ya que representan y permiten la recuperación del conocimiento.
En resumen, no hay consenso sobre si cada tipo de semejanza influye de forma casi exclusiva sólo en uno de los procesos componentes de la transferencia analógica.
3.2. TRANSFERENCIA ANALÓGICA NEGATIVA
Por transferencia negativa se entiende que la solución analógica al problema es errónea porque se han recuperado y extrapolado aspectos irrelevantes. Para analizar esto, se recurre a un procedimiento experimental que consiste en presentar un problema análogo junto con un problema pseudoanálogo-distractor previo que sólo comparte semejanza superficial con el problema objetivo, induciendo a soluciones erróneas
Los estudios que realizó De la Fuente sobre los efectos de la semejanza superficial sobre la transferencia negativa indicaron que:
Mas tarde matiza sus propios datos entre semejanza superficial y transferencia negativa señalando lo siguiente:
En trabajos posteriores señala la relatividad del efecto de las características superficiales sobre la transferencia, dependiendo del lugar que ocupen en la estructura del problema, es decir, unmismo grado de semejanza superficial global (el mismo número de elementos compartidos, el mismo número de veces repetido) provoca distintos niveles de transferencia negativa.
Sus resultados indican que la transfencia negativa es mayor cuando la superficialidad se comparte en el estado inicial del problema; es menor cuando se comparte los objetivos ; y “ cuando no esta relacionado con la estructura, resultando que el estado inicial con sus elementos integrantes son los determinantes en el proceso de recuperación y extrapolación.
Estos datos son contradictorios a las aportaciones de Gentner y Landers sobre el papel preponderante de la semejanza superficial en el proceso de extrapolación.
La conclusión de De la Fuente es que estamos ante una concepción interactiva de la dicotomía superficialidad / estructuralidad frente a otras interpretaciones sumativas
La transferencia negativa también se ha estudiado según el nivel de experiencia (sujetos expertos y novatos), resaltando la estrecha relación entre experiencia, semejanza y transferencia analógica positiva y negativa.
Según Novick si los 2 dominios comparten rasgos superficiales y estructurales, se observará una transferencia espontánea positiva independientemente de la experiencia, como se muestra en varios autores vistos, ya que si los sujetos que participaron en estos estudios eran novatos y lograron la transferencia espontánea se puede suponer que los expertos alcanzarán esta transferencia.
Sin embargo,
Los resultados pusieron de manifiesto que la transferencia negativa era igual en expertos que en novatos. Esto puede deberse a que tanto unos como otros están sesgados ya que el procedimiento usado en el problema distractor era el mismo que el usado en el problema objetivo.
Este hecho podría anular el efecto de la experiencia, ya que de forma natural se tiende a asociar rasgos superficiales y procedimiento de solución y los sujetos pudieron asociar el problema distractor y objetivo intentando resolverlo por el mismo procedimiento.
En otro experimento encontró lo siguiente:
114
destino
receptor
Canal (mensaje)
transmisor
fuente
ruido
Comportamiento intencional del hablante
Comportamiento codificador del hablante
Comportamiento descodificador del oyente
Comportamiento interpretador del oyente
ENUNCIADOS
JUEGOS DE FICCIÓN
SISTEMA DE LAS REGLAS DISTRIBUIDAS
SISTEMA DE LA ACTIVACIÓN DISTRIBUIDA
FIGURA 1 FIGURA 2 FIGURA 3 FIGURA 4
B A A B B A A B
C B C B B C B C
C A C A C A C A
Descargar
Enviado por: | Belén |
Idioma: | castellano |
País: | España |