Psicología
Psicología del pensamiento
TEMA 1. ANÁLISIS PRELIMINAR DE LA PSICOLOGÍA DEL PENSAMIENTO.
1. Psicología científica.
La psicología científica se entiende como un sistema de descripción, explicación y predicción de la ciencia empírica del comportamiento. Depende de los datos derivados de la observación o de los procedimientos experimentales que operan sobre un contexto que es informativo en la medida en que se encuentre guiado por técnicas apropiadas. No admite la posibilidad de descubrir la naturaleza de su objeto de estudio a través de una apelación directa a las cosas como tales o por medio de un análisis conceptual. Cuando existe una confusión conceptual, su esclarecimiento ha de surgir de los datos obtenidos por la aplicación del método científico y del progreso de las técnicas metodológicas.
2. Aciertos y desaciertos de la psicología de la consciencia y de la introspección analítica.
Wundt presentaba la psicología como una disciplina científica independiente y no reduccionista, aunque complementaria de la anatomía y la fisiología. La psicología experimental, como disciplina nueva, se planteaba el estudio científico de la consciencia y de sus procesos a través de la propia experiencia del sujeto. El modelo de investigación era el de las ciencias naturales, aunque basado en la experiencia inmediata y haciendo uso de la auto-observación controlada bajo determinadas condiciones experimentales. Este tipo de introspección guiada por el control experimental buscaba el rigor necesario para una psicología científica que pudiera separar su objeto de estudio, la experiencia del observador de ese objeto y el propio sujeto. Las actividades mentales que no estaban directamente sujetas a la influencia de la estimulación física pueden estudiarse indirectamente por medio del análisis de sus productos (el lenguaje, las creencias, las costumbres, ...). Con este tipo de análisis se puede acceder a los aspectos de la consciencia más alejados de las respuestas sensorio-motoras.
El planteamiento teórico de Wundt con respecto a la relación mente-cuerpo que ambos procesos seguían cursos paralelos. El objeto de psicología era describir y analizar los elementos de los procesos conscientes y determinar los principios que rigen las conexiones entre estos elementos. El método más adecuado y directo para este estudio era la introspección entendida como la observación controlada de la experiencia consciente bajo condiciones experimentales objetivas. El análisis de los elementos pretendía explicar la experiencia consciente como un todo y no como resultado de reducir lo complejo a lo simple.
Wundt utilizó las variaciones de los TR proporcionados por los experimentos fisiológicos de forma que las respuestas a los patrones estimulares pudieran constituir el criterio empírico de la actividad sintetizadora que tradicionalmente se conocía como apercepción. Este concepto se convirtió en la base de las actividades mentales superiores, siendo el nexo unificador de la primera teoría psicológica experimental al desempeñar las actividades de síntesis y análisis de los acontecimientos mentales.
2.2. La psicología estructural de Titchener.
Titchener, discípulo de Wundt, rechazó la psicología totalizadora de éste y defendió una psicología reduccionista basada en las sensaciones (psicología estructural). Sostenía que todos los contenidos mentales se podían categorizar en tres tipos: imágenes, emociones y sensaciones puras. Las imágenes y las emociones eran, a su vez, unidades complejas que podían descomponerse en grupos de sensaciones. Así, todo pensamiento complejo podía analizarse en función de las sensaciones elementales. El interés de la psicología es, para Titchener, morfológico, dado que sin un análisis de la estructura mental no pueden comprenderse las funciones.
El método usado para la investigación era la introspección, que se definía con una técnica que requería la descripción controlada de las sensaciones internas mientras se realizaba una tarea o se atendía a un estímulo. El método consistía en una análisis retrospectivo muy complicado. Se buscaba la aprehensión inmediata de los hechos de a experiencia consciente sin que estuvieran contaminado por la experiencia anterior. El objetivo de esta metodología consiste en la identificación de los átomos del pensamiento cuya ley de combinación es el principio de la asociación.
Esta técnica presentaba uno de los errores más graves del método científico: la falta de independencia del acceso tanto a las causas como a los efectos. A pesar de que el estímulo era públicamente observable, su sensación interna no lo era y , por tanto, no se podía saber cuál introspección era la verdadera, siendo también imposible la creación de un lenguaje consensuado de estas experiencias.
2.3. La escuela de Wurzburgo de Külpe (1901-1909).
Külpe era discípulo de Wundt. Intentó estudiar experimentalmente el pensamiento aumentando la complejidad de las tareas y pidiendo a los sujetos que describieran los procesos de pensamiento que les habían conducido a dar una respuesta.
Resultados:
1. Se encontró que los sujetos mostraban invariablemente una preparación genérica (disposición mental o tendencia determinante) ante la tarea que se les presentaba, lo que supuso un rechazo de la explicación asociacionista del pensamiento. Esta tendencia determinante puso de manifiesto el carácter directivo del pensamiento, que ya no se describiría como un mero proceso de asociación libre.
2. Afirmación de que el pensamiento podía carecer de imágenes, ya que estos experimentos mostraron que, a pesar del entrenamiento en el método introspectivo, los sujetos informaban de estados mentales en los que no se detectaban imágenes. Estos estados mentales sin imágenes se interpretaron como los indicadores conscientes del pensamiento, admitiendo que el pensamiento propiamente dicho era un proceso inconsciente.
Fue absorbida por la psicología funcionalista.
3. Del cambio de la psicología de los contenidos mentales a la psicología de las funciones mentales.
3.1. La psicología funcionalista.
El funcionalismo se considera como la primera escuela de psicología norteamericana y John Dewey (1896) se reconoce como su fundador, aunque los antecedentes del funcionalismo son europeos.
La corriente funcionalista norteamericana surge como una postura alternativa y opuesta al estructuralismo. Se pasó de la introspección de los contenidos de la mente a la introspección de sus funciones y propósitos. El objeto de estudio de la psicología se redefinió en términos de las propiedades funcionales de los procesos mentales, y no por sus contenidos conscientes. Acentuaba la significación funcional del comportamiento como adaptación al medio, y la mente se concebía como mediadora entre el estudio de la utilidad de la consciencia y de la conducta, y este interés logró abrir nuevos campos de investigación psicológica (estudio de las diferencias individuales, el aprendizaje animal y humano, la psicología evolutiva y la patológica, ...) caracterizándose el funcionalismo por ser una postura ecléctica en la que se aceptaban diferentes objetos de estudio y técnicas de investigación. Durante estos años la psicología se volcó sobre la biología en su intento de comprender la significación de las funciones mentales en relación con la totalidad de las funciones biológicas. El pensamiento era el resultado del esfuerzo por sobrevivir en las situaciones prácticas de la vida.
En su afán por establecer una psicología útil y práctica, el funcionalismo, que era mentalista, emprendió el estudio de la vida mental en una trayectoria que empezaría por el estudio introspectivo de la actividad mental y culminaría en el estudio de la actividad sólo como conducta manifiesta.
3.1.1. La psicología del acto de Brentano.
Brentano interpretó el acto mental como aquello por lo que la mente entra en contacto con el mundo. Lo fundamental era estudiar lo que hace la mente, siendo el contenido mental menos importante que el acto mental que aprehende el fenómeno. Intentó realizar un análisis epistemológico de los fundamentos de la psicología. Consideraba que la experiencia era un término ambiguo, ya que podía entenderse como el contenido de la consciencia de los informes introspectivos o como el fenómeno que aprehende nuestro conocimiento sobre el mundo. La propiedad fundamental de la consciencia es la intencionalidad por la que cualquier experiencia sólo tiene sentido cuando se entiende como un acto mental referido a algún objeto.
Tareas de la psicología empírica según Brentano:
1. Descripción de la experiencia subjetiva por medio de la intuición. Intenta delimitar el propio campo de investigación psicológico en un nivel precientífico, cuya tarea es la clasificación de los actos.
2. Establecer la psicología científica encontrando la evidencia de las relaciones causales entre los fenómenos hasta alcanzar el nivel fisiológico (psicología genética).
Así, Brentano quería lograr una psicología experimental con fundamento epistemológico.
4. Abandono y destierro de los procesos mentales.
4.1. El conductismo de Watson.
Contrapuesto al estructuralismo y al funcionalismo y bajo la influencia del pragmatismo.
Watson (1913) criticó el método introspectivo por no haber producido ningún avance en la investigación psicológica y por haber separado a la psicología del resto de las ciencias naturales, cuyos datos son objetivos y públicos. Su campo de investigación era la psicología animal.
Tachó de insostenible el estudio de la consciencia por no ser observable directamente y por existir criterios que pudieran justificar la consciencia animal. El marco teórico de la psicología y su investigación se centró en la búsqueda de leyes y principios de la predicción y control del comportamiento observable, que se definía por las relaciones entre estimulación ambiental y respuestas del organismo. Así, la conducta reemplazó a la experiencia consciente como objeto de la psicología, y la observación objetiva de la experimentación animal, al método introspectivo. El pensamiento se consideraba como un epifenómeno o, en el mejor de los casos, un lenguaje subvocal que podía ser explicado como hábitos laríngeos.
El énfasis en el método objetivo constituye una de las características principales del conductismo descriptivo. Los paradigmas experimentales sobre los que se sustentó el método objetivo fueron el condicionamiento clásico (fruto de las investigaciones de Paulov sobre el reflejo condicionado) y el condicionamiento operante (desarrollado a partir de los estudios de Thorndike en 1898 sobre la conducta de ensayo y error, la recompensa y el castigo).
4.2. El neoconductismo de Tolman (1922).
Puso de manifiesto que algunos cambios en los patrones conductuales no podían interpretarse fácilmente en términos de E-R. En lugar de estos términos propuso el concepto de agente estimulante y acto conductual. Su interés se centraba en analizar los estímulos con el fin de determinar qué era aquello que permitía que los estímulos se relacionasen entre sí.
Tolman introduce entre el estímulo y la respuesta unas variables que no son observables pero que intervienen en el desencadenamiento de la conducta y que pueden definirse operacionalmente. Utilizó conceptos mentalistas, aunque dentro del marco teórico conductista, que desempeñaran el papel de variables intervinientes, tales como las expectativas o los mapas cognitivos, con el fin de relacionar sus observaciones entre la conducta y el ambiente, anticipando y abriendo camino para la futura psicología cognitiva.
Rechaza el periferialismo adoptado por Watson y por Hull y Skinner. La polémica entre periferialistas y centralistas giraba en torno a la interpretación de los procesos mediacionales como variables intervinientes o como constructos hipotéticos, respectivamente.
4.3. El positivismo lógico de Hull.
Propuso una de las explicaciones más sistemáticas y detalladas del aprendizaje. Presentó su teoría en términos formales para que sus postulados permitieran hacer predicciones conductuales expresadas cuantitativamente por medio de ecuaciones con variables intervinientes (siempre que estas variables inobservables pudieran definirse operativamente en relación con la conducta observable o con los acontecimientos ambientales).
4.4. El conductismo radical de Skinner (1938).
Skinner rechaza cualquier tipo de entidad mental o hipotética, y propone el análisis experimental de la conducta en términos de la descripción precisa entre variables ambientales y conductuales. La conducta se entiende como producto exclusivo de la historia de reforzamientos del sujeto o, en algunos casos, de su constitución genética, nunca como un producto de su voluntad o su intención o cualquier otro tipo de identidad inobservable. El objeto de la psicología es la descripción de las relaciones funcionales que se establecen entre las variables ambientales (variables independientes) que anteceden e incluyen sobre la conducta y los efectos observados en esa conducta (variables dependientes), siendo ambas variables observables. Esta postura destierra los procesos mentales, independientemente de la forma en que puedan concebirse, por innecesarios y por ser parte de una psicología precientífica, y convierte a la psicología en una ciencia de la conducta.
5. La psicología de la Gestalt como proyecto descriptivo de la psicología del pensamiento.
La psicología de la Gestalt, que surgió en Alemania como alternativa al estructuralismo, consistía en la descripción de fenómenos que no podía explicarse a través del reduccionismo estructuralista, ni por el mecanicismo asociativo. Contrariamente al conductismo, no negaba la legitimidad de la consciencia como objeto de estudio de la psicología, sino que se oponía al análisis de la experiencia en sus elementos constituyentes.
La Gestalt defiende la totalidad del fenómeno psicológico y se opone a su descomposición en elementos más simples, defendiendo que el todo es una experiencia cualitativamente diferente del conjunto de partes más simples. Se preocupan por la naturaleza del pensamiento desde una orientación fenomenológica. La experiencia tenía que describirse tal como aparece, ya que el todo posee sus propias leyes.
La psicología de la Gestalt trabajó principalmente sobre la percepción y la solución de problemas (muy importante para el desarrollo posterior de la psicología del pensamiento).
Wertheimer (1945) propuso la distinción entre pensamiento reproductivo (basado en la mera repetición mecánica y ciega) y el pensamiento productivo (requiere un proceso denominado insight, que se caracteriza por el cierre del campo psicológico en el que todos los elementos se reúnen para formar una reestructuración global.
Los gestaltistas distinguían entre realidades fenomenológicas y realidades físicas que comprenden la interacción entre el SN y el ambiente. El principio del isomorfismo sostiene que las relaciones estructurales del campo crean en el sujeto una pauta de campos cerebrales isomórficos con respecto a sí mismo. El cerebro es un complejo campo eléctrico en el que existe un isomorfismo funcional con el campo conductual. Así, las experiencias fenomenológicas se explican como una representación del contenido subyacente de los procesos fisiológicos correspondientes.
El enfoque más sistemático de la solución de problemas fue el de Duncker (1945), quien usaba los protocolos verbales para identificar el progreso gradual de los sujetos hacia la comprensión. La diferencia entre estos protocolos y los de informes introspectivos es que no necesitaban un entrenamiento específico, sino la verbalización de los planes y estrategias que utilizan los sujetos para resolver un problema. Así, la solución de problemas se definía como la búsqueda de medios para resolver el conflicto ente una situación actual y una situación meta. El resultado de este proceso era un conjunto de representaciones altamente integradas y estructuradas que detallaban las partes del problema.
Cuando la psicología de la Gestalt emigró a EEUU hacia finales de la 2 Guerra Mundial se encontró con una psicología dominada por el conductismo en la que no prosperaron ni su teoría ni sus investigaciones. Sin embargo, algunos consideran que la psicología de la Gestalt fue precursora de la psicología cognitiva.
6. El pensamiento como procesamiento de información.
El desarrollo de la máquina de Turing por John von Neumann, la teoría de la información de Shannon y el desarrollo de Wiener de un sistema cibernético constituyeron los cimientos de la psicología cognitiva. Desde la perspectiva cognitiva del procesamiento de la información, la mente se entiende como análoga a un sistema activo que procesa información.
6.1. La máquina de Turing (1936).
Uno de los fundamentos principales del neomentalismo fue el autómata de estados finitos de Turing. Su arquitectura sólo depende de los símbolos que lee y su estado interno actual. La concepción de esta máquina teórica (que debía poder realizar cualquier función recursiva) permitió dotar a un mecanismo con un poder computacional enorme, y dio lugar a la base teórica sobre la que se construyó el ordenador digital moderno.
6.2. La teoría de la información de Shannon (1948).
Shannon trabajó sobre la conceptualización de la información en un sistema binario que fuera independiente del contenido y de la naturaleza del mecanismo. Demostró que los circuitos electrónicos podían utilizarse para simular las operaciones lógicas del cálculo proposicional diseñando una máquina que podía realizar las leyes del pensamiento de Boole (1854). Un bit de información es una unidad que indica el emparejamiento entre los patrones de señales producidos por el emisor y los patrones recibidos por el receptor. La medida de la información relaciona el número de alternativas contenidas en el mensaje con el n de alternativas que llega a entender el receptor. Como la información se define por la cantidad de incertidumbre que existe en el sistema, cuanta más información tenga el sistema, más difícil será establecer su control.
6.3. La cibernética de Wiener (1948).
Introdujo el concepto de cibernética para describir su teoría de los sistemas de control por medio de la retroalimentación tanto en máquinas como en los seres vivos. Así, propone una teoría sobre los sistemas con servomecanismos que tienen capacidad para autorregularse, estableciendo el control a través de la retroalimentación. La retroalimentación permite que el sistema reciba información sobre el curso de sus acciones y que las modifique cuando sea necesario. Esta capacidad hace posible que el sistema establezca un equilibrio adaptativo con el medio en el que se desenvuelve. Fue este matemático el que introdujo y generalizó la teoría del control y de la comunicación en los seres vivos y en las máquinas construidas por el hombre.
La idea principal que subyace a un sistema cibernético es que, por una parte, se puede comparar el estado actual en el que se encuentra el sistema con un estado ideal o deseado, y que, por otro lado, el estado actual puede aproximarse al estado deseado por medio de los ajustes que intentan reducir las discrepancias entre ambos estados. Los mecanismos de retroalimentación se caracterizan por el control que ejerce la entrada exterior de información sobre el comportamiento interno del sistema y sobre la posterior salida de información. La estabilidad de la salida de información es la meta que persigue el sistema.
La perspectiva cibernética buscaba explicar el comportamiento en función de las acciones, de los bucles de retroalimentación y de los ajustes necesarios para alcanzar la meta deseada.
Alrededor de los años 70, la psicología se preocupaba de cómo los estímulos se convertían en respuestas por mediación de la analogía con un sistema de procesamiento. En 1972, Newell y Simon producen "El solucionador general de problemas", que constituí a una teoría de la solución de problemas, y su ejecución pretendía ser un modelo de los aspectos cuantitativos y cualitativos del comportamiento humano.
La influencia de los conceptos computacionales ha invadido las investigaciones actuales. La idea fundamental que subyace en las investigaciones de la psicología cognitiva es que su objeto de estudio es el producto de un proceso computacional.
TEMA 2. MARCO TEÓRICO DE LOS MODELOS COMPUTACIONALES.
1. Los modelos computacionales clásicos.
Intentan demostrar la posibilidad de que un sistema material, el ordenador, pueda manifestar las características de la psicología humana, partiendo de tres supuestos principales:
a. El pensamiento es procesamiento de la información, por lo que se analiza en una serie de procesos u operaciones.
b. El procesamiento de la información es cómputo, y se analiza como cómputo simbólico (manipulación de signos).
c. Existe un lenguaje del pensamiento en el que hay una sintaxis y unos símbolos que se refieren a los objetos del mundo externo.
Un concepto central es el de representación de la información y el objetivo es buscar procedimientos (reglas para la manipulación de símbolos) que puedan explicar cómo interactúa este sistema con el medio exterior; es decir, buscar algoritmos que puedan explicar cómo el sistema utiliza sus interpretaciones interna cuando interactúa con el medio exterior. Así, los procesos mentales se especifican en un lenguaje formal y se implementan en un sistema físico. La idea central es que el pensamiento es producto de un cómputo mental que se sustenta en la representación del conocimiento y en el conjunto de operaciones que se aplican sobre esta representación.
Un problema de los modelos computacionales es la intencionalidad. Así, algunos enfoques adoptan una explicación sólo a nivel algorítmico, mientras que otros hacen más hincapié en lo intencional, y, otros intentan conjugar los tres niveles.
2. El enfoque sintáctico.
Su objetivo principal es explicar el comportamiento en términos de las relaciones que se establecen entre la información que es externa al sistema, los estados mentales que son hipotéticos y la conducta observada en dicho sistema. Se trata de equiparar estas relaciones y las relaciones formales entre los objetos designados, con independencia de lo que designen o signifiquen. Las generalizaciones sobre las relaciones entre los estados mentales hipotéticos se especifican a través de las relaciones formales entre los objetos sintácticos con los que se corresponden. Las generalizaciones sobre las relaciones entre la información y los estados mentales y entre los estados mentales y el comportamiento se especifican mediante sus respectivas correspondencias con los objetos sintácticos.
El estado mental se define en términos de lo que causa. La hipótesis fundamental de este enfoque enuncia que en cada sistema existe un conjunto de estados mentales cuyos símbolos se encuentran causalmente implicados en la producción del comportamiento. El problema es que elude la naturaleza esencial de los estados mentales que causan el comportamiento. Es un análisis funcionalista, que presenta un carácter materialista. Uno de los primeros exponentes del enfoque materialista, en su versión mecanicista, de los estados mentales fue Thomas Hobbes.
Dentro del mecanicismo, George Boole, buscaba determinar las leyes del pensamiento y describirlas dentro de un sistema lógico. Así, el razonamiento humano puede describirse como "álgebra mental" en la que se manipulan términos sintácticos, que se asocian con contenidos específicos. A este conjunto de operaciones lo llamó "leyes del pensamiento".
Otra aportación importante para el desarrollo posterior de los modelos mecanicistas fue la concreción de que cualquier expresión lógica podía reducirse a un sistema binario.
El enfoque racionalista parte del supuesto de que los sujetos poseen algún tipo de sistema lógico, que existe una lógica mental y que el razonamiento se ajusta a este conjunto de reglas formales. El objetivo de este cálculo formal es establecer el procedimiento inferencial correcto, ignorando el contenido.
3. El enfoque representacional.
Las investigaciones entre los años 1965-1975, empezaron a preocuparse por la caracterización de la representación del conocimiento que era necesario para desarrollar adecuadamente los cálculos mentales. Este enfoque sostiene que tanto la adquisición como el acceso son parte del procesamiento, y , por tanto, el conocimiento no existe independientemente del nivel funcional. Se parte del supuesto de que la representación interna del conocimiento ha de estar estrechamente relacionada con las oraciones del lenguaje natural, compartiendo las mismas características: sistematización, productividad, referencia y valor de verdad.
Las actitudes proposicionales (las atribuciones de contenido a cualquier estado mental) son relaciones que se establecen con una representación mental. Las actitudes proposicionales se entienden en función de las relaciones que se establecen con algún tipo de entidades representacionales con propiedades formales y semánticas. Así, los estados mentales se distinguen tanto por el contenido como por la relación que establece el sujeto con las representaciones. Estas actitudes proposicionales heredan sus propiedades semánticas de aquellas representaciones con las que se encuentran relacionadas. Los estados mentales difieren en contenido sólo si son relaciones con tipos de representaciones diferentes.
La tesis de la máquina semántica sostiene que si el sistema ha sido interpretado con axiomas verdaderos, entonces tan sólo es necesario cuidar la sintaxis. Así, el conocimiento se podría axiomatizar en un sistema lógico cuyas expresiones fueran inequívocas, llegando a realizarse el conocido "sueño booleano". Para ello es necesario asumir que los estados mentales son manipulaciones de símbolos y que los principios que gobiernan estos estados han de ser diferentes en cuanto a su contenido sólo si pueden identificarse con representaciones formalmente distintas. La explicación de la representación queda garantizada por la correspondencia entre la atribución semántica y las propiedades sintácticas de la interacción causal. La rigurosidad de las predicciones del enfoque sintáctico sigue siendo la misma que la del enfoque representacional.
El programa SHRDLU de Winograd es un modelo de la comprensión del lenguaje natural y supuso uno de los mayores avances de la simulación. El programa de Winston sobre el aprendizaje de descripciones estructurales a partir de los ejemplos presentados está en la misma línea.
3.1. El problema de la máquina semántica.
La supuesta intencionalidad de la máquina semántica es una intencionalidad derivada. La intencionalidad conlleva relaciones con el ambiente, y estas relaciones no se encuentran entre las propiedades físicas de la formulación interna del sistema. Si el programa SHRDLU "comprendía" era porque los datos que tenía almacenados ya habían sido interpretados previamente, y si el programa de Winston "aprendía" era porque las características y relaciones relevantes de los objetos ya habían sido seleccionadas y ponderadas a partir del conjunto indefinido de posibles características. El supuesto contenido que adquieren los modelos computacionales no son otra cosa que le producto de las convenciones de programación. La máquina semántica no tiene conocimiento de lo que hace, lo único que conoce es cómo ejecutar el programa. La intencionalidad de los modelos computacionales depende completamente de las intenciones intrínsecas del programador o del usuario. Así, puede darse el caso de que dos estados mentales que sean idénticos en su potencial causal se consideren diferentes en virtud de su contenido.
La teoría representacional pretende concebir el contenido como si fuera una entidad susceptible de cuantificación cuando en realidad no explica cómo se representa el mundo tal y como lo aprehendemos, y tal y como lo proyectamos en el futuro. Las generalizaciones que relacionan los estados mentales en virtud de sus contenidos lo que en realidad están haciendo es relacionarlos en función de las oraciones con contenido que utilizamos para caracterizarlos. El supuesto bajo el cual se procede es que la forma en la que los estados mentales representa la realidad es la misma que la del lenguaje. Sin embargo, el uso de la referencia en el discurso no es la misma que la referencia de las representaciones mentales.
Otro problema de la representación de los modelos computacionales es que asumen que sus símbolos son articulados, mientras que la experiencia psicológica es densa y autobiográfica. Los símbolos articulados son los que pertenecen al lenguaje natural, dado que se ajustan tanto a los criterios de la estructuración sintáctica como a los criterios semánticos. En el caso del lenguaje natural la relación representacional entre el símbolo y aquello que representa se establece por el contexto social de la interpretación. Sin embargo, las representaciones internas presentan relaciones entre símbolos que están cargados de contenido, el objeto que se representa, y el contexto en el que se establece la conexión entre el símbolo y el objeto. Por tanto, la representación mental está basada en símbolos personales a los que sólo tiene acceso el propio sujeto y al que le pertenece la exclusiva autoridad con respecto a la atribución. Así, los símbolos articulados constituyen una base común de referencia para permitir la comunicación, mientras que los símbolos densos son posesión exclusiva de las personas para representarse el mundo que les rodea.
Los modelos computacionales recurren al contenido sin explicarlo, y pasando por alto que la analogía que pueden ofrecer se sitúa sólo en términos de las operaciones que se realizan sobre los elementos formales.
4. El enfoque conexionista.
El pensamiento se concibe como un comportamiento que emerge del patrón de regularidades observadas en nuestra experiencia. Los modelos conexionistas ofrecen una explicación de los estados mentales de acuerdo con la idea de cómputo mental inherente a los modelos computacionales, pero sin apelar a la hipótesis de que el sistema sea un manipulador de símbolos. El sistema está constituido por redes de activación, cada una de las cuales comprende un conjunto amplio de unidades de procesamiento, similares a las neuronas, que, a su vez, se encuentran unidas por conexiones con pesos diferenciados. El supuesto fundamental es el de la concepción del SN como un sistema constituido por componentes funcionales altamente organizados en el que no es necesario racionalizar la construcción y computación de representaciones cuasi-lingüísticas. En lugar de buscar la estructura lógica que ha de tener un sistema para poder explicar una propiedad, se pretende partir de las características físicas del propio sistema para explicar cómo es posible que se desarrolle esa propiedad. Lo que se propone este enfoque es axiomatizar el sistema físico, para luego investigar analíticamente su comportamiento en contraposición a la axiomatización del comportamiento para luego diseñar un sistema físico por las técnicas de la síntesis lógica.
Smolensky propone el nivel de análisis de los modelos conexionistas se sitúa entre el nivel real de las conexiones neuronales y el nivel de análisis del cómputo mental. Este nivel intermedio pretende formalizar las estructuras neuronales y relacionarlas con el cómputo mental de los modelos simbólicos adoptando un nivel de descripción de orden superior. Así, ambos niveles son esenciales porque por medio del nivel subsimbólico se define el sistema, mientras que el nivel computacional permite comprender lo que hace el sistema. Cuando las estructuras simbólicas se conciben como un nivel de descripción más abstracto que el del sistema dinámico, las reglas ya no son inferencias simbólicas, sino patrones de pesos, y el conocimiento ya ni es una representación simbólica cuasi-lingüística, sino patrones de activación. Bajo esta perspectiva el pensamiento simbólico es una propiedad emergente del sustrato neurológico.
Durante la década de los años 50 se empezaron a estudiar las redes neuronales como modelos de memoria distribuida. Taylor desarrolló una red en la que las unidades motoras se reconectaban con las unidades sensoriales y entre sí mismas. El procedimiento de entrenamiento de la red es la conocida regla de Hebb, por medio de la cual cualquier conexión que ha sido activada incrementa su peso si se activa la respuesta meta. Esta regla es el punto de partida de los modelos actuales de memoria distribuida basados en la correlación sináptica.
A principios de los 80, Hopfield desarrolla la analogía entre una red de elementos parecidos a las neuronas y el comportamiento de un material magnético (el spin glass). Las redes de Hopfield no son propiamente redes neuronales, ya que cada elemento tiene la facultad de excitar e inhibir al resto de los elementos. Sin embargo, estas redes suponen un avance conceptual en la teoría conexionista al mostrar que el almacenamiento de la información puede darse en configuraciones dinámicas estables.
Los modelos conexionistas comprenden dos propiedades que se consideran fundamentales en cualquier sistema de procesamiento análogo al humano: la distribución y el paralelismo.
La ventaja que ofrecen los modelos conexionistas frente a los modelos simbólicos es que no es necesario establecer descripciones contextuales lógicas sobre la naturaleza del problema. El conexionismo brinda un nuevo lenguaje para construir modelos de procesamiento cuasi-neuronales.
TEMA 3. PSICOLOGÍA DEL RAZONAMIENTO.
1. Concepto de razonamiento.
El razonamiento es uno de los procesos cognitivos básicos por medio del cual utilizamos y aplicamos nuestro conocimiento. Permite pasar de una información a otra, dado que a partir del conocimiento sobre uno o más enunciados que se encuentren relacionados podemos derivar otro enunciado o alcanzar una conclusión.
2. Investigaciones sobre el razonamiento humano.
Las investigaciones sobre el razonamiento humano acudieron a la lógica con el afán de identificar las leyes del razonamiento.
Las investigaciones psicológicas sobre el proceso de razonamiento han diseñado sus tareas experimentales de acuerdo con la formalización y el concepto de validez del análisis lógico. Es habitual encontrar que estas tareas comprenden premisas y conclusiones que tienen que ser evaluadas por los sujetos con respecto a su consecuencia lógica. Los enunciados a partir de los cuales razonamos reciben el nombre de premisas y el enunciado que se deriva de los anteriores se denomina conclusión. El conjunto formado por premisas y conclusión es el argumento.
Dando por supuesto que el contenido de las premisas sea verdadero, en el caso de la deducción hablamos de un argumento válido o inválido y, en el caso de la inducción, de un argumento más o menos probable. En un argumento deductivo las conclusiones se siguen necesariamente de las premisas, mientras que en uno inductivo las premisas sugieren o apoyan la conclusión.
Los estudios psicológicos sobre el razonamiento han seguido la distinción habitual de las dos ramas de la lógica estandarizada sobre razonamiento deductivo y razonamiento inductivo. La división del razonamiento en deductivo e inductivo es una clasificación clásica que obedece a los modelos normativos con los que se compara el rendimiento de los sujetos cuando resuelven una tarea de razonamiento. La diferencia entre ambos tipos de razonamiento se encuentra en el tipo de conclusiones que se pueden derivar de las premisas.
En el marco de la psicología cognitiva, los modelos de procesamiento de la información suelen distinguir el conocimiento declarativo y el conocimiento procedimental. El conocimiento declarativo es el conjunto de conceptos, datos y relaciones, mientras que el conocimiento procedimental se refiere al modo en que se realiza el procesamiento. El primero explica qué es lo que se procesa y el segundo cómo se procesa. Así, el razonamiento de acuerdo con los modelos normativos es una forma de conocimiento procedimental.
3. Razonamiento deductivo.
Se parte de unas premisas para alcanzar una conclusión que se siga necesariamente de las mismas. Se describe como un procesamiento dirigido "hacia abajo" en el sentido que a partir de lo general se llega a lo particular. Un argumento deductivo es válido sólo si es imposible que su conclusión sea falsa mientras que sus premisas son verdaderas. Las conclusiones deductivas son tautológicas, ya que no pueden ir más allá de la información contenida en las premisas. La verdad de las premisas garantiza la verdad de las conclusiones. La validez de un argumento deductivo es cuestión de todo o nada (o es válido o no lo es). Aunque a veces se diga que la conclusión es verdadera o falsa, en realidad las reglas de la lógica no evalúan el contenido de las premisas, sino la validez del argumento. Así, las reglas de la lógica deductiva prescinden del contenido para centrarse tan sólo en la sintaxis del argumento.
En líneas generales, el estudio de la deducción se centra en el análisis de los principios del razonamiento que son
independientes del contenido sobre el que se razona y que permiten alcanzar un razonamiento formalmente válido.
Las proposiciones formalizadas reciben el nombre de fórmulas lógicas y éstas se corresponden con las premisas de un argumento. Las reglas de inferencia permiten dar el paso lógico que conduce de las premisas a la conclusión. Cuando se dice que un argumento es válido se entiende que la conclusión es una consecuencia lógica de las premisas en el que cada paso se deduce por medio de una regla de inferencia. Ejs. de reglas de inferencia: regla de simplificación (S), regla de adjunción (A), doble negación (DN), ley de adición (LA), leyes conmutativas, modus ponendo ponens (PP), etc.
4. Razonamiento inductivo.
La conclusión va más allá de la información presentada en las premisas y, por tanto, las conclusiones serán probables o improbables. Se describe como un procesamiento "hacia arriba" en el que se llega a lo general a partir de lo particular. Un argumento inductivo es fuerte sólo si es improbable que su conclusión sea falsa cuando sus premisas son verdaderas. Las conclusiones inductivas son probabilísticas, ya que van más allá de la evidencia. Las conclusiones serán más o menos probables en función del número de casos en los que basamos la generalización y además en la variabilidad de los casos comprendidos en el conjunto. El modelo normativo que más se ha utilizado para estudiar el razonamiento inductivo es el teorema de Bayes.
La validez de un argumento inductivo es cuestión de grado, de fuerza del argumento. Un argumento inductivo es fuerte si es improbable que su conclusión sea falsa si sus premisas son verdaderas. El grado de fuerza inductiva va a depender de este grado de improbabilidad. Si las premisas son verdaderas, entonces basándonos en esta información es probable que la conclusión también sea verdadera. El grado de fuerza inductiva está determinado por la relación de apoyo que se establece entre premisas y conclusiones. La probabilidad de las premisas y conclusiones se llama probabilidad epistémica, porque depende de nuestro conocimiento y puede variar de una persona a otra y a lo largo del tiempo en la misma persona.
Las inferencias inductivas se encuentran presentes en la categorización y especialización, en el razonamiento causal, en la detección de contingencias, en la solución de problemas, en el aprendizaje, en el razonamiento probabilístico, en la toma de decisiones, en el razonamiento analógico para la solución de problemas y para el aprendizaje.
La lógica ofrece métodos y reglas para establecer los criterios de una razonamiento deductivamente válido o inductivamente fuerte.
4.1. Los métodos de Mill.
Los métodos de Mill son unos procedimientos para determinar si una causa es suficiente o es necesaria para producir un determinado efecto, siempre que se tenga información sobre la presencia o la ausencia de otras causas potenciales y de la presencia o ausencia del efecto bajo estas situaciones. Para las condiciones necesarias y suficientes hay seis principios:
1) Si A es una condición suficiente para B, entonces B es una condición necesaria para A.
2) Si C es una condición necesaria para D, entonces D es una condición suficiente para C.
3) Si A es una condición suficiente para B, entonces la ausencia de B es suficiente para la ausencia de A.
4) Si C es una condición necesaria para D, entonces la ausencia de D es condición necesaria para la ausencia de C.
5) Si A es una condición suficiente para B, entonces la ausencia de A es una condición necesaria para la ausencia de B.
6) Si C es una condición necesaria para D, entonces la ausencia de C es una condición suficiente para la ausencia de D.
Los métodos de Mill son unos procedimientos para encontrar las condiciones necesarias o suficientes de una propiedad dada. La propiedad o el efecto que se analiza se denomina propiedad condicionada y las propiedades que son condiciones necesarias o suficientes de una propiedad condicionada se llaman posibles condiciones condicionantes. Estos métodos son: método directo de concordancia, método inverso de concordancia, método de diferencia, método combinado, método de variaciones concomitantes y método de residuos.
4.1.1. Método directo de concordancia.
Se utiliza para identificar las condiciones necesarias. Hay que buscar la ocurrencia de la propiedad condicionada en un abanico variado de circunstancias. Se construye una tabla en la que se recoge un número x de ocurrencias en las que las propiedades condicionantes pueden estar presentes o ausentes cuando se produce la propiedad condicionada. Se procede al análisis por el principio de eliminación (cualquier propiedad que se encuentre ausente cuando el efecto está presente no puede ser una condición necesaria).
4.1.2. Método inverso de concordancia.
Se utiliza para identificar las condiciones suficientes. Para ello se busca en un número determinado de ocurrencias las propiedades condicionantes que se encuentren ausentes cuando la propiedad condicionada también lo está. El principio de eliminación que se usa es: una propiedad que se encuentre presente cuando el efecto está ausente no puede ser una condición necesaria.
4.1.3. Método de diferencia.
Se usa también para identificar las condiciones suficientes pero cuando las propiedades condicionantes se encuentran presentes en una ocurrencia determinada.
4.1.4. Método combinado.
Se usa para identificar las condiciones que son tanto suficientes como necesarias. El doble método de concordancia combina el método directo y el inverso de concordancia y le método conjunto combina el método directo de concordancia y el método de diferencia. EN todas sus variantes siempre hay tan sólo dos principios de eliminación:
1) una condición necesaria del efecto no puede estar ausente cuando el efecto está presente,
2) una condición suficiente del efecto no puede estar presente cuando el efecto está ausente.
4.1.5. Método de las variaciones concomitantes.
Identifica las relaciones funcionales entre las variaciones de un fenómeno. Se trata de determinar el grado de correlación entre la presencia o ausencia de las condiciones necesarias y/o suficientes.
4.1.6. Método de residuos.
Separa los efectos que podemos asignar a causas conocidas y asume que el resto de los efectos pertenece a causas aún por determinar. Al igual que el método de variaciones concomitantes, el método de residuos también se interesa en la cuantificación. En este caso, se busca cuantificar qué parte del efecto puede explicarse por causas conocidas y qué parte queda aún por determinar.
4.2. Problemas del razonamiento inductivo:
- La lógica inductiva se centra en el estudio de pruebas para medir la probabilidad inductiva de los argumentos y en reglas para construir argumentos inductivos fuertes. Pero no existe acuerdo sobre la forma de medir la fuerza inductiva de un argumento, ni una aceptación consensual de las reglas para construir argumentos inductivos fuertes, ni siquiera una definición precisa sobre probabilidad inductiva.
- La validez del razonamiento inductivo se fundamenta en la ley de uniformidad de la naturaleza por la que se puede suponer que el futuro será semejante al pasado. Sin embargo, la naturaleza es uniforme en algunos aspectos y en otros es variable.
5. Errores y sesgos en el razonamiento tanto inductivo como deductivo.
Los resultados experimentales sobre el razonamiento tanto deductivo como inductivo muestran que las respuestas de los sujetos no se ajustan a las prescripciones marcadas por los modelos normativos.
En el caso del razonamiento deductivo lo habitual es comparar el rendimiento humano con la teoría de la lógica formal (nos perite saber si a partir de unas premisas podemos ingerir unas conclusiones válidas o inválidas). La validez garantiza que no exista un estado posible de acontecimientos en los que siendo verdaderas las premisas la conclusión sea falsa.
En el caso del razonamiento inductivo, el modelo normativo es el teorema de Bayes, que permite obtener la probabilidad de una conclusión ante el conjunto posible de conclusiones alternativas.
Los errores de razonamiento se clasifican en formales (en los que se viola alguna de las reglas de inferencia) e informales (no dependen de la forma del argumento sino del contenido). Los errores informales se deben a un uso o a una interpretación inadecuada del contenido del argumento (por ej. se puede rechazar una argumento formalmente válido por no estar de acuerdo con el contenido de la conclusión)..
Los sesgos o falacias del razonamiento se refieren a unas tendencias que son sistemáticas y que hacen que los sujetos consideren factores irrelevantes para el proceso inferencial. Los sesgos más frecuentes en el razonamiento pueden ser causados tanto por factores externos como internos y se pueden clasificar en tres:
1) el sesgo en la selección de información,
2) el sesgo de confirmación,
3) los sesgos de contenido y de contexto.
5.1. Factores externos.
Son aquellos que hacen referencia al impacto que tiene la información irrelevante sobre el sistema de procesamiento.
Bajo el supuesto de que el ser humano es análogo a un sistema de procesamiento de la información, también es necesario considerar que el sistema tiene determinadas restricciones cognitivas (capacidad de memoria y recursos de procesamiento limitados, ...). Así, el sistema se ve obligado a seleccionar aquello que sea relevante para resolver la situación que se le presenta.
Hay factores externos al sistema de procesamiento que hacen que el proceso de selección se centre en determinada información. Cuando se dice que una información es prominente o saliente se está haciendo referencia a determinados aspectos que sobresalen sobre los demás y que crean un impacto sobre el sujeto, aunque no sean importantes (por ej. los anuncios publicitarios).
El error de razonamiento conocido como argumentum ad hominem (argumentación contra el hombre) manifiesta la importancia que se concede a la fuente de información independientemente de lo que sostenga. Es frecuente que se acepte o rechace determinada información en función de los méritos que otorgamos a esa fuente. Sin embargo, un argumento defendido por una fuente con credibilidad baja no hace que el argumento sea inválido, y un argumento no puede ser válido sólo porque lo defienda una fuente con una credibilidad alta.
También hay errores debido a la propia estructura sintáctica del problema. Por ej., en los problemas con silogismos categóricos se ha encontrado el efecto atmósfera y el sesgo de la figura del silogismo.
En el sesgo de emparejamiento las respuestas de los sujetos coinciden con los enunciados del antecedente y consecuente del problema en la versión abstracta de la tarea de Wason. Este sesgo pone de manifiesto la relevancia que adquieren los términos expresados en el condicional y las dificultades que tienen los sujetos con la negación lógica y lingüística, mostrando en general una preferencia hacia el procesamiento de información positiva.
5.2. Factores internos.
Por factores internos se entienden las propias limitaciones estructurales del sistema (como la MCP), la tendencia hacia la confirmación y la influencia del conocimiento o sistema de creencias.
Existe una limitación asociada con la cantidad de información con la que puede trabajar el sistema. Cuando esta información es abundante, el sistema se sobrecarga y la posibilidad de error es mayor.
La selección adecuada de la información va a depender de que ésta se encuentre disponible (facilidad con la que se recupera determinada información). En el proceso de organización y recuperación de la información almacenada existen restricciones cognitivas que pueden dar lugar a sesgos (la facilidad de recuperación en términos de cómo se ha organizado la información, la familiaridad de la información, las expectativas de los sujetos o la primacía o cercanía de la información presentada...).
En el caso de la disponibilidad, si la información que es relevante no se puede recuperar fácilmente, entonces los sujetos pueden cometer errores. Sin embargo, el hecho de tener disponible la información tampoco garantiza que los sujetos la seleccionen.
Otro factor es la relevancia. La información no sólo tiene que estar disponible, sino que el sujeto tiene que considerarla relevante para la situación que ha de resolver.
El sesgo de confirmación pone de manifiesto la tendencia del sujeto hacia la búsqueda de información que sea consistente con su sistema de creencias, expectativas o hipótesis y a descartar aquella información que pueda falsarlas. También se encuentra este sesgo en tareas de inducción en las que el sujeto tiene que descubrir una regla. En general, los sujetos adoptan estrategias que persiguen la confirmación y la no falsación e incluso muestran una persistencia inadecuada al seguir defendiendo un argumento en el que creen a pesar de la evidencia contraria al mismo. Este sesgo puede deberse a una restricción propia del sistema que se centra en procesar información positiva y no a una tendencia hacia la confirmación.
Cuando se presentan reglas con contenido, los sujetos intentan verificar las hipótesis si se encuentran en consonancia con su sistema de creencias y tienden a desconfirmarlas cuando piensan que pueden no cumplirse en todos los casos. El contenido y el contexto de los problemas también influyen sobre el razonamiento. En general, se suelen distinguir tres tipos de contenidos: el contenido abstracto, el contenido conocido pero arbitrario y el contenido familiar. El contenido familiar de los problemas de razonamiento puede en algunos casos facilitar el rendimiento de los sujetos y en otros sesgar sus repuestas.
Los sujetos parecen examinar las conclusiones, y si éstas son plausibles, entonces tienden a aceptarlas sin analizar la validez del argumento (modelo del escrutinio selectivo).
La fuerza de un argumento inductivo depende del grado de apoyo empírico entre premisas y conclusiones. Los sujetos aceptan una generalización cuando la muestra es pequeña si los objetos presentan una variabilidad baja y no están dispuestos a aceptar una generalización basada en pocas observaciones en un dominio con mucha variabilidad. Así, los sujetos tienen supuestos sobre la muestra y a medida que tienen más experiencia en un dominio de conocimiento, tanto mejor serán estos supuestos, evitando generalizaciones falaces.
El contenido puede inducir a sesgos cuando es representativo del dominio, pero irrelevante desde el punto de vista estadístico.
6. Concepto de racionalidad.
El debate sobre la racionalidad gira principalmente en torno a las propuestas alternativas que intentan acomodar con distintos pesos la racionalidad y las desviaciones ilógicas observadas en el comportamiento de los sujetos. Las perspectivas teóricas se pueden clasificar en 4 tipos de modelos: 1) modelos sintácticos que defienden un conjunto general de reglas, que se pueden ajustar a algún modelo lógico y/o complementar con factores pragmáticos; 2) modelos que descartan las reglas de inferencia y se basan en la manipulación de modelos mentales de representación semántica; 3) modelos conexionistas basados en la representación del conocimiento y el ajuste óptimo, y 4) los modelos híbridos que conjugan representación conexionista del conocimiento y cómputo simbólico (basado en reglas o en modelos mentales).
Evans y Over proponen distinguir entre dos nociones de racionalidad. La racionalidad1 o racionalidad personal comprende aquel comportamiento que resulta eficaz y fiable para la obtención de metas, y la racionalidad2 o racionalidad impersonal describe el comportamiento sustentado en una razón que se encuentra fundamentada en una teoría normativa. Esta distinción es una forma de describir el razonamiento, pero no una propuesta psicológica. La distinción psicológica la hacen entre el tipo de sistema de procesamiento: implícito o explícito. Esta propuesta también comprende la coexistencia de dos tipos de razonamiento. El sistema de procesamiento implícito se caracteriza como un sistema conexionista en el que se representa el conocimiento tácito y que depende de la experiencia. El sistema de procesamiento explícito está limitado por la capacidad de memoria a corto plazo, por ser un procesamiento secuencial y costoso y por depender también del sistema implícito.
6.1. Competencia sintáctica restringida.
Cuando se defiende la racionalidad de los sujetos se suele aludir a la distinción propuesta por Chomsky ente competencia y actuación lingüística. Chomsky defiende que existen en los seres humanos unos órganos mentales, uno de los cuales es la facultad para el lenguaje y esta facultad se traduce en un conjunto de reglas que es universal y específico de la especie humana. Este conjunto de reglas abstractas o gramática universal es la competencia lingüística y cuando ésta se manifiesta externamente es actuación lingüística. También se defiende que existe una competencia o una capacidad racional en el pensamiento humano que puede sufrir distorsiones cuando esta capacidad se traduce en una actuación concreta.
Aquellas perspectivas que defienden el enfoque sintáctico entienden que los errores no demuestran el fracaso de los sujetos para razonar lógicamente, sino la existencia de determinadas condiciones que conducen al error (los sujetos tienen competencia lógica y cuando ésta se traduce en actuación ocurren los errores).
Según el enfoque sintáctico, los errores de razonamiento que ocurren en la comprensión de las premisas y las respuestas sesgadas pueden explicarse en términos de la interpretación que hacen los sujetos. Henle sostiene que cuando los sujetos aceptan la tarea lógica se pueden cometer errores tanto en la interpretación de las premisas como de la conclusión, u omitir o añadir una premisa al argumento. Así, el razonamiento depende de la comprensión de las premisas y la utilización de material familiar podría explicar los efectos de facilitación observados en la actuación de los sujetos.
Desde la perspectiva sintáctica se asume que existen dos componentes fundamentales en el razonamiento:
1) un componente deductivo que comprende reglas sintácticas libres de contenido,
2) un componente de interpretación que establece la correspondencia entre los enunciados del lenguaje y el conjunto de reglas sintácticas. Este conjunto de reglas sintácticas no tiene que ser equivalente al conjunto de reglas lógicas, sino que puede comprender el repertorio de reglas de inferencia que utilizan los sujetos de forma natural. El tipo de contenido determina la interpretación y el control del conocimiento que ha de recuperarse de la memoria a largo plazo, sin que ello implique la alteración del conjunto de reglas sintácticas del sistema. Si el tipo de contenido cambia las respuestas, esto se debe a la utilización de un conjunto distinto de proposiciones, no de reglas.
El sistema sintáctico sólo suministra formas y reglas que van a permitir organizar y analizar los datos.
La polémica sobre la racionalidad pone distinciones conceptuales entre estructura lógica y contenido (no lógico), y entre comprensión y reglas sintácticas.
6.2. Competencia semántica restringida.
La teoría de los modelos mentales (Johnson-Laird) se enmarca dentro del enfoque semántico al explicar el razonamiento por el conocimiento tácito que tienen los sujetos sobre los principios semánticos fundamentales que subyacen en los procesos de inferencia. La validez se entiende como las posibles interpretaciones del argumento y no como las propiedades y relaciones formales que lo caracterizan. Según Johnson-Laird, los sujetos constituyen la representación de las situaciones descritas por las premisas y generan combinaciones de estas representaciones en búsqueda de contraejemplos para las posibles conclusiones. Los sujetos consideran que un argumento es válido cuando no encuentran modelos mentales alternativos de las premisas que sean compatibles con la conclusión que se ha generado. Se supone que los sujetos razonan de acuerdo con un procedimiento semántico adecuado, pero limitado por la capacidad de la memoria de trabajo.
La racionalidad según Johnson-Laird y Byrne viene reflejada en el metaprincipio semántico de validez: una inferencia es válida sólo si su conclusión no puede ser falsada por un modelo de las premisas.
El procedimiento semántico (método de la teoría de los modelos) analiza el significado de los operadores lógicos y el sintáctico (método de la teoría de la demostración) utiliza las reglas de inferencia para delimitar este significado, pero ninguno de los dos procedimientos considera el contenido del argumento.
Si la racionalidad ha de explicarse como competencia semántica será necesario recurrir al conocimiento que tiene el sujeto y a los procesos para la recuperación de ese conocimiento.
6.3. Competencia en la satisfacción de restricciones.
Los modelos conexionistas ofrecen una perspectiva alternativa para la comprensión de los procesos de inferencia. En estos modelos la representación del conocimiento está distribuida y ponderada diferencialmente en patrones de activación que forman parte de un sistema dinámico con procesamiento paralelo. Oaksford y Chater (1993) apuntan una interpretación alternativa para la teoría de los modelos mentales basada en los procesos de recuperación de memoria en el marco de los modelos conexionistas. El proceso de búsqueda de contraejemplos viene explicado por la bondad de ajuste entre el patrón de activación generado por el argumento y el conocimiento representado en el sistema. Además, la propia generación de los modelos mentales de las premisas también depende del conocimiento del sujeto.
Bajo el enfoque conexionista se diluye la distinción entre contenido y reglas y se asume el concepto de racionalidad restringida. El sistema de creencias del sujeto viene representado por los patrones de activación en los que el conocimiento está distribuido y ponderado con distintos pesos y al razonar el sistema busca el emparejamiento que viole el menor número de restricciones. La racionalidad es inherente al proceso que busca siempre el ajuste óptimo entre los patrones de activación y las restricciones cognitivas están determinadas por la base de conocimiento que se encuentre representada y activada.
El sistema conexionista permite que los procesos de razonamiento sean rápidos y económicos y no hace falta un proceso de análisis, puesto que su resultado ya forma parte de la propia representación. La desventaja de este tipo de razonamiento es que depende de la experiencia anterior y del contexto. El sistema basado en reglas requiere procesos más lentos y costosos, aunque su aplicación es más general y no depende del contexto. Así, ambos sistemas de razonamiento servirían para funciones distintas. El sistema conexionista aprovecha los recursos de procesamiento al obtener sus inferencias aprovechando el conocimiento que se encuentra representado y que puede generalizarse a contextos semejantes. El sistema basado en reglas usa sus recursos de procesamiento para las situaciones novedosas y en las que sea necesaria la precisión de las inferencias.
Descargar
Enviado por: | Personal Laboral |
Idioma: | castellano |
País: | España |