Economía y Empresa


Epistemología de la Economía


1. INTRODUCCION.

El objetivo de este trabajo es analizar algunos de los problemas epistemológicos que enfrenta hoy la economía, en cuanto a lo relacionado con la comprobación empírica de las teorías, para lo cual son la econometría y la estadística las herramientas más utilizadas. El avance en la utilización de los métodos cuantitativos ha sido muy rápido a partir del nacimiento de la econometría en la década del 30, y su crecimiento ha resultado exponencial en los últimos años. Cuatro circunstancias se han conjugado para que ello ocurra. Por una parte el desarrollo de la teoría económica, que genera teorías que al expresarse matemáticamente son susceptibles de ser “testeadas”, como ocurre con los modelos macroeconómicos de raíz keynesiana. En segundo lugar, el desarrollo de las técnicas estadísticas, que comienza a principios de siglo pasado y llega a su climax con el desarrollo de la econometría en Inglaterra y los Estados Unidos al comienzo de la década de los años treinta. En tercer término, la disponibilidad de información estadística, que mejora su calidad y abarca cada vez más campos, debido en gran parte al desarrollo de las técnicas relacionadas con las cuentas nacionales. Por último un elemento que hace posibles los cálculos complicados: la aparición de los computadores, que si bien se produce durante los años cincuenta se convierte en un elemento de utilización general durante la década siguiente, aunque sólo disponible con restricciones en las universidades y organismos estatales de los países desarrollados. Después el crecimiento es vertiginoso, hasta que hoy todos tenemos acceso a computadores avanzados, a programas que permiten hacer en minutos lo que antes hubiera requerido meses de trabajo y a las posibilidades que ofrece la interconexión, que son ilimitadas.

Por otra parte la visión metodológica y epistemológica de la economía es influida por la evolución del pensamiento filosófico. La crisis de la metafísica de fines del siglo pasado había entronizado al positivismo, que fué evolucionando de formas ingenuas a otras más complejas. La idea básica que inspira a esta forma de pensar en su origen está bien definida por Hume, al final de su Enquiry:

“...Si tomamos cualquier volumen, sobre teología o metafísica, nos podemos preguntar *contiene algún tipo de razonamiento abstracto relativo a la cantidad o el número? No. *Contiene algún tipo de razonamiento experimental relativo a la realidad o a la existencia? No. Arrojémosle, pues, al fuego, porque no puede contener sino sofistería e ilusión.”

En este párrafo, según sostiene Feigl (1966), está representado el espíritu del Círculo de Viena. La negación de la metafísica los llevó a la idea que los enigmas del universo sólo podrían ser develados, en caso de ser posible, por medio de la ciencia. El rol de la filosofía quedaba reducido a la epistemología, que debía pavimentar el camino de la ciencia, mediante la utilización de herramientas tales como la lógica simbólica, siguiendo los desarrollos que hicieron Whitehead y Russell, y mediante el lenguaje, en su función pictórica o simbólica, de acuerdo a Wittgestein (1995) . Mediante estos dos caminos lograrían lo que ellos denominaban la “clarificación” de los conceptos básicos.

Estas ideas tuvieron generalizada aceptación hasta principio de los años treinta, cuando comenzaron a ser cuestionadas, entre otros, por Popper, que intenta resolver la llamada “paradoja de Hume”, introduciendo la idea de falsificación de las teorías, en lugar de su verificación. Revive la tradición filosófica del realismo y realiza una demoledora crítica al determinismo y al marxismo. Tiene sin embargo algo en común con los empiristas lógicos del Círculo de Viena: su espíritu crítico y sus standards estrictos en la forma en que debe realizarse el trabajo científico, así como el criterio de demarcación estricto que propone. Debemos ser audaces en la creación de las teorías, nos dice, pero muy estrictos en su crítica.

Posteriormente se adopta una visión más descriptiva, como ocurre con los sistemas de Kuhn (1978) y de Lakatos (1971), que tienen presente la evolución de la ciencia en la historia y ven a la ciencia como un organismo vivo que evoluciona y se relaciona, en el caso del primero, con las condiciones sociales, mientras que el segundo abandona algunas de las hipótesis más estrictas de Popper, y al distinguir entre “hard core” y “protective belt” permite que las hipótesis correspondientes al primero no sean “testeadas”, con lo que permite insertar a las ciencias sociales dentro del mundo de la ciencia, como veremos más adelante.

2. SINTESIS DE LA EVOLUCION DE LAS IDEAS SOBRE EL METODO Y LA EPISTEMOLOGIA EN ECONOMIA.

2.1. La visión de los clásicos.

La preocupación por los problemas metodológicos nace con la ciencia económica. Adam Smith, conocedor de las teorías de Newton, trató de aplicarlas con poco éxito a las ciencias sociales. Pensó que un principio, como el de la gravitación universal, podría ser el elemento básico de su trabajo, y así aplicó el principio del interés personal en “La Riqueza de las Naciones”, y el principio de la simpatía hacia el prójimo en su “Teoría de los Sentimientos Morales”.

La economía de Ricardo y Malthus llevó, hacia 1830, a enconadas discusiones entre los economistas y los reformadores sociales de la época, lo que hizo que Stuart Mill se preocupara por primera vez en forma sistemática de este tipo de problemas. Su ensayo “On the Definition of Political Economy”, escrito en 1836, define su pensamiento acerca del método de la economía, y lo hace de una forma por demás particular y sagaz. Sigue la tradición inglesa de Hume y de Bentham, y recibió alguna influencia de A.Comte, por lo que basa el conocimiento científico en la experiencia, al par que descarta el apriorismo de raíz kantiana, como puede verse en el siguiente párrafo de su Autobiografía:

“Pero el System of Logic proporcionaba algo que era muy necesario: un libro de texto de la doctrina opuesta, de aquella que deriva todo conocimiento de la experiencia...La idea de que las verdades externas al espíritu puedan conocerse por intuición o conciencia, independientemente de la observación y la experiencia, estoy persuadido de que es en estos tiempos el gran sostén intelectual de doctrinas falsas.”

Sin embargo, al referirse a las ciencias sociales, propone una forma diferente, ante la imposibilidad de realizar los experimentos controlados de las ciencias físicas. Parte de un principio “a priori”, que establece que el motor de la acción humana es el deseo de riqueza, que está limitado por el deseo de consumir y por la inclinación al ocio. Estos principios vienen de nuestra experiencia o de la de nuestros vecinos y no pueden ser verificados. Se trata de dividir el trabajo de tal manera de estudiar las causas una a una, a diferencia de lo que sucede en la física, y es preciso analizar el efecto de las causas una a una porque de lo contrario el trabajo científico es imposible. De esta manera el principio abstracto, a priori, obtenido por introspección sólo puede observarse en la realidad en algunas ocasiones, dada la presencia de muchas otras causas simultaneamente. Las leyes económicas no pueden ser sino verificadas, pero el hecho de que una circunstancia particular no la verifique no implica que la ley deba descartarse.

Posteriormente Cairnes desarrolló ideas similares, pero despegándose un poco más de la visión empirista de Stuart Mill y de Adam Smith, para acercarse a Ricardo y Senior. Básicamente sostiene que las teorías económicas no pueden ser testeadas, sino que la verificación tiene por objeto establecer si las “disturbing causes” pueden dar razón de la disparidad entre los hechos y las teorías, y en caso de existir ello demostraría que la teoría ha sido inapropiadamente aplicada, ya que no puede ser falsa.

Keynes (1955) realiza un esfuerzo conciliatorio entre posiciones que ya encierran algunos elementos contradictorios que han de estallar después de la Primera Guerra, haciendo una síntesis de la metodología de los economistas clásicos. Marshall (1948), en sus “Principios” si bien no se refiere con mucha profundidad a las cuestiones metodológicas ni a la comprobación de las teorías, sigue una línea conciliadora con la escuela histórica, aunque la economía que propone es una en la cual se parte de algunos principios básicos derivados de la introspección, que son elaborados matemáticamente, aunque se exponen prescindiendo de esa herramienta, y que luego se verifican con ejemplos, y si bien sostiene el principio de la unidad de la ciencia atribuye a las leyes económicas el carácter de tendencias que son mucho más imprecisas que en la física. Se refiere al ejemplo de la ley de la gravedad, que dada la existencia de fricción y de otras fuerzas se transforma en una tendencia, igual que -sostiene- sucede con las mareas, que tienen un componente aleatorio.

Ninguno de los autores mencionados se refiere a las aplicaciones de la estadística porque todavía no ha habido desarrollos en esta dirección. Sin embargo en Oxford ocurre algo un poco diferente, porque las ideas de Edgeworth son distintas en varios aspectos, sobre todo en cuanto a la aplicación de métodos cuantitativos en economía, de lo que es un pionero, y si bien en ambos enfoques se utilizan intensamente las matemáticas, en este caso se comienzan a aplicar los métodos estadísticos.

Pareto (1848-1923), que no puede definirse estrictamente como un continuador de la tradición clásica, realiza tempranamente un análisis del rol de la comprobación empírica que resulta por demás interesante. En su Manual de Economía Política, (Pareto, 1945) sostiene que hay tres formas de hacer economía: buscando el bienestar de una persona o de una empresa, el de toda la sociedad o “solamente la búsqueda de uniformidades que presentan los fenómenos sin tener como fin ninguna utilidad práctica directa”, es decir que se persigue la finalidad exclusivamente científica de aumentar el conocimiento por sí. Pareto aboga por esta última posición, y -afirma- se separa así de Smith y de Stuart Mill, quienes si bien se refieren en la mayor parte de los casos al tercero de los enfoques enunciados, también adoptan en varios pasajes de sus obras al primero y al segundo. Cuando se refiere más adelante a la comprobación empírica lo hace de esta manera:

“Hay que añadir que las teorías no son sino medios para conocer y estudiar los fenómenos. Una teoría puede ser buena para alcanzar cierto fin. Otra puede serlo para alcanzar otro. Pero de todas maneras deben estar de acuerdo con los hechos, porque si no, no tendrían ninguna utilidad. El estudio cualitativo debe ser sustituido por el estudio cuantitativo, y buscar en qué medida la teoría se aparta de la realidad. De dos teorías escogeremos la que se aparte menos. No olvidemos jamás que una teoría no debe ser aceptada sino temporariamente; la que se tiene por verdadera hoy debe ser abandonada mañana. La ciencia es un perpetuo cambio.”

Este párrafo describe muy bien su pensamiento, que es bastante coincidente con las posiciones más difundidas en la actualidad: el carácter provisional de las teorías, la necesidad de confrontarlas con los hechos, y utilizar esto para la selección de teorías rivales.

El común denominador del pensamiento clásico no parece ser muy proclive a los estudios empíricos, más allá de lo necesario para encontrar ejemplos de cómo funcionan las teorías, pero paulatinamente van apareciendo economistas más o menos coincidentes con la posición clásica que van tomando una posición más flexible, al par que se va tomando conciencia de que se está ante un problema de difícil solución.

2.2. Methodestreit.

El predominio de la escuela clásica inglesa venía siendo cuestionado desde mediados de siglo XIX, entre otros por la escuela histórica alemana, que comienza en 1843 con Roscher, cuya obra es continuada por Hildebrand y Knies . Sin embargo alcanza su máximo esplendor con Schmoller (1838-1917), quien critica el universalismo de las teorías clásicas, así como la insuficiencia y estrechez de su psicología y el abuso del método deductivo. Sugerían una economía basada en la historia, y realizan una cantidad importante de monografías sobre temas puntuales de historia económica. Preocupados por la cuestión social, son casi sin excepción partidarios de la intervención del estado, antiliberales y tienen un cierto tinte hegeliano y nacionalista.

En 1883 Menger publica un trabajo sobre el método en la economía, continuando la línea de pensamiento de otro trabajo de 1871, que provoca una violenta reacción de Schmoller, quien le responde airadamente. Es un enfrentamiento entre los que confían en la deducción y quienes prefieren el método inductivo, proponiendo los estudios históricos y estadísticos. Luego de arduas discusiones esta cuestión cae en alguna manera casi en el ridículo, como puede verse en las afirmaciones de Pareto (1945) y en Marshall (1948). La lectura atenta de los escritos de unos y otros nos muestran que ni Menger negaba la importancia de los estudios empíricos, ni los miembros de la escuela histórica consideraban inapropiada la teoría, como bien señala Bucher:

“Porque en realidad no hay más método de investigación, para penetrar la complejidad causal de los fenómenos de cambio que la abstracción que aísla y la deducción lógica.”

Se trató más bien de una discusión motivada en parte por razones políticas y no exclusivamente científicas, que dejó dos consecuencias: por un lado se revalorizaron los estudios empíricos, y si bien prescribieron el método histórico principalmente, abrieron el camino para los estudios cuantitativos, y constituyendo un antecedente para la escuela institucionalista americana, ya que algunos de sus integrantes se formaron en universidades europeas donde estas ideas prevalecían.

2.3. El apriorismo de la escuela austríaca y la obra de Robbins.

El debate que hemos referido antes dió origen al nacimiento de lo que se llamó escuela histórica por una parte, y de la llamada escuela austríaca por el otro, representada principalmente por Menger, de Böhm-Bawerk y de vön Wieser inicialmente. En una segunda etapa esta línea de pensamiento es continuada por vön Mises, que se forma con los anteriores y a su vez tiene como alumnos, entre otros, a Hayek, Haberler, Machlup, Morgestern, Rosenstein-Rodan y Robbins. Vön Mises es en cuanto al pensamiento epistemológico y metodológico, que está expresado en su obra “La Acción Humana”, el exponente más conspicuo de este grupo. Su mensaje es que a diferencia de las ciencias físicas, las leyes económicas son descubiertas por deducción lógica a partir de axiomas que son dados “a priori”, tal como es la persecución de objetivos por la acción humana. La historia es la resultante de muchos factores y no puede usarse para verificar las teorías, sino más bien, al revés, la teoría de los precios debe ser utilizada para explicar la historia. El mérito de este enfoque es analizar la conducta humana en una dimensión más amplia, siguiendo, aunque desde una perspectiva diferente el camino que había señalado Bentham (1996) en su obra publicada en 1789 y que fué uno de los pilares sobre los que se construyó el modelo clásico. Este camino vuelve a ser retomado recientemente con los trabajos de Aislei (1993), como veremos más adelante.

Dada la confianza en la existencia de un orden natural que hace que existan las instituciones sociales, como el lenguaje y la moneda sin que nadie lo haya programado, basan el estudio económico en la conducta individual y consideran que la comprobación empírica tiene un rol muy secundario si es que le cabe alguno. Tampoco las matemáticas son utilizadas en sus formulaciones, que hacen en forma verbal, aún cuando tratan temas como el análisis marginal y la teoría subjetiva del valor, donde realizan destacados aportes.

En 1932 Robbins (1951) publica su obra “Naturaleza y Significación de la Ciencia Económica”, en la que sigue la línea de pensamiento de la escuela austríaca. Dado el destacado lugar de su autor en la economía inglesa entre 1930 y 1960, su influencia ha sido muy grande. Su idea respecto a la metodología de la economía, influida por el pensamiento de Hayek y Mises principalmente, no es una negación de la comprobación empírica de las teorías, pero mantiene una posición escéptica respeto a los estudios estadísticos:

“No hay ningún fundamento para suponer que el estudio de una muestra escogida al azar dé origen a generalizaciones de alguna importancia. Las ciencias no proceden así. Eso, o algo muy parecido, es, empero, el supuesto que yace en la esperanza de que las categorías formales del análisis económico puedan recibir contenido sustancial del valor constante y permanente”.

A continuación se refiere al ejemplo, ya famoso, sobre la elasticidad de la demanda de arenques. Supongamos, dice, que ha sido fijado su precio en un nivel inferior al de mercado y que la elasticidad de la demanda se estima en 1.3. Podríamos entonces saber cuál es el desplazamiento de la curva que representa a la demanda. Sin embargo, afirma, este valor de elasticidad sólo es válido en un contexto histórico determinado, que no tiene porqué repetirse dada la enorme cantidad de circunstancias que influyen para modificarla, por lo que este tipo de estudio es de una utilidad muy limitada, idea que tuvo un efecto disuasivo importante sobre la investigación empírica. Cabe hacer algunas reflexiones: en primer lugar si se lee con atención el capítulo V de su obra se ve claramente que se está refiriendo a la medición sin teoría de la escuela histórica y de los institucionalistas americanos, ya que la econometría, como la entendemos actualmente, aún no se había desarrollado, y por otra parte el desarrollo de las técnicas estadísticas de su época era todavía bastante rudimentario. Sin embargo, muchos años después, cuando cuenta ya con 81 años reflexiona de una forma más contemporizadora:

“Generalizations about physical or economic phenomena are essentially conjectures, capable of deductive development, but, while exposed to refutation by appropiate testing, incapable of final and definite proof. In this respect I am a convinced Popperean...Therefore personally I regard the broad conception of the Logic of Scientific Discovery as generally applicable, whatever particular scientific discipline we practice.”

Es decir que las posiciones más extremas van acortando sus distancias a medida que las nuevas técnicas se van generalizando y aceptando y la epistemología evoluciona hacia formas más compatibles con las ciencias sociales.

2.4. La reacción de Hutchison y la introducción de las ideas de Popper en Economía.

La obra de Popper “La Lógica de la Investigación Científica” apareció en 1934 y en 1938 Hutchinson publica su libro “The Significance and Basic of Postulates of Economic Theory”, donde rescata las ideas de aquel y reacciona contra el apriorismo de Vön Mises y de Robbins. Sostiene que existen sólo dos tipos de proposiciones: las tautológicas y las empíricas, y la ciencia económica sólo debe tener presentes las segundas.

Este enfoque es realmente novedoso, y si bien existe el antecedente de la escuela histórica, es a mi juicio, diferente, porque tiene en mente más la comprobación estadística que la histórica, como ocurría con aquellos. De esta manera da paso a una forma diferente de ver las cosas, abriendo el camino a los institucionalistas y a las aplicaciones estadísticas primero y a las econométricas un poco después.

Si bien la posición de este autor ha sido siempre agresiva y contundente, como pasa frecuentemente, con el transcurso del tiempo evoluciona hacia una posición más flexible, como vimos antes que sucede con Robbins en sentido contrario. Debemos tener presente por una parte el contexto histórico existente en 1938 cuando aparece su primer libro, ya que está por comenzar la guerra, y por otra la edad del autor, que apenas llegaba a los 26 años, lo que explica la energía con que defiende su posición.

En su primer enfoque critica a la metodología del enfoque neoclásico y a la escuela austríaca, debido al carácter vacío de la teoría pura, y al método -a su juicio ilegítimo- de la introspección. El test empírico de las teorías es imprescindible, si queremos que nuestra disciplina no quede en el descampado de la pseudociencia, aún en aquellos supuestos básicos como el principio de racionalidad de los agentes económicos, que actúan maximizando, ya sea su utilidad en caso de los consumidores, o sus beneficios en caso de las empresas, sujeto a la restricciones impuestas por el presupuesto y la función de producción respectivamente. Esto debe ser “testeado”, según Hutchinson y es muy interesante su discusión con Machlup, quien sostiene con razón, en base a la filosofía de la ciencia de su época, que no es posible testear los supuestos básicos, sino que lo que debe ser sujeto a comprobación son las teorías como un todo. Es que ya los positivistas del Círculo de Viena habían elaborado el método hipotético-deductivo, cuya idea central es la imposibilidad de dar sentido empírico a conceptos tales como el átomo o las relaciones de la química del carbono.

Posteriormente rechaza el falsificacionismo “naive” de los primeros tiempos y en uno de sus escritos más recientes sostiene que una teoría falsificada no necesita ser abandonada, con lo que deja atrás las posiciones extremas y quita a su enfoque inicial el carácter de destructivo que se le imputa, aceptando las ideas de Lakatos, aunque se lamenta de que este autor no haya definido, debido a su temprana desaparición, la ubicación de la economía dentro de su teoría, elaborada teniendo presente a la física más que a las ciencias sociales. En su trabajo más reciente mantiene sus ideas anteriores sobre el principio de racionalidad, al que considera un supuesto irreal:

“...if the economic world which economists are seeking to explain is one free of uncertainty and ignorance, and made up of omniscient, or approximately omniscient decision-makers, it is a world of overwhelmingly different from, and more simplified than, the actual world in which we live, in very important sectors of which profound ignorance and uncertainty plays such vital rol...In other words, as universal generalization, the vital, full-knowledge component of the rationality postulate is a science-fictional, Utopoian fantasy”

Considera que un mundo de agentes plenamente racionales e informados sería un mundo de autómatas, distinto del mundo en el que vivimos. Robbins, afirma, nos dice que debemos preguntar por el principio de racionalidad a los filósofos, mientras que de acuerdo a su criterio los economistas son los que deben dar respuesta a esta cuestión.

*Cuál es el mérito de Hutchinson? Haber llamado tempranamente la atención sobre la posibilidad de aplicar las ideas de Popper a la

economía y sobre todo haber insistido en la necesidad de un mayor uso de la comprobación empírica, cambiando el enfoque de los economistas neoclásicos, pero sobre todo el de Robbins. Es cierto que tal vez se exceda al tomar una posición demasiado rígida, que Machlup califica como “ultraempirista”, porque someter a comprobación empírica el principio de racionalidad, por ejemplo, es una tarea plagada de dificultades.

Pero éste no es el único embate contra Robbins. En la década de los años sesenta, más precisamente entre 1958 y 1965, otro grupo de disconformes, encabezados por R. Lipsey y C. Archibald, comenzó a sentirse mal con la metodología basada en Robbins y en Samuelson, que analizaban los signos de las derivadas y las condiciones de equilibrio, y hacían caso omiso de las magnitudes de los efectos, recurriendo a los hechos para ejemplificar y no para comprobar o falsificar.

Archibald y Lipsey (1958) publican su famoso artículo criticando las conclusiones de Patinkin y quedan disconformes con los resultados. Piensan que tiene que haber algo más que el descubrimiento de la verdad a través de manipulaciones lógicas obtenidas de unos pocos postulados evidentes por sí mismos, sobre todo si estamos pensando en aplicar la economía a la realidad para transformar la sociedad. Las teorías de Popper, que era profesor en la London School of Economics (LSE) en ese tiempo, fueron aceptadas con entusiasmo por estos economistas y un grupo destacado de discípulos, deseosos de una economía más inclinada a testear las teorías y confrontarlas con la realidad empírica.

La publicación del libro de Lipsey (1971), “Introducción a la Economía Positiva”, del que se vendieron un millón y medio de ejemplares, produjo un cambio en la forma de ver las cosas de la profesión en general, que en gran medida adoptó una posición impregnada por el pensamiento popperiano. La primera página del libro transcribe una cita de Lord Beveridge, que es un llamado hacia una economía con base empírica. Sin embargo pronto estos economistas cambiaron de opinión, ya que vieron las dificultades de la aplicación de las ideas de Popper, para someter a falsificación teorías como el principio de maximización de utilidades por las firmas o las relacionadas con la competencia imperfecta, la inestabilidad de los parámetros y sobre todo el carácter probabilístico de las teorías económicas. Todo esto hizo que Lipsey, en 1965, renegara parcialmente de Popper. De Marchi (1985), sostiene:

“Lipsey, too, fairly quickly concluded that falsiability is a nice ideal but difficult to translate into practice...He concluded that stochastic propositions are not strictly refutables.”

Este grupo de economistas había sido poco adicto a la econometría y a la estadística, pero en 1964 la presencia de Sargan, que se había formado en la tradición de la Cowles Commission, produjo una revaluación de estas disciplinas, aunque las ideas de Popper fueron poco a poco suplantadas por las de Lakatos, que también enseñó allí por esos años y que parecieran adaptarse mejor a las ciencias sociales. Es de notar que hacia ese tiempo Popper excluye a la economía y al principio de racionalidad de ser testeado, dado la inestabilidad de los coeficientes, y se basa para su cambio de opinión precisamente *en Robbins!. La forma de resolver el problema que utiliza es mediante lo que llama “análisis situacional”, tal como lo define en Popper (1965). La función de las ciencias sociales no es hacer profecías como los historicistas, sino analizar las repercusiones sociales no intencionales de las acciones humanas, actuando los agentes adecuadamente, de acuerdo a la situación. De esta manera cuando testeamos una teoría no estamos testeando el principio de racionalidad sino el modelo que toma como presupuesto.

Pero esta posición y el criterio de falsificación son en alguna manera incompatibles: si el principio de racionalidad es testeable, se puede demostrar que es falso, en cuyo caso el análisis de situación sería no-científico de acuerdo al criterio de falsificación, mientras que mantenerlo implicaría aceptar dos metodologías diferentes, una para las ciencias naturales y otra para las ciencias sociales.

*Qué queda en pié del pensamiento de Popper en el “mainstream” de la economía? Si bien la aplicación cruda del popperianismo no tiene hoy en día mayor aceptación, queda algo así como una gran simpatía hacia su pensamiento y son muchos los que lamentamos las dificultades para la aplicación de sus prescripciones metodológicas. Así, Hausman (1988), un enconado crítico de Popper y del principio de falsificación, dice:

“The most prominent methodologists who have defended part of the Popperian gospel - and these are mayor figures such as Klant, Blaug and Hutchinson - have be unwilling to draw such drastics conclusion...they have simply argued for the importance of critism and empirical testing...in their emphasis on the importance of testing in science, they may have done some significant good... Empirical criticism is important to science and scientific theories must be open to criticism that uses the results of observations and experiments...”

Por otra parte, otro de los críticos de la aplicación de las ideas de Popper a la economía, como es Caldwell (1982), señala:

“Methodological falsificasionism in social sciences is an inspiring and noble critical ideal...”

Caldwell (1991) se pregunta acerca del porqué de la gran aceptación de las ideas de Popper entre los economistas, y luego de descartar el contacto personal que significó su presencia en la LSE destaca el hecho de que Popper va al corazón de los problemas que preocupan a los científicos (y a los economistas dentro de ellos), planteando cuestiones como el criterio de demarcación, cómo hacer para descartar teorías que no son científicas, cómo mejorar nuestra objetividad. Si bien dió respuestas que a veces no se consideran satisfactorias, es evidente que planteó las preguntas adecuadamente y tiene la virtud de darle un marco normativo a quien se dedica a las tareas científicas, una manera de ubicarse ante la realidad que trata de interpretar.

2.5. Las ideas de Lakatos.

Como vimos el falsificacionismo en su versión ingenua es de difícil aplicación en economía. Existen ciertos principios básicos, ciertas presupuestos de la conducta humana que no pueden ser “testeados”, como sucede con el supuesto de conducta maximizadora por parte de consumidores y empresarios, de utilidad y beneficios respectivamente, que difícilmente pueden ser sometidos a comprobación empírica. Por eso el sistema de Lakatos es más posible de conciliar con lo que ha realizado la ciencia económica en sus doscientos años de vida, ya que este autor propone la existencia de diferentes “programas de investigación”, que son cúmulos de teorías que evolucionan en el tiempo y tiene un “hard core” con los fundamentos básicos, que son no testeables, y un “protective belt” de hipótesis auxiliares que pueden y deben ser sometidas a tests de comprobación o falsificación. En este caso, por ejemplo, el supuesto de racionalidad pertenecería al “core” del programa de investigación conocido como neoclásico, y no sería necesario someterlo a test de falsificación sin que por eso se cuestione su naturaleza científica. De esta manera el rol de la confirmación o falsificación queda totalmente salvado, aunque sólo permitiría confirmar la aplicación de la teoría a determinado punto de la historia o la geografía, o a determinado sector o unidad económica.

2.6. Dos visiones americanas: el instrumentalismo de Friedman y el operacionalismo de Samuelson.

El trabajo de Friedman (1953) sobre metodología es uno de los más leídos y aceptados. Tiene la simplicidad y la fuerza común a todos sus trabajos: las teorías, afirma, valen por su poder predictivo, no por la explicación que puedan brindar acerca de los fenómenos observados. Las teorías generan hipótesis capaces de ser “testeadas”. El único “test” relevante es la comparación de las predicciones con la experiencia. Si hay varias teorías alternativas que predicen adecuadamente, elegiremos aquella que sea más sencilla. En sus propias palabras:

“Viewed as a body of sustantive hypothesis, theory is to be judged by its predictive power for the class of phenomena which it is intended to “explain”. Only factual evidence can show whether it is right or wrong, or better tentatively accepted as valid or rejeted...the only relevant test of the validity of a hypothesis is comparison of its predictions with experience.”

Inmediatamente define el concepto de “predicción” en los siguientes términos:

“To avoid confusion... predictions by which the validity of a hypothesis is tested need not be about phenomena that have ocurred...”

Es decir que una teoría puede predecir hoy qué hubiera sucedido, dadas ciertas circunstancias, por ejemplo, en 1906 y ello sería una forma de testear la teoría en cuestión. Es bastante amplio en la forma de generar nuevas hipótesis, y en esto se acerca a Popper. La pregunta que surge es si necesario para pronosticar una teoría subyacente, o si es suficiente con procedimientos de tipo exclusivamente estadísticos, como ocurre con ciertas ramas de la econometría contemporánea que sólo buscan pronosticar, como sucede con el estudio del comportamiento de los mercados financieros.

Si nos ubicamos en los debates de su tiempo (hace casi medio siglo) nos encontramos con una economía enfrentada a pocos datos, imposibilidad de hacer experimentos controlados y muy poca oportunidad de hacer experimentos “cruciales”, lo que condujo o bien al análisis exclusivamente formal o a un empirismo sin base teórica, es decir al “measurement without theory”, que consideraba altamente peligroso. Su metodología obviaba este problema, así como la necesidad de testear los presupuestos básicos. La competencia perfecta o el principio de maximización podían no ser realistas, pero conducirnos a predicciones acertadas, aún cuando, por ejemplo, el principio de la competencia imperfecta fuera más concordante con la realidad.

Pero si bien los economistas en su mayoría aceptaron sus puntos de vista no ocurrió lo mismo con los filósofos de la ciencia: sólo los positivistas mas recalcitrantes del siglo XIX sostenían que la ciencia no tenía una finalidad explicativa y que su objeto se reducía a hacer correlaciones y hacer predicciones.

Nos encontramos con una situación un tanto paradójica: si bien en cierta forma resuelve algunos problemas pendientes en economía, como la “testeabilidad” de los supuestos básicos, la unidad metodológica de las ciencias naturales y sociales y la relación entre la teoría y la comprobación empírica, el supuesto instrumentalista de su metodología sufre demoledores ataques.

Lo positivo es que se dió un paso más hacia la idea de que las teorías económicas deben confrontarse con la realidad empírica, y el uso de la estadística y la econometría tuvieron un impulso importante, tanto en sus trabajos como en las de sus discípulos.

Desde otra perspectiva Samuelson introduce su propio sistema, llamado operacionalismo, basado en las ideas de Brigman, quien sostiene que la definición de cualquier concepto en la ciencia no es más que un conjunto de mediciones y solamente atribuye el status de conocimiento a las proposiciones acerca de fenómenos observables. Constituye, conjuntamente con los pragmatistas, la versión americana del Círculo de Viena. Pero los componentes de este grupo, como ocurre con Hempel (1965), aceptan luego la teoría y se diferencian de estas posiciones extremas, que tienen un gran parecido con el positivismo crudo de fines del siglo XIX.

La posición de Samuelson tiene algunas características distintivas: por una parte define su sistema como “operacionalismo”, término cuyo sentido no aclara totalmente. En segundo lugar incorpora la idea del test cualitativo, es decir que sostiene que deben considerarse la corrección de los signos de las derivadas en vez de cuantificar los parámetros de los modelos, y además introduce la idea de que los sistemas deben ser estables, por lo que deben satisfacer el principio de correspondencia.

La influencia de este enfoque fué duramente criticada y casi totalmente abandonada, pero dejó sus residuos positivos: la incorporación masiva de las matemáticas en la economía, que es la antesala de la comprobación empírica de los modelos, tuvo un fuerte impulso.

2.7. McCloskey.

Este autor representa la heterodoxia, que se rebela contra el orden establecido, laboriosamente, en el “mainstream” de nuestra disciplina. Sostiene que la metodología aceptada por los economistas no es la que se practica en la realidad, y si se aplicara se paralizaría la ciencia, como hubiera paralizado a Galileo si la hubiera aplicado estrictamente. Define el modernismo como la epistemología aceptada, caracterizado por la predicción, el falsificacionismo, la objetividad en lugar de lo subjetivo, el rechazo a la introspección, con criterios muy rígidos de demarcación y desprovisto totalmente de valores y criterios normativos. Considera que el falsificacionismo y la predicción no son posibles en nuestra disciplina y que están en retirada en la epistemología en general:

“Modernism promises knowledge free from doubt, metaphysics, morals and personals convictions; what it delivers merely renames as Scientific Method the scientist's and specially the economic scientist's metaphysics, morals and personals convictions...Scientific knowledge is not different from other personal knowledge.”

La secuencia Carnap-Popper-Lakatos-Kuhn-Feyerabend representa en la historia de la filosofía de la ciencia un descenso “de los picos frígidos del absolutismo científico a los valles suaves de la anarquía retórica”. Esta, de acuerdo a su peculiar definición, “es el arte de probar lo que el hombre cree que se debe creer y no probar la verdad de acuerdo a un método abstracto, y procura “reemplazar la certeza por la sabiduría”, volviendo a Aristóteles Cicerón. Considera a la econometría como una manifestación del modernismo y critica su uso con vehemencia.

Este enfoque, si tiene algún mérito es cuestionar la ortodoxia, lo que siempre es conveniente, pero como señala Sims (1996), su acción ha sido perjudicial porque incita al charlatanismo. Como sucede generalmente, es mucho más fácil criticar una teoría o un método que proponer algo superior para que sustituya lo existente.

3. LA ECONOMETRIA COMO HERRAMIENTA METODOLOGICA DE LA ECONOMIA

3.1. Los comienzos.

La utilización de la estadística y la econometría para el análisis de los fenómenos observables estuvieron subordinados a las concepciones metodológicas de los economistas. Como hemos visto estas ideas han ido cambiando en el tiempo y por otra parte han aparecido nuevos métodos estadísticos, al par que las ciencias sociales, especialmente la economía, fueron reclamando desarrollos de la estadística acordes con sus propias necesidades.

El uso de los métodos estadísticos en economía, que constituye el antecedente necesario para los estudios empíricos, se generaliza después del comienzo del siglo pasado. Hasta esa fecha su uso en economía es escaso, ya que las investigaciones empíricas consistían más bien en estudios de historia económica, como pregonaba la escuela histórica alemana. Edgeworth y Marshall, si bien proponen el uso de la deducción y de la inducción como herramientas, hacen poco uso de la estadística, a pesar de que el primero hace un uso más frecuente del instrumental matemático y del cálculo de probabilidades. Algo similar ocurre en el continente con Walras y Cournot, quienes tenían poco tiempo para las estadísticas, como afirma Morgan (1992). Uno de los primeros en utilizar datos y procedimientos estadísticos es Moore, quien es precisamente un disidente de la escuela neoclásica. Es preciso tener presente que quienes comienzan a forjar los métodos estadísticos que luego conformarían la econometría, lejos de renegar de los modelos teóricos y de los modelos matemáticos, pretenden aplicarlos y confirmarlos mediante el análisis de los datos.

El período que transcurre entre principios de siglo y la aparición del trabajo de Haavelmo (1944), muestra que los estudios de este tipo se refieren a dos temas muy diferentes entre sí: uno es el análisis de los ciclos económicos y el otro es el estudio de mercados de bienes, en los cuales se procura calcular las elasticidades-precio de la demanda y de la oferta.

Ambos campos son un antecedente de investigación empírica con uso de métodos estadísticos sofisticados que no se encuentran en los estudios económicos del siglo pasado, como hemos explicado anteriormente al referirnos a la escuela neoclásica .

Respecto al estudio de los ciclos se pueden encontrar dos maneras diferentes de abordar la cuestión. Por una parte estudios de tipo meramente estadísticos, y por otra aquellos que definen un modelo teórico primero y analizan su correspondencia con los datos posteriormemte, forma ésta que es la aplicada por los primeros econometristas.

3.2. El debate en torno al método de Tinbergen.

El primero en construir modelos macroeconométricos de ecuaciones simultáneas fué Jan Tinbergen, quien en 1936 publicó un trabajo que contiene un modelo para la economía de Holanda. Ese mismo año la Liga de las Naciones le encomendó la tarea de analizar estadísticamente la teoría acerca del ciclo económico de Haberler (1953), expuesta en “Prosperidad y Depresión”, para lo cual publicó dos informes: uno refiriéndose a los métodos econométricos y otro presentando un modelo para la economía de Estados Unidos para el período 1919-1932, con 71 variables y 48 ecuaciones. En este enfoque se aleja de la formulación meramente estadística de los institucionalistas y presenta algunas ideas metodológicas novedosas: las teorías no pueden ser confirmadas por los estudios empíricos, sino solamente pueden ser declaradas incorrectas o incompletas, pero aún si una teoría concuerda con los hechos es posible que otra teoría sea la “verdadera”. El rol del economista que elabora el modelo es descartar lo que no es esencial, para lograr un modelo que sea manejable desde el punto de vista matemático. Las relaciones de causa y efecto, igual que la estructura de rezagos deben surgir de la teoría, y es consciente de que estas relaciones son sumamente complicadas. Si se analiza con atención su trabajo surge claramente que los procedimientos utilizados para la selección de las variables se realizan teniendo en cuenta los resultados estadísticos muy frecuentemente, cosa que no está explícitamente reconocida.

Este trabajo despertó un torbellino de discusiones. Su polémica con J.M. Keynes (1939) es una de las más conocidas. La crítica que éste le formula tiene dos soportes: el primero, metodológico, que consiste en afirmar que las teorías no pueden ser modificadas por la investigación empírica. Si el modelo teórico es correcto nada puede añadir la econometría y si los resultados no son concordantes con la teoría debemos culpar al método utilizado. En segundo término realiza una detallada crítica de la econometría como herramienta en función de las violaciones a los supuestos básicos del modelo, que quedan más bien en el campo de la estadística.

Tinbergen replica por su parte que si una teoría no es confirmada por los resultados es equivocada o insuficiente, por lo que puede ser preciso incorporar otras variables o formas funcionales que antes no fueron consideradas importantes por la teoría. La evaluación de las teorías rivales puede hacerse a la luz de la econometría. Marshak y Lange (1940) defienden a Tinbergen en este punto y presentan el caso de la relación entre stock de capital y nivel de producto. Según Hayek, nos dicen, suben en la prosperidad y se reducen en la depresión, exactamente lo contrario de lo que sostiene Kaldor. Sugieren que no queda otro camino que, de disponerse de los datos necesarios, dilucidar la cuestión mediante el análisis estadístico.

Posteriormente este enfoque fué adoptado, modificado y elaborado por la Cowles Commission en los Estados Unidos. Es que si bien la econometría tiene un contenido empírico al tratar de testear las teorías, al revés de lo que hacen los institucionalistas, define previamente un modelo teórico, es decir que parte de la teoría y luego recién analiza los datos.

3.3. La revolución probabilística de Haavelmo

Haavelmo (1944), formula una idea revolucionaria en un trabajo que comienza a circular en forma mimeografiada en 1941, donde introduce el concepto de probabilidad dentro del modelo. Hasta ese momento se había usado la estadística, que tiene en la base de su formulación el principio estocástico, en alguna manera en forma inconsciente. Haavelmo, en cambio, lo hace en forma explícita y modifica substancialmente el enfoque tradicional. Los modelos económicos requieren de una estadística que contemple la naturaleza especial de los fenómenos sociales, ya que no se pueden realizar experimentos controlados, por lo que debemos aprender a interpretar a los procesos que la Naturaleza nos presenta. Estas ideas alimentan la labor de la Cowles Commission, al introducir el concepto de probabilidad en los modelos econométricos. En sus palabras:

“The method of econometric research aims, essentially, at a conjuntion of economic theory and actual measurements, using the theory and technique of statistical inference as a bridge pier. But the bridge itself was never completly built. So far, the common procedure has been, first to construct an economic theory involving exact funcional relationships...Tools of statistical inference have been introduced...The application of such simple “statistics” have been considered legitimate, while at the same time, the adoption of definite probability models has been deemed a crime in economic research...For no tools developed in the theory of statistics has any meaning without being referred to some stochastic scheme”.

Como puede verse el cambio que propone Haavelmo es fundamental: está incorporando los términos estocásticos al modelo en sí, no como un error de medición, sino como un componente más, al lado de las otras variables explicativas, lo que permite que las hipótesis puedan ser sometidas a tests estadísticos. Esta forma de ver la econometría es aceptada rápidamente y marca un hito en la metodología de la econometría y de las aplicaciones estadísticas en economía.

3.4. El debate entre Koopmans y los seguidores de Mitchel.

Durante este período, en el que según Haavelmo todo comenzó, entre las décadas de los veinte y los treinta, aparece el trabajo de Yule (1926) respecto a las correlaciones sin sentido, que constituyó un cambio en la forma de pensar respecto al uso de las correlaciones y regresiones en economía y en las ciencias sociales en general. Si las correlaciones no nos permiten comprobar una teoría y si de ellas no podemos extraer conclusiones respecto a la dirección de la causalidad, resulta muy peligroso “dejar a los datos que hablen por sí mismos”, es decir utilizar las herramientas estadísticas sin que estén fundamentadas en la teoría económica, y como señala acertadamente Koopmans (1947) no es posible aplicarlas con la misma liberalidad que en las ciencias físicas.

En este contexto es que debe interpretarse la polémica desatada entre Koopmans (1995) y Vinning (1995), donde el primero sostiene que la teoría debe ser siempre el marco dentro del cual se formula investigación empírica

3.5. El método econométrico tradicional.

Llamamos así al procedimiento econométrico que usamos habitualmente. La teoría económica nos dice que un vector de variables dependientes Y es función de un vector de variables exógenas X. Suponemos que las demás variables que podrían afectar a las endógenas no son sistemáticas y que están incluidas en un término de error estocástico que tiene las propiedades del ruido blanco. En ese caso, suponiendo que la relación es lineal, los estimadores minimocuadráticos se supone que tienen lo que se conoce como las propiedades habituales. Realizamos entonces el proceso de estimación y luego comprobamos que los errores tengan las propiedades referidas y que no estén correlados con los regresores. Si éste es el caso podemos verificar la hipótesis bajo estudio, analizando los signos y la significatividad de los parámetros de las distintas variables incluidas. Si el término de error no tuviera esas propiedades los supuestos básicos habrían sido violados y aplicaríamos los correctivos conocidos para las diferentes patologías. Luego volveríamos a considerar el signo y significatividad de los parámetros para ver si la teoría ha sido comprobada.

Como vemos este es un procedimiento que difiere del sugerido por Popper en cuanto a perseguir la falsificación y no la verificación o comprobación. En la práctica encierra una peligrosa práctica como es el “data mining”. Con este procedimiento se incorporan otras variables y se seleccionan aquellas que resultan estadísticamente significativas. Esto implica que las variables explicativas se seleccionan en función de lo que dicen los datos, y estamos en presencia de “medición sin teoría”. *Cuál es el remedio para este mal tan generalizado, en el que, a fuer de sinceros todos quienes trabajamos en econometría aplicada debemos reconocer haber usado con más frecuencia que la debida? La solución es “testear” con el criterio de falsificar y no de verificar, modificar el modelo en base a consideraciones de teoría económica y volverlo a someter a test estadístico nuevamente. Este es el procedimiento que proponen Darnell y Evans (1990), tratando de rescatar la econometría tradicional.

Todos los pasos que se realicen deberían hacerse explícitos y el camino recorrido para llegar a una determinada estimación debiera expresarse claramente para que los resultados puedan interpretarse adecuadamente. Pero a poco que reflexionemos vemos que no estamos ante un problema fácil, y también que la aplicación del falsificacionismo no es posible en forma cruda e inmediata.

La naturaleza estadística de nuestra disciplina genera, además, otro tipo de dificultad, que se conoce con la denominación de “pre-test bias”. Si estimo el valor de los parámetros de una ecuación determinada y rechazo la hipótesis nula de no autocorrelación, estoy en condiciones de continuar analizando, por ejemplo la significatividad de los parámetros, pero si he cometido un error de tipo II en la primera parte, estoy viciando la segunda.

No obstante todo lo anterior, la utilización de la econometría que podemos denominar convencional tiene un alto grado de aceptación y el enfoque a que nos hemos referido de Darnel y Evans (1990) es un intento de rescatar el método tradicional y deja abierta una interesante cuestión de tipo epistemológico.

4. PROBLEMAS ESPECIFICOS DE ALGUNAS METODOLOGIAS ECONOMETRICAS ACTUALES.

4.1. Sims y los Vectores Autorregresivos (VAR).

Los fracasos de los modelos econométricos para predecir las fluctuaciones económicas de fines de la década de los años setenta y principios de los ochenta hizo que comenzaran a aparecer críticas a la econometría tradicional y a los modelos econométricos multiecuacionales elaborados sobre los lineamientos de la Cowles Commission. Una fué la famosa y conocida crítica de Lucas, y la otra fué la de Sims, que planteó el carácter “increíble” de las restricciones necesarias para la identificación de las ecuaciones que componen los modelos. Propone un sistema econométrico alternativo en el que todas las variables son endógenas y se regresan todas ellas sobre sus propios rezagos y sobre los rezagos de todas las demás. Como elimina de cada ecuación las variables contemporáneas, los coeficientes carecen del sentido habitual, y no se puede hacer inferencias sobre su signo o significatividad, sino de todos ellos en block, por medio de un test de exclusión tipo Granger (1969). Sin embargo esto permite transformar esas ecuaciones, que son de tipo autorregresivas, en ecuaciones de tipo “moving average”, expresando todo en función de los errores pasados, para lo que es necesario lograr una matriz de errores que sea ortogonal. Así es posible analizar el impacto que tiene un shock en cada una de ellas sobre todas las demás y se puede ver cómo es la relación de prelación temporal entre todas las variables que componen el sistema, permitiendo determinar qué porcentaje de la explicación de la varianza de cada variable corresponde a cada una de las demás.

Este sistema recibió críticas por considerárselo una nueva forma de plantear modelos estadísticos sin fundamento teórico, a mi juicio injustamente, ya que cuando se seleccionan las variables que componen el vector se está utilizando la teoría económica como fundamento de esa selección. Sin embargo es necesario tener presente que el concepto de exogeneidad de la Cowles Commission es distinto del de Granger y Sims: mientras el primero se basa en la teoría el segundo mira la muestra sujeta a análisis.

Pero es evidente que esta metodología, que es diferente de la convencional, introduce nuevas complicaciones y es y será en futuro próximo fuente de discusiones.

Existen dos complementos a la metodología VAR que deben ser tenidos en cuenta porque también tienen implicancias metodológicas: uno es la aplicación de métodos bayesianos que hace Litterman (1984) y otro es la complementación del modelo con vectores de variables cointegradas. Tienen como característica metodológica una forma de ver la econometría como menos predeterminada por la teoría, dejando más margen para que los datos se expresen con mayor libertad que en los modelos convencionales, aunque disentimos, como dijimos más arriba, con quienes consideran a esta línea como ateórica, porque esto implicaría una completa independencia de los datos, que no es el caso.

Recientemente Sims (1996) presenta algunas reflexiones metodológicas alternativas. La ciencia, afirma, es una forma de comprimir los datos, de manera de poder interpretarlos mejor. Tycho Brahe acumuló una enorme cantidad de información, Kepler vio que las ópticas eran elípticas, comprimiendo los datos y Newton, al establecer su ley de la gravitación, llega a una compresión aún mayor. Esta visión supera a su criterio la metodología generalmente aceptada, que consiste en enunciar una teoría y confrontarla con los datos, y que había producido un abuso en el uso de la estadística. Coincide en algunas de las críticas que formula McCloskey (1983), pero se opone a la idea de que la economía debe procurar persuadir a los demás, sino que debe trabajar en base a normas muy estrictas:

“The only kind of argument that modern science treats as legitimate concerns the match of theory to data generated by experiment and observation...The fact that economics is not physics does not mean that we should not aim to apply the same fundamental standards for what constitutes legitimate argument; we can insist that the ultimate criterion for judging economic ideas is the degree to which they help us order and summarize data, that it is not legitimate to try to protect attractive theories from the data.”

Es decir que si bien tiene un enfoque que en alguna manera se deferencia del modernismo, como denomina McCloskey al criterio metodológico tradicional, mantiene la defensa de los criterios estrictos de confrontación de las teorías con los datos, que tiene un rol diferente, más relevante que en los criterios anteriores, al par que confirma que su postura no está reñida con la definición previa del modelo teórico.

4.2. Leamer y los métodos bayesianos.

El enfoque de Leamer tiene un cierto componente bayesiano. Critica a la econometría tradicional, proponiendo un sinceramiento de la forma de trabajar. Si vamos a hacer “data mining” hagámoslo explícita y ordenadamente. Las variables explicativas de un modelo dependen de los “priors” del economista que formula el modelo. En un modelo que explique la inflación, un keynesiano incluiría, entre otras variables, la tasa de desempleo, mientras que un monetarista excluiría esa variable e incluiría, por ejemplo la tasa de cambio en la cantidad de dinero. Lo que sugiere es que probemos qué sucede con cada variable en ausencia y en presencia de las excluidas por cada uno. Este tipo de análisis, al que denomina “Extreme Bound Analysis”, permite comparar distintos modelos y ver cuán robustos son al cambio de regresores. Es decir, que este método permite incluir las creencias del economista, lo que es necesario, sostiene, porque la naturaleza no experimental de la economía así lo requiere. Es ilusorio, afirma, sostener lo contrario, y la forma tradicional de modelar, si bien es pura e inmaculada desde el punto de vista del teórico, está llena de incumplimientos de los supuestos básicos por parte de los que hacemos econometría aplicada, por lo que procura un sinceramiento y la aceptación de las consecuencias que tiene sobre el modelo la aplicación del “data mining”, técnica que considera nefasta y trata de evitar con la aplicación de su método.

La diferencia, dicho de otro modo, con el enfoque ortodoxo es que en éste existe una teoría, establecida sobre bases objetivas. En el método que propone Leamer existen tantas teorías como observadores, y los distintos criterios (“priors”) de los distintos observadores deben ser tenidos en cuenta al realizarse la estimación del modelo.

4.3. El método de Hendry.

El método de Hendry es una forma de unir en el modelo econométrico la teoría económica con la evidencia que surge de la muestra:

“Modeling denotes matching theory and data in a formal quantitative framework, so we will consider the roles or economic theory and empirical evidence and their links.”

Por vía de la teoría económica determinamos los regresores que forman el modelo en el equilibrio de largo plazo, y se deja hablar a los datos, pero sólo para establecer el camino hacia el equilibrio en la forma más libre posible, limitando al modelo solamente en cuanto a la linealidad y al número de rezagos. Luego mediante la técnica de reducción se van progresivamente eliminado los regresores superfluos hasta lograr un modelo parsimonioso, consistente con la teoría y admisible para los datos, cuyos regresores deben ser exógenos débilmente, sus parámetros constantes, debe ser capaz de superar a los modelos rivales y los términos de error deben ser ruido blanco. Para eso sugiere testear, testear y testear, sometiendo a los modelos estimados a una batería de tests para comprobar que las propiedades enumeradas están realmente presentes. Este enfoque implica adelantos en el análisis econométrico que tienen importantes efectos epistemológicos: por un lado la introducción de los mecanismos de corrección de errores, y por otro la demostración de que la aplicación de los métodos tradicionales de corrección de la autocorrelación de primer orden implican una restricción que no siempre está presente en las series económicas.

Esta metodología trae aparejada una nueva forma de ver la relación entre la teoría y los datos:

“Theory driven approaches, in which a model is derived from a priori theory and calibrated from data evidence lie at one extreme. These suffer from theory dependence in that their credibility depends on the credibility of the theory from which they arose. Data driven approaches, lie at the other extreme. They suffer from sample dependence in that accidental and transient data are embodied as tightly in the model as permanent aspects...”

Este método, afirma Hendry, no sirve para comprobar teorías, ni brinda soporte para ellas y que una estructura de largo plazo sea consistente con una teoría no quiere decir que sea inconsistente con otra. No es descubrir la verdad el objetivo de los modelos, sino encontrar el mecanismo que subyace en la realidad y genera los datos que observamos:

“...empirical evidence is the final arbitrator of the validity of theories. Objetivity of approach, potential falsiability of claims and progresivity of knowledge and understanding are all key elements. Criticism is thereof the life blood of science...”

Es decir que niega la posibilidad del rechazo de las teorías, las cuales más que ser refutadas o falsificadas, caen en desuso.

5. REFLEXIONES FINALES.

Para sintetizar la evolución del problema metodológico y epistemológico de la economía es conveniente tener presente la forma como Kuhn (1978) caracteriza las etapas por las que transita la evolución ciencias: se parte de una etapa que llama “preciencia” en la cual existe una especie de caos metodológico y poca comunicación entre los científicos. En algún momento se produce un descubrimiento o la enunciación de una teoría que da comienzo a la etapa 2, que llama “el logro”. Cuando la idea es aceptada por la comunidad científica que comienza a formarse se cumple la etapa 3, “la conversión”, para arribar a la etapa 4, que llama “la ciencia normal”, caracterizada por la noción de “paradigma” y por la consolidación de la disciplina como tal. Si analizamos el relato que hemos hecho acerca de la evolución de los problemas epistemológicos de la economía vemos que este camino es similar al recorrido por nuestra ciencia. Como tiene solamente doscientos años de vida estas etapas se han dado mucho después que en las ciencias naturales, aunque antes que en las demás ciencias sociales. Recién a principios de siglo se consolida el paradigma clásico y es partir de entonces que la discusión metodológica se acalla y se hace mucho más moderada, entrando en la cuarta etapa de Kuhn, a mi juicio hace unos veinte años. Se llega entonces a un acuerdo generalizado sobre dos cuestiones: por un lado se conviene en que la economía presenta problemas epistemológicos y metodológicos diferentes de los de las ciencias naturales, lo que dificulta las aplicación de las prescripciones de Popper y por el otro se acepta la idea de que la teoría debe preceder a la investigación empírica, porque se entiende que la comunicación entre la teoría y los datos no es un camino de doble mano, con lo que se define lo que podemos llamar enfoque tradicional, y que cuenta con aceptación generalizada hasta el final de la década de los años setenta. Luego comienza una nueva reacción, con las metodologías de Sims, Hendry y Leamer. Las dos primeras se caracterizan por la preocupación por incorporar al modelo elementos que provienen de la muestra, el que ya no queda totalmente atado a lo prescrito por la teoría previamente, sino que tendrá en cuenta el proceso que genera los datos que se observan y sus desviaciones temporales, mientras que Leamer permite la incorporación de las ideas del investigador dentro de lo que dice la muestra, aplicando un método similar al bayesiano.

Koopmans (1947) en su famoso debate con los institucionalistas define dos formas de trabajo científico: por un lado la metodología de Thyco Brahe, que se basa en la observación detallada de la realidad y por otro la de Newton, que diseña un modelo de mecánica celeste que permite comprender el movimiento de los planetas y pronosticar su comportamiento. En lo que hemos visto la economía y la econometría han oscilado pendularmente entre ambas posiciones. Una etapa inicial, basada en un enfoque más bien teórico, una reacción muy violenta por parte de la escuela histórica y de los institucionalistas, una vuelta a la teoría por parte de la econometría tradicional, pero ya con un importante componente empírico y una vuelta al método de Thyco Brahe, pero mucho más atenuado, con las metodologías recientes referidas, como si paulatinamente se fuera encontrando un punto intermedio.

Las ciencias fácticas pueden dividirse en tres tipos, de acuerdo a su objeto: ciencias de lo inorgánico, de lo orgánico y de lo social. Si los fenómenos estudiados por cada una de ellas son explicados por un modelo del tipo:

Y = F(X)+e

donde Y es un vector de variables endógenas, X un vector de variables exógenas y e otro vector de términos de error aleatorios, con autocovarianza nula, varianza constante y media cero, tendremos que en principio existen diferencias entre los tres niveles. En el mundo de lo inorgánico, es decir en la física, encontraremos que la parte deterministica del modelo explica un altísimo porcentaje de la varianza de las endógenas. Algo menos en la biología y menos aún en los fenómenos estudiados por las ciencias sociales. Además existen ciertos elementos que permanecen, por lo general, mucho más cerca de la constancia en las ciencias físicas. Por ejemplo, la forma funcional, los valores de los parámetros, el carácter de exogeneidad de las variables y las propiedades homocedásticas del término de error.

La econometría moderna está en condiciones, incipientemente, de atacar estos problemas y de adaptarse a las características propias de las ciencias sociales. Es en alguna medida lógico que sea así: la estadística fué desarrollada para ser usada en otras disciplinas, y los primeros tratamientos econométricos se derivaron de esa misma estadística, por lo que fué necesario un laborioso proceso de adaptación, comenzado en la década de los años treinta. Actualmente, por ejemplo, ya es posible suponer que los coeficientes siguen un comportamiento del tipo del camino aleatorio, o de carácter autorregresivo de primer orden, pero en el futuro seguramente será posible determinar qué variables influyen en los coeficientes, y tal vez qué variables influyen en los coeficientes de estas últimas, llegándose a modelos que hoy todavía no soñamos que puedan existir. Baste pensar que la econometría como ciencia tiene solamente sesenta años, y hace apenas treinta que disponemos de computadoras, mientras que hace cinco siglos que la astronomía dispone de telescopios o la biología de microscopios. Los cambios en las técnicas econométricas y de investigación empírica son cada vez más veloces y van brindar nuevas soluciones así como van a generar problemas metodológicos nuevos.

También es de esperarse cambios en la supuesta imposibilidad de testear las “assumptions”. La conducta de los agentes económicos comienza a ser explicada desde la perspectiva de la psicología con más profundidad. Trabajos como el de Ainslei (1992) abren una perspectiva diferente, al interpretar la conducta humana como la resultante de fuerzas contrarias que operan en el interior de la conciencia. Así como la microeconomía es el estudio de las negociaciones entre los individuos, es preciso otra disciplina, sostiene, a la que denomina “picoeconomics”, dedicada al estudio de las negociaciones que se producen entre los distintos componentes de la conciencia de los agentes, lo que podría permitir un estudio del principio de racionalidad desde una perspectiva más general, que siga la tradición que definen Benthan y vön Mises, que analizan la conducta económica como una parte de la acción humana.

Por último, una reflexión sobre el pluralismo de Caldwell (1988), quien sostiene que la finalidad de la metodología económica no debe ser prescriptiva, ya que no es posible obtener un algoritmo que permita seleccionar las teorías, por lo que propone que se acepten todos los métodos para no atar a la investigación y hacerle perder su carácter creativo. Esta posición implica el riesgo de la anarquía, y a mi juicio podría ser aplicada sólo transitoriamente, hasta que exista mayor uniformidad en el pensamiento de los epistemólogos y los economistas.

REFERENCIAS

Ainslei, George. “Picoeconomics”. Cambridge: Cambridge University Press. 1992.

Archibald, G. y Lipsey. R.G. “Monetary and value theory: a critique of Lange and Patinkin”. Review Of Economic Studies, 26. 1958, pp. 1-22.

Bentham, Jeremy. “An Introduction to the Principles of Morals and Legislation”. Oxford: Claredon Press.[1780].1996.

Box, G. y Jenkins, G. “Time Series Analysis: forecasting and control”. San Francisco: Holden Day. 1976.

Blaug, Mark. “The Methodology of Economics or how economists explain”. Cambridge: Cambridge University Press.[1980] 1994.

Caldwell, Bruce. “Beyond Positivism Economic Methodology in the Twentieth Century”. Londres: George Allen and Unwin. 1982.

Caldwell, Bruce. “The case for pluralism”, en “The Popperian legacy in Economics”, editado por Neil de Marchi. Nueva York: Cambridge University Press. 1988. pp. 231-244.

Caldwell, Bruce. “Clarifying Popper”. Journal of Economic Literature, XXIX, 1, 1991, pp 1-33.

Campbell, J., Lo A. y Mac Kinley A. “The Econometrics of Financial Markets”. Princeton: Princeton University Press. 1997.

Christ, Carl F. “The Cowles Commission's Contributions to Econometrics at Chicago, 1939-1955”. Journal of Economic Literature”. XXXII, 1, 1994, pp. 30-59.

Cooley, T.F. y Leroy, S.F. “Atheoretical Macroeconomics: a critique. Journal of Monetary Economics, 16, 1985, pp. 283-308.

Darnell A. y Evans, J. “The Limits of Econometrics”. Aldershot: Edward Elgar Pub. 1990.

De Marchi Neil. “Popper and the LSE economists” en “The Popperian legacy in Economics”, editado por Neil de Marchi. Nueva York: Cambridge University Press. 1988. pp. 139-168.

Fama, E. “Efficient Capital Markets: A Review of Theory and Empirical Work”, Journal of Finance, 25, 1970, pp. 383-417.

Feigl Herbert. “El positivismo Lógico” . Revista de Occidente. Agosto 1966, 41, pp. 137-166.

Friedman, Milton. “The methodology of Positive Economics”. Chicago: Chicago University Press. [1952] 1953.

Friedman Milton. “A Monetary History of the United States 1867-1960”. Princeton: Princeton University Press. [1963] 1971.

Friedman Milton. “Inflation and Unemployment” en “Nobel Lectures - Economic Sciences” , editado por Assar Lindbeck. Londres: Nobel Foundation [1976] 1992.

Friedman Milton. “Monetary Trends in the United States and the UK”. Chicago: Chicago University Press. 1982.

Granger, Clive, W. “Ïnvestigating causal relations by econometrics models and cross-spectral methods”. Econometrica. 37, 1969, pp.424-38.

Haavelmo, Trigve. “The Probability Approach in Econometrics” . Suplemento de Econometrica. 12, 1944, pp. 1-115.

Haavelmo, Trigve. “Nobel Lecture” en “Nobel Lectures - Economic Science”.

editado por Karl-Goran Maler. Singapur: Wold Scientific. [1989] 1992.

Haberler, Gottfried. “Prosperidad y depresión”. México: Fondo de Cultura Económica. [1937]. 1953.

Hausman, Daniel M. “An appraisal of Popperian Methodology” en “The Popperian Legacy in Economics”, editado por Neil De Marchi. Nueva York: Cambridge Universty Press. 1988. pp. 65-87.

Hempel, Carl G. “La explicación científica”. Barcelona: Editorial Paidos. {1965] 1996.

Hendry, David F. “Dynamic Econometrics”. Oxford: Oxford University Press. 1995

Hutchison, Terence. “On the relations between philosophy and economics”. Journal of Economic Methodology”, 4 (1), 1997, pp.127-154.

Johansen, S. “Likelihood-based inference in cointegrated vectors autorregresive models. New York: Oxford University Press. 1995.

Keynes, John M. “Professor Tinbergen's Method”. Economic Journal, 49, 1939, pp. 558-68.

Keynes John Neville. “Scope and Method of the Political Economy”. Nueva York: Kelley & Milman. [1891] 1955.

Koopmans, T.C. “Measurement without theory debate”, en The Foundations of Econometric Analysis, editado por D. Hendry y M. Morgan. Cambridge: Cambridge University Press. [1947] 1995. pp. 491 y ss.

Kuhn, Thomas. S. “La Estructura de las Revoluciones Científicas”. Madrid: Fondo de Cultura Económica. [1962] 1978.

Kydland, F. y Prescott, E. “The computational experiment: an econometric tool”. Journal of Econometric Perspectives. 10, 1, 1996. pp. 69-88.

Lakatos, Imre. “Historia de la Ciencia y sus reconstrucciones racionales”. Madrid: Editorial Tecnos. 1971.

Leamer, Edward E. “Sturdy Econometrics”. Aldershot: Edward Elgar Pub. 1994.

Leamer, Edward E. “Let's take the Cons out of Econometrics”. American Economic Review. 73(1), 1983, pp. 31-43.

Leamer, Edward E. “A Result on the Sign of Restricted Least Squares Estimates”. Journal of Econometrics. 3, 1975, pp. 387-390.

Lipsey, Richard. “Introducción a la Economia Positiva”. Barcelona: Editorial Vincens-Vives. [1963] 1971.

Litterman, R.B. “Forecasting with Bayesian Vector Autoregresions models”. Federal Bank of Minneapolis Review. 1984, pp. 30-41.

McCloskey, Donald. “The Rethoric of Economics”. Journal of Economic Literature. XXI, 2, 1983, pp. 481-517.

Marschak, J y Lange O. “Mr Keynes on Statistical Verification of Bussiness Cycle Tehories”, en The Foundation of Econometric Analysis, editado por David S. Hendry y Mary Morgan. Cambridge: Cambridge University Press, 1995, pp. 390-398.

Marshall, Alfred. “Principios de Economía”. Madrid: Aguilar. [1890] 1948.

Mill, John Stuart. “Autobiografía”. Buenos Aires: Editorial Espasa Calpe. [1874] 1948.

Morgan, Mary S. “The History of Econometric Ideas”. Cambridge: Cambridge University Press. 1990.

Padrón, Héctor. “A Propósito de las Conjeturas Parciales o Lógica de Situación de Karl Popper”, mim. Instituto de Investigaciones Económicas de la Facultad de Ciencias Económicas de la Universidad Nacional de Mar del Plata. Serie de Estudios No. 1. 1982.

Pareto, Wilfredo. “Manual de Economia Política”. Buenos Aires: Editorial Atalaya. [1922] 1945.

Persons, W. M. “The correlation of Economic Statistics, en The Foundation of Econometric Analysis, editado por David S. Hendry y Mary Morgan. Cambridge: Cambridge University Press, [1910] 1995, pp. 130-140.

Popper, Karl. “La Lógica de la investigación científica”. Madrid: Editorial Tecnos. [1934] 1980.

Popper, Karl. “Búsqueda sin Término. Una autobiografía intelectual.” Madrid: Editorial Tecnos. [1974] 1985.

Popper, Karl. “La Miseria del Historicismo”. Madrid: Alianza Taurus. [1945] 1995.

Popper, Karl. “La Sociedad Abierta y sus enemigos”. Barcelona: Editorial Paidos. [1945] 1981.

Rothbard, Murray N. “Ludwig E. vön Mises” en “The New Palgrave: a Dictionary of Economics” editado por J. Eatwell, M. Milgate y P. Newman. Londres: The Macmillan Press . 1987.

Robbins Lionel. “Naturaleza y Significación de la Ciencia Económica”. Mexico: Fondo de Cultura Económica. [1932] 1951.

Robbins Lionel. “On Latsis: a Review Essay”. Journal of Economic Literature. XVII,3, 1979, pp. 996-1004.

Ross Ian S. “The Life of Adam Smith”. Oxford: Clarendon Press. 1995.

Samuelson, Paul A. “Foundations of Economic Analysis”, Cambridge: Harvard University Press. [1947]. 1966.

Sosa-Escudero, Walter. “La World Wide Web como herramienta de investigación empírica en economía”. mim. University of Illinois. Julio 1997.

Schumpeter, Joseph. “Historia del Análisis Económico”. Mexico: Fondo de Cultura Económica. [1954] 1971.

Sims, Chistopher. “Macroeconomics and Reality”. Econometrica, 48,1, 1980, pp. 1-48.

Sims, Chistopher. “Macroeconomics and Methodology”. Journal of Economics Perspectives. 10,1, 1996, pp. 105-120.

Vinning, Rutledge. “Methodological Issues in Quantitative Economics”, en The Foundation of Econometric Analysis, editado por David S. Hendry y Mary Morgan. Cambridge: Cambridge University Press, [1946] 1995, pp. 501-513.

Yule G. V. “Why do we sometimes get Nonsense Correlations between Time Series?”. Journal of The Royal Statistics Society, vol 89, 1926, pp. 2-41

Wittgesntein, Ludwig. “Tractatus Logico-Philosophicus”. Madrid: Alianza Universidad. [1922] 1995.

Ver Sosa-Escudero (1997), donde se hace una descripción de las posibilidades que ofrece Internet para los investigadores que usan métodos cuantitativos.

Si sostengo que todos los cisnes son blancos, no puedo aceptar esta proposición como cierta porque no puedo saber que el próximo cisne será también blanco, aunque hubiera controlado el color de muchos de ellos. Por lo tanto lo que puedo hacer es tratar de falsificar esa proposición, encontrando un cisne de otro color. Mientras tanto puedo aceptar esa proposición transitoriamente. Es decir que nada es definitivo y todas las teorías están en el banquillo de los acusados, y solamente las que sobrevivan darwinianamente a los fiscales serán por el momento aceptadas. Ver Popper (1934).

Ver Ross (1995).

La obra de Bentham tuvo una influencia muy grande en su pensamiento, y también en el de su padre, como cuenta en su “Autobiografía”. Este autor trata de hallar la forma de medir la utilidad, al menos así lo decía explícitamente en sus primeros trabajos, y en forma más atenuada más adelante, (Ver Bentham, 1995, pp.69). Es decir que este pensador, uno de los pilares en que se asienta la economía clásica, tiene en mente la posibilidad de aplicar mediciones estadísticas, aún en cuestiones tan poco aptas para ello, como son placer y el dolor. (Ver Mill, 1948).

En la misma obra relata su relación intelectual con Comte: si bien despierta su entusiasmo al principio, pronto se decepciona ante sus excentricidades.

La escasa utilización de las técnicas cuantitativas en la época en que nace la economía clásica está bien ejemplificada por Schumpeter (1971), cuando dice “...un gran paso que contribuyó a esclarecer la importancia del método se dió en 1798 cuando Sir George Evelyn presentó una comunicación a la Sociedad Real en la que, después de presentar excusas por tratar un tema en términos muy por debajo de lo que exigía la dignidad de aquella corporación, utilizó un número índice para medir la devaluación de la moneda...”.

Ver en Popper (1995) un exhaustivo análisis del concepto de tendencia en los economistas clásicos

Ver Pareto (1945), pág 8.

ver Rothbard (1991).

Una explicación del rol de Benthan en el pensamiento clásico se puede encontrar en la Autobiografía de Stuart Mill (1948).

Tuvo gran influencia en la vida pública inglesa. Enseñó en la LSE durante casi toda su larga vida (nació en 1894 y vivió hasta 1983) y además participó en innumerables asuntos no académicos.

Ver Robbins (1979).

La primera edición inglesa apareció en 1958 y en su prefacio, afirma, “el problema central de la epistemología ha sido siempre, y sigue siéndolo, el aumento del conocimiento. Y el mejor modo de estudiar el aumento del conocimiento es estudiar el del conocimiento científico”. Es decir que sostiene una posición diferente del intrumentalismo. (Ver Popper, 1980).

Una excelente descripción de este debate se puede ver en Caldwell (1982).

Machlup usa el término “verificación”, cuando debiera utilizar “comprobación”.

ver Hutchison (1997), pp. 135-136. Es conveniente destacar que a partir de 1997 comienza a aparecer el Journal of Economic Methodology.

Sin embargo flexibiliza su posición cuando diferencia, según dice siguiendo a Marshall, entre teoría pura, que sólo tiene que ver con relaciones lógicas o matemáticas, que no pueden ser testeadas empíricamente y teoría aplicada, que sí debe ser sometida a tests empíricos.

Un prolijo relato de este episodio se puede ver en De Marchi (1985).

Este es precisamente el punto de discusión con Robbins, que no pensaba en ningún tipo de intervención estatal y por lo tanto estaba al margen de la política económica.

Se trata del extracto de un discurso pronunciado por Lord Beveridge en 1937, donde aboga por una posición similar a la de Tycho Brahe y hace una acalorada defensa de los métodos empíricos.

Siempre tuvo una excelente relación con los miembros de la escuela austríaca. En su ensayo autobiográfico “Búsqueda sin Término” dice textualmente que Hayek “salvó su vida” en dos ocasiones: la primera cuando intercedió para que fuera publicado su libro “La Sociedad Abierta y sus enemigos”, y la segunda cuando le ofreció un cargo en la Universidad de Londres que le permitió volver a Inglaterra. Ver Popper (1974). Por otra parte Hayek adopta gran parte de las ideas de Popper, según Caldwell (1991) después de 1950, aunque no acepta la aplicación del principio de falsificación sobre los principios básicos.

Esta no es la primera incursión de Popper en las ciencias sociales. En 1943, finaliza la redacción de “La Sociedad Abierta y sus Enemigos” (1963) y en ese mismo año envía para su publicación a Mind el manuscrito de “La Miseria del historicismo”, que dicho sea de paso, fué rechazado.

Ver Padrón (1982)

Los conocimientos de economía de Popper no parecen haber sido muy extensos y posiblemente sus supuestas contradicciones se deban a esa circunstancia.

Ver Caldwell (1982), Cap VII, donde se puede encontrar una reseña sobre diversos trabajos realizados para testear el postulado de racionalidad, que ofrecen resultados bastante confusos y no concluyentes.

El enfoque de Lakatos es de tipo descriptivo-prescriptivo, a diferencia del de Kuhn (1962), quien describe el desarrollo de la ciencia como algo discontinuo. Existen períodos de “ciencia normal” seguidos de períodos revolucionarios donde el “paradigma” es cambiado y se adopta uno diferente. Este enfoque tuvo también relativo éxito entre los economistas.

Ver Friedman (1952).

Es interesante destacar que en todo el trabajo (Friedman, 1952) no existe ninguna cita de ningún epistemólogo. Su trabajo pareciera la labor aislada de un economista que desea encontrar una metodología apropiada para su disciplina, pero autónomo en su pensamiento.

Ver Campbell, Lo y Kinlay (1997), que analizan una serie de técnicas para el estudio sistemáticos de los mercados financieros. Sin embargo cabe tener presente que modelos que aparentemente son sólo estadísticos. como ocurre con un modelo tan simple como el camino aleatorio, que tiene como fundamento a la teoría de la eficiencia débil de Fama (1970).

Es necesario destacar que Friedman (1952) considera que la diferencia entre un experimento controlado y uno que no lo es, es simplemente una cuestión de grado. Nunca existe un control total de un experimento, aún en la física, como sucede con la caída de los cuerpos en el vacío, el famoso experimento de Galileo.

ver Hempel (1965).

ver Friedman (1992).

Ver sus dos monumentales obras: Friedman (1971) y Friedman (1982), donde se refiere permanentemente a datos estadísticos, aunque con una elaboración econométrica sencilla.

Ver Samuelson (1966).

Ver McCloskey (1983).

Especialmente con los trabajos de Gauss (1777-1855), quien aplicó sus desarrollos originalmente a la astronomía.

Yule, en 1897 utilizó por primera vez en economía el método de regresión, que había sido empleado exitosamente por los astrónomos desde mediados del siglo pasado para estudiar las trayectorias de los planetas, para las cuales realizaban mediciones que diferían entre sí debido a errores en ellas. Luego fué usado en biometría, disciplina que conjuntamente con la psicometría aparece hacia fines del siglo pasado.

Hace una descripción detallada de todos los problemas de las estimaciones econométricas: sesgo por variables omitidas, variables cualitativas, colinealidad, correlación espúrea, independencia, causalidad y exogeneidad, linealidad, selección de rezagos, uso del término “trend”, estabilidad de los parámetros, etc., todo dentro de su prosa amena y aguda. Algunos de estos problemas han sido tratados por el desarrollo posterior de las ténicas estadísticas y otros subsisten aún como interrogantes.

Esta institución fué fundada en 1932 en Colorado Springs por Alfred Cowles, un corredor de bolsa que quería estudiar las leyes que rigen el funcionamiento de los mercados de valores. En 1937 se mudó a Yale University por razones fiscales, y en 1939 a Chicago, donde funcionó los 15 años siguientes, donde se realizó el grueso de su tarea científica, con el aporte de economistas americanos, como Klein y de muchos europeos, entre ellos Frisch, Koopmans, Haavelmo y Marshak, que huyeron de la invasión alemana. La labor de esta institución fué el resultado de una serie de condiciones favorables que se dan sólo muy pocas veces en la historia de la ciencia. Nos encontramos con el keynesianismo buscando una herramienta para la programación de la política anticíclica, con un grupo de matemáticos y economistas que se reúnen emigrados de los países escandinavos, de Alemania y de Austria y una institución que los agrupa y cuenta con los recursos económicos necesarios para que puedan desarrollar su proyecto, pero sobre todo con el genio no frecuente de los brillantes científicos precitados. Una detallada reseña sobre el período en que estuvo radicada en Chicago, entre 1939 y 1955, puede verse en Christ (1994). La fundación de la Econometric Society en 1933 fué paralela al desenvolvimiento de la Cowles Commission y dió un importante impulso tanto al uso de la estadística como de las matemáticas.

Ver la Nobel Lecture de Haavelmo (1992), donde afirma que la econometría comenzó en los veinte, aunque no niega la existencia de antecedentes anteriores.

Es conveniente tener en cuenta el razonamiento de Mitchel: si tenemos no menos de veinte teorías explicativas del ciclo económico nos vemos en una situación confusa, ya que es imposible someter a comprobación a todas ellas, y ante esa situación es preciso “dejar hablar a los hechos”. No obstante, Mitchel sostiene la necesidad, en principio, de una teoría previa. Esta última posición es abandonada por sus seguidores, especialmente Persons (1995), quien con la utilización de sus “barómetros”, desarrolla una metodología totalmente desprovista de base teórica.

ver Sims (1980)

La generalización de esta metodología se debe en parte a la amplia difusión que tuvo el software denominado RATS (Regression Analysis Time Series), que es uno de los programas más usados por los econometristas de todo el mundo.

Ver Cooley y Leroy (1985) y Darnell y Evans (1990), quienes cuestionan la utilización de análisis impulso-respuesta, en razón de que, según afirman no es posible individualizar la variable que sufre el shock. También se oponen al concepto de causalidad de Granger como sinónimo de exogeneidad.

Una descripción del método puede verse en Johansen (1995) y es fácil darse cuenta de que se trata de un procedimiento que se basa en las propiedades estadísticas de las series más que en consideraciones teóricas, como sucede también en los modelos de cointegración más sencillos.

Ver en Leamer (1994) los trabajos más importantes que ha publicado en los últimos años. El más conocido, y el más representativo es Leamer (1983).

ver Leamer (1994), pag 155 y ss.

Por un teorema que demuestra en uno de sus trabajos (ver Leamer (1975)), si el valor del estadístico “t” de un determinado coeficiente es mayor que el del coeficiente cuyo valor se restringe igual a cero, la exclusión de este último no producirá cambio en el signo del coeficiente de la primera variable explicativa.

Ver Hendry (1995).

ver Hendry (1995), pp. 266 y ss.

ver Hendry (1995), pp. 6.

ver Hendry (1995), pp. 9.

Con otras palabras Sims (1996) desarrolla esta misma idea.

Un ejemplo es el método conocido como calibración, que usan los economistas que trabajan con la teoría del ciclo real para sus experimentos computacionales. (Ver Kydland y Prescott, 1996).




Descargar
Enviado por:Sebastian Marotz
Idioma: castellano
País: Argentina

Te va a interesar