Análisis cuantitativo

Economía matemática. Estadística inglesa. Métodos econométricos. Walras. John Stuart Mill. Keynes. Marx

  • Enviado por: Chava
  • Idioma: castellano
  • País: España España
  • 58 páginas
publicidad
cursos destacados
Viva libre y tome el control de su dinero
Viva libre y tome el control de su dinero
Mes a mes trabajamos duro por conseguir el dinero que necesitamos, sin embargo en muy poco tiempo nos quedamos con nada...
Ver más información

Curso básico de Mercados sobre Análisis Técnico y Gestión Monetaria
Curso básico de Mercados sobre Análisis Técnico y Gestión Monetaria
En este curso aprenderás los conceptos básicos sobre análisis técnico, gestión monetaria y con qué actitud debes...
Ver más información

publicidad

El análisis cuantitativo en la Ciencia Económica

Metodología de las Ciencias Sociales

5º curso de Filosofia - UNED

Indice

Antecedentes

¿Cuándo puede una disciplina retenerse plenamente científica? ¿Lo es la Economía?

Estas preguntas, a finales del siglo XIX, turbaban profundamente a los economistas, dado que los estudios economicos en aquella epoca carecian de las principales características de las ciencias naturales.

En particular, el problema mas acusado era la escasa aplicación de tecnicas cuantitativas en la Economía. A partir de ahí surgían los demas: imposibilidad de constatacion empírica de leyes economicas, carencia de modelos de prevision economica, vigencia de teorías opuestas sin posibilidad de refutacion, etc.

La principal causa de tal situacion radicaba en el enfoque político con que desde mediados del siglo XIX se enfoco la ciencia economica. La Economía Política, sobre todo a partir de Marx, ocupo todos los esfuerzos intelectuales de los economistas, a los que llego a convertir en muchos casos en políticos. (En el apéndice se trata en detalle el curso que siguio la teoría economica desde la epoca clasica hasta los ultimos desarrollos monetaristas de la escuela de Chicago. Tales consideraciones sirven para mostrar el fondo de la metodología seguida por los economistas; no es posible hablar de metodología sin hacer referencia al resultado de esta, a la teoría economica.)

Excelentes teoricos como Jevons en 1871, mostraban claramente sus anhelos de precision: “No me cabe duda que la Economía Política podría ser fundada como ciencia exacta si la estadística fuese mas completa y precisa de lo que lo es en el presente”.

Probablemente Jevons tenía en su mente el ejemplo de la Astronomía, considerada una ciencia exacta que ya habia incorporado la Estadística y la Matemática a sus analisis. Los astronomos afrontaron diferentes medidas del curso de un planeta corrigiendo los errores residuales del calculo.

Pienso en ocasiones que el error en que incurrieron los economistas es el mismo que han cometido otros estudiosos como psicologos, sociologos o logicos: pensar que ciencia es aquella que reune los caracteres propios de las ciencias naturales, como la Física o la Matematica.

En concreto, la precision de las Matemáticas resulto devastadora para el resto de ciencias. Cuando David Hilbert formulo su famoso programa en 1930, la Matematica alcanzo su cenit en la epoca moderna. La Matematica era una ciencia completa y coherente, i.e. toda proposicion verdadera podía ser demostrada y un teorema no podía ser a la vez verdadero y falso. Un teorema matematico era y sería cierto en todo tiempo y lugar.

Tal vision de la Matematica se ha mantenido viva hasta nuestros dias, si bien poco tiempo despues de la formulacion del programa de Hilbert, un desconocido logico checoslovaco, Kurt Godel, enuncio el mas genial teorema de la ciencia moderna: la incompletitud de los sistemas axiomaticos.

No es este el lugar apropiado para abordar tan fascinante cuestion, pero merece la pena dedicar unas palabras a la convulsion que sufrio la Matematica como ciencia perfecta en 1931. El primer y segundo teorema de incompletitud de Godel afirmaban que ningun sistema axiomatico (como la aritmetica de Peano) podia ser completo y coherente a la vez, así como la inexistencia del procedimiento constructivo que demuestre la coherencia de la teoria axiomatica. Es decir, que podemos ser coherentes sin poder demostrarlo. La Matematica ha vivido estos ultimos setenta años, y continuara haciendolo en el futuro, sin poder demostrar su propia coherencia. Tendra que conformarse con darla por supuesta, como hasta ahora.

A mi juicio, una ciencia puede serlo sin tener por ello que enunciar infalibles modelos que pronostiquen el comportamiento de las variables que analizan. Porque en ocasiones tales variables no solo son imprevisibles, sino inconmensurables. Me refiero a las ciencias humanas, como la Psicologia o la Economía. Ningun psicologo puede predecir la reaccion de un paciente a una determinada terapia ni ningun economista la de un mercado a una determinada noticia.

Pero los economistas de principio del siglo XX no pensaban en estos terminos. Su ciencia merecia el calificativo de “exacta” y de ahí partieron los primeros intentos de cuantificar las teorias y tratar los datos empiricos con modelos matematicos. Cuando la Economía se escriba con numeros ademas de con palabras, se habra alcanzado el objetivo.

Conforme las Matemáticas han ido sometiendo a su disciplina a la Economía, como antes habían hecho con las ciencias naturales, la linea divisoria entre los metodos sociales y científicos se ha ido haciendo cada vez mas borrosa y ello especialmente cuando los pioneros de los metodos matematicos empezaron tambien a llamar a las puertas de la Política y la Sociología. La conquista de las ciencias sociales por las Matemáticas abre, segun esto, el camino para la restauracion de la unidad de todas las ciencias, unidad esta que habia prevalecido hasta el siglo XIX. Como decía Gorge Sabine:

“Se creía que la razon, esencialmente identica en todas partes, daba validez al maiestatico sistema de derecho natural, el cual era aceptado como la clave para ordinarlo todo, tanto en Astronomía y en Física como en la Religion, la Etica, la Politica, la Jurisprudencia y la Economía”.

En el siglo XIX esta unidad fue disuelta cuando los historicistas pretendieron que los estudios sociales requerían un metodo propio, metodo este mas historico, que la generalizacion sistematica que habia caracterizado hasta entonces a todas las ciencias. Mientras la Economía historica se proponia estudiar la diversidad de las circunstacias sociales, las Matemáticas han puesto de manifiesto lo que todas tienen en comun y lo que es verdad para todas ellas. Whitehead al explicar el significado de la abstraccion en las Matemáticas lo expresaba diciendo: “la naturaleza de las cosas es completamente indiferente, ya que de todas ellas puede decirse que dos y dos son cuatro”. La aparicion de la Economía matematica llevo consigo la derrota de la Economía historica y elimino la amenaza que esta suponia para la unidad de la ciencia.

Sin embargo, conforme la disciplina de las Matemáticas iba haciendo a la Economía mas rigurosa, fueron disminuyendo tambien las oportunidades para que los economistas llevaran a cabo aquel tipo de especulaciones de amplio alcance que habia sido siempre considerado parte de su trabajo en los tiempos anteriores. El “fin de las ideologias”, que fue afirmado de todas las ciencias sociales, significaba una transformacion del trabajo del economista, el cual se iba pareciendo cada vez mas al del ingeniero. Si las Matemáticas son, como se ha dicho, un lenguaje, los que hablan dicho lenguaje y piensan en terminos del mismo, utilizan una forma adecuada para pensar y expresar el tipo de pensamiento para los que estan ideado dicho lenguaje.

La penetracion de las Matemáticas en la Economía politica es consistente con una importante tendencia intelectual de la epoca. Las Matemáticas, al mismo tiempo que han invadido la Economía, han invadido tambien otras ciencias como la Psicologia y la Biologia, por poner un ejemplo. Los críticos de esta tendencia le han dado el nombre de “reduccionismo” y le han atribuido la idea de “que el unico metodo cientifico digno de tal nombre es la medicion cuantitativa y de que, en consecuencia, los fenomenos complejos deben ser reducidos a elementos simples accesibles a dicho tratamiento, sin preocuparse inutilmente de si las caracteristicas especificas de un fenomeno complejo, como por ejemplo el hombre, pueden perderse en el proceso”.

La fusion de la Economía matematica y la estadística inglesa

La Economía matematica surgio en dos variantes, de las que una, el tipo puro, se intereso por las relaciones cuantitativas en el plano abstracto, dando un modelo de estructura teorica que, como todas las estructuras de este tipo, no reflejaba perfectamente la realidad con toda su riqueza de detalles concretos. Lo que distinguia a la Economía matematica pura de la teoria economica convencional era su carácter cualitativo y las formas matematicas de expresion. La otra variante conocida con el nombre de “Econometría”, tendia a desarrollar modelos o teorias en funcion tambien de concetos cuantitativos, pero destinados a ser operativos o mensurables y a ser por ello objeto de comprobacion estadistica. La medicion numerica se convirtio asi en el distintivo de la Econometría. El analisis teorico de Cournot de la demanda y el sistema de equilibrio general de Walras son ejemplos de la Economía matematica pura. El calculo de Pety de la renta nacional tenia los componentes de un ejercicio econometrico ya que su estimacion no era el resultado de un crudo empirismo, sino que presuponia un concepto mensurable aunque implicito y rudimentario. La Econometría ha sido aclamada como una union del racionalismo y el empirismo, ya que en ella la razo, apoyada por la experiencia y la intuicion, desarrolla una hipotesis que sera comprobada por la experiencia.

La palabra “Econometría” es de origen reciente y fue creada al final de la decada de 1920 por Ragnar Frisch, el economista y experto en estadistica noruego, por analogia con la biometria y otroa neologismos similares destinados a poner de manifiesto la relacion de una determinada ciencia con la medicion. Cuando Frisch, junto con Irving Fischer y otros, fundo la Sociedad de la Econometría en 1930, la palabra se hizo de uso frecuente. La sociedad, organización internacional de la que Fischer fue el primer presidente, decia tener como objetivo “el progreso de la teoria economica en su relacion con la Estadistica y las Matemáticas” y la “unificacion de los metodos teorico-cuantitativos y empiricos-cuantitativos”. En 1932 fue fundada tambien una organización filial de investigacion llamada primeramente “Cowles Comission” y despues “Cowles Foundation for research in Economics”, la cual recibio dicho nombre en honor de Alfred Cowles, que fue quien la proveyo de fondos. La coordinacion del trabajo teorico con el empirico distingue el metodo econometrico del metodo del National Bureau os Economic Research, ya que este ultimo de mayor importancia para la determinacion de los hechos, que a la construccion de modelos teoricos.

En la practica, la division entre la Economía matematica pura y la Econometría ha sido con frecuencia borrada. A menudo, un mismo economista ha realizado ambos tipos de trabajo y ocurre tambien en ocasiones que un trabajo considerado econometrico no proporciona a pesar de ello resultados numericos. Asi pues, la palabra “Econometría” es utilizada algunas veces como sinonimo de la mas amplia Economía matematica.

El que la Econometría naciera precisamente en el siglo XX no fue un mero accidente, sino el resultado de la convergencia de una serie de circunstancias favorables. Los avances cientificos tienen lugar, con frecuencia, cuando hay oportunidades de fusion de elementos hasta entonces dispares, incluidos en disciplinas diferentes. Cuando los econometristas se pusieron a la tarea de fundir los metodos teorico-cuantitativos y empirico-cuantitativos, tenian a su alcance, en cuanto al primero de dichos metodos, la Economía matematica pura de Cournot y Walras (aportaciones del genio frances) complementadas por ciertos conceptos marshallianos susceptibles de medicion. En el aspecto empirico-cuantitativo, se disponia de la serie de grandes avances del metodo estadistico que comenzaron durante las ultimas decadas del siglo XIX. Aparte de las notables aportaciones rusas a la teoria de la probabilidad, dichos avances se debieron principalmente a hombres de origen ingles (Galton, Edgeworth, Pearson, Weldon y Fischer) que estaban en su mayor parte relacionados con la investigacion cientifica.

Fusion de ciencias

En sentido general, puede decirse que la Econometría se origino de la fusion de la economica francesa con la estadistica inglesa. Al igual que los metodos estadisticos modernos, la Econometría ha sido tambien practicada a escala mundial. Sin embargo, esta ha atraido muy especialmente desde sus principios a la mentalidad americana, predispuesta a favor de lo cuantitativo, pragmatica y a la que abruma la diversidad historica. Por todo ello los americanos destacaron entre los pioneros de la Econometría durante su primera fase, que coincide aproximadamente con el primer tercio del siglo XX. Durante la fase siguiente, los trastornos politicos y persecuciones que precedieron a la Segunda Guerra Mundial llevaron a los EE.UU. a cierto numero de cerebros europeos que destacaron tambien en el trabajo econometrico. Al verse la Econometría americana enriquecida por sus aportaciones y al resultar dicha ciencia tan fuertemente atrayente para la mentalidad americana, la Econometría se convirtio hacia mediados de siglo en el tema predominante de la Economía americana. Por entonces, las circunstancias de la guerra y sus secuelas dieron lugar a un periodo durante el cual la ciencia americana alcanzo un prestigio que la colocaba en primeera fila respecto al resto del mundo. Al extenderse tambien la influencia americana por el exterior, fue extendiendose tambien con ella el metodo econometrico.

Aparte de Irving Fischer, entre los pioneros americanos de la Econometría podemos citar a Henry L. Moore, Henry Schultz y Paul H. Douglas. En una carta dirigida a Walras y fechada el 10 de abril de 1908, Moore describia su programa cientifico en estos terminos: “Desearia conocer su opinion sobre si, por medio de metodos estadisticos modernos, es portno intentar comprobar estadisticamente algunas de las conclusiones de la Economía politica pura. Me ha dado la impresión en ocasiones, de que una de las principales razones por las que la ciencia economica pura no a trae a los estudiantes es la ausencia de demostraciones inductivas de sus principios fundamentales. He supuesto, por lo tanto, que la presente generacion de universitarios podia prestar un servicio de maxima eficacia atacando inductivamente los problemas que usted y otros han tratado de manera tan brillante en forma deductiva”.

Moore, que fue profesor en la Universidad de Columbia desde 1902 a 1929, intento comprobar estadisticamente la teoria de Clark de la productividad marginal de la distribucion, desarrollo una teoria de las ciclos de los negocios en funcion de los ciclos meteorologicos que afectan al a produccion de productos agricolas y, por tanto, a sus precios intento predecir la produccion y el precio del algodón y emprendio, en relacion con estas investigaciones, la deduccion estadistica de curvas de demanda, trabajo este que demostro ser de duradera importancia. Moore no fe el primero que intento obtener estadisticamente curvas de demanda; hubo un trabajo anteriores de otros especialistas europeos que fue interrumpido por la Primera Guerra Mundial y no coincidio (como el de Moore) en EE.UU., con otros estudios de orientacion similar de los economistas dedicados al estudio de la agricultura y de los politicos. El analisis estadistico de la demanda realizado por Moore fue continuado por su discipulo Schultz a mayor escala y con la ayuda de un equipo de colaboradores expertos en estadistica. Este tipo de trabajo sento un precedente para posterior investigacion econometrica, la cual va con frecuencia mas alla de las posibilidades de un investigador aislado y requiere de la cooperacion de esfuerzos como un dedicado equipo constituido en un principio por maquinas de calcular y luego ordenadores.

La teoria de Clark de la productividad marginal, cuya verificacion estadistica habia sido el tema del primer libro de Moore, sirvio tambien como punto de partida para el trabajo econometrico de Paul Douglas, quien tambien estudio en la Universidad de Columbia, al igual que Clark y Moore. Durante su carrera posterior en la Universidad de Chicago, Douglas se convirtio en un influyente profesor que organizo multitud de estudios de cross-section y de las series cronologicas que fueron realizados tanto por el como por sus alumnos y que estaban destinados a comprobar estadisticamente la teoria de la productividad marginal de la distribucion. Douglas encontro un colaborador, el matematico Charles E. Cobb, y el trabajo de amboso dio como resultado la funcion de produccion Cobb-Douglas, que indica que mientras un aumento del uno por ciento del factor trabajo eleva el producto en las dos terceras partes del uno por ciento, un aumento del uno por ciento del factor capital lo eleva un tercio del uno por ciento. Este resultado, conforme con la division observada de la renta nacional entre el trabajo y el capital, tenia sin embargo su aspecto paradojico: solo parece compatible con unos rendimientos constantes de escala y con una estructura competitiva de la Economía.

La fase posterior de la Econometría estuvo marcada por los estudios input-output de Leontieff, asi como tambien por la aplicación de la programacion lineal y la teoria de juegos a los problemas economicos.

En su fase posterior, hubo importantes avances tanto en la Econometría como en la Economía politica matematica que tuvieron su origen en el trabajo de John von Neumann, gran figura de las Matemáticas del siglo XX. La historia de las Matemáticas y de las ciencias de la naturaleza esta llena de ejemplos que ilustran los fructiferos resultados de la interaccion entre ambas disciplinas, estando con frecuencia generados los avances de las Matemáticas por las necesidades de las ciencias o siendo como una respuesta a estas. Von Neumann es la primera figura destacada de las Matemáticas que se tomo un pronunciado interes por la teoria economica . Lo hizo con la esperanza de que la atencion prestada por un matematico a las ciencias sociales tendria repercusiones favorables para el desarrollo de las Matemáticas y originaria un nuevo pensamiento como habia ocurrido anteriormente con la atencion prestada por los matematicos a las ciencias naturales.

Oriundo de Hungria, von Neumann pertenecio a aquella galaxia de hombres geniales cuyo trabajo ilumino el eclipse del amtiguo imperio de los Habsburgo. Al igual que las reflexiones de Freud sobre la condicion humana, la teoria pura del derecho de Kelsen o la Economía politica pura de los austriacos, las aportaciones de todos estos hombres ensalzan, si no la teoria pura, si un pensamiento valido para las circunstacias de toda la humanidad y que trasciende sobre las diferencias nacionales o historicas que estaban rompiendo en pedazos la unidad del imperio de los Habsburgo. Considerado con una cierta perspectiva, la desintegracion de dicho malventurado imperio, presagiaba la suerte de toda la humanidad, cuya unidad podia ser renovada mediante la unidad de una ciencia que exaltaba mas lo que la humanidad tiene en comun que su diversidad.

Cuando llego von Neumann a los EE.UU. en 1931 habia publicado ya a los veinticinco años uno de los dos articulos en los que se basa su influencia sobre el pensamiento economico. Seis despues, en 1937, fue publicado el segundo de dichos articulos. Las aportaciones de von Neumann a la Economía no fueron sino perifericas, respecto a un amplio trabajo creador en Matemáticas y fisica, trabajo este por el que se le concedieron numerosos honores.

El articulo de von Neumann de 1928 anunciaba la aparicion de una nueva rama de las Matemáticas conocida como “teoria de juegos”. Los matematicos habian ya examinado desde hacia tiempo la estructura de los juegos de azar como la ruleta o los dados, y ese trabajo habia dado como resultado la teoria de la probabilidad. Lo que interesaba a von Neumann no eran los juegos de azar, sino los de estrategia, cuyo resultado no depende solo de la accion un jugador, sino tambien de la reaccion de los otros participantes. En dichas situaciones, el comportamiento racional no puede ser definido en funcion de la clara busqueda de un maximo, ya que dicho maximo varia con las acciones y reacciones de los demas. Por ejemplo, A puede escoger entre varias estrategias que de cada una a una variedad de resultados diferentes, reflejando cada variante la estrategia escogida por B. B estara a vez en una opsicion similar. La solucion de von Neumann se centra en los conceptos del minimax (el menor entre los mayores) y del maximin (el mayor entre los menores). Para dilucidar esta materia, los resultados posibles deben ser ordenados rectanguarmente en una matriz. Si hay dos jugadores, A y B, y si cada uno escoge entre tres estrategias, el resultado de cada estrategia de A estara indicado en las lineas horizontales de numeros, mientras las tres columnas verticales indicaran las estrategias que se le ofrecen a B. Cada numero denota un resultado, es decir, una ganancia para A y una perdida para B.

La principal aportacion de von Neumann se basa en la ulterior demostracion de que siempre existe un resultado determinado en un juego de suma cero de dos personas cuando se transforma el juego de estrategia pura en uno de estrategia mixta al incorporar un elemento de azar. En un juego de estrategia mixto, los jugadores seguiran una estrategia de probabilidad que les de unos resultados medios optimos, en los que el minimax y el maximin coincidan. Por ejemplo, si hubiera que jugar con monedas, los resultados se harian mas aleatorios al echar al aire la moneda.

La estructura matematica de los juegos, descubierta por von Neumann, tiene sus analogias en las situaciones conflictivas que surgen en la Economía, la Politica y la guerra, en las que las partes deben decidir que cursos de accion emprenden y cuyos resultados dependen de los cursos seguidos por los demas. Por otra parte, cuando el juego implica a mas de dos participantes, se ofrecen oportunidades para la formacion de coaliciones y la estructura de estas puede tambien ser estudiado con la teoria de juegos.

A fin de demostrar la validez de la teoria, von Neumann y Morgenstern, profesor en Princeton, publicaron en 1944 la “Teoria de los juegos y del comportamiento economico”. En esta obra prestaban atencion a la interpretacion de ciertas situaciones de maercado, en especial al oligopolio, en funcion de la teoria de los juegos, y desde entonces ha habido numerosos investigadores que han explorado esta y otras aplicaciones a la teoria de los juegos, entre las que se incluyen las politicas y las estrategicas. Todos estos estudios son, sin embargo, demasiado recientes y solo el futuro podra decir si la teoria de los juegos sera un instrumento tan eficaz e indispensable en las ciencias sociales, como la teoria matematica de la probabilidad ha resultado ser para las ciencias naturales.

Existen oportunidades para que nuevos genios matematicos desarrollen la teoria de los juegos según ciertas lineas, modificando, por ejemplo, su pesimista prejuicio acerca de la posibilidad de mantener el secreto de la propia estrategia o creando un sistema estrategico que sea mas ofensivo que defensivo. La recientemente nacida “teoria de la decision” contiene estudios que apuntan hacia dichas direcciones.

En el campo de la Economía propiamente dicha, la teoria de los juegos arroja nueva luz, no solo sobre las situaciones oligopolisticas sino tambien sobre los procesos contractuales. Ha dejado tambien su huella sobre la teoria de la utilidad, ha proporcionado importantes sugerencias para la construccion de una teoria de la decision y tiene tambien una raiz comun con la nueva teoria de la programacion matematica. En cuanto a la teoria de la utilidad, mientras la teoria neoclasica tendia a la medicion cardinal de la utilidad, el modelo de curvas de indiferencia daba una ordenacion ordinal según la preferencia. A estos metodos anadieron von Neumann y Morgenstern un nuevo tipo de teoria llamada de la utilidad cardinal, que fue desarrollada por ellos en relacion con su tratamiento de los juegos de estrategia mixta. En esta, la eleccion entre unas estrategias que implicaran riesgos requiere la construccion de una tabla de utilidad para obtener la escala de preferencias, numericamente ordenadas, de una persona, para ciertas estrategias que lleven riesgos consigo. A diferencia de la teoria neoclasica, esta tabla de utilidad no esta destinada a medir la intensidad de las sensaciones, y su carácter cardinal existe solo dentro del contexto de la teoria de los juegos y no dentro del de la teoria neoclasica.

Modelos de decision economica

La naturaleza y el alcance de la teoria de las decisiones son todavia objeto hoy dia de discusiones, las cuales no han dado aun conclusiones definitivas. La teoria de las decisiones ha sido estudiada tanto por los psicologos y especialistas de todas las ciencias sociales, como por los matematicos y los expertos en Estadistica.

Utilizando la tabla de utilidad construida por von Neumann y Morgenstern, los psicologos han hecho diversos experimentos destinados a comprobar si el hombre se comporta de una forma racional, es decir, si utiliza medios efectivos para satisfacer sus deseos. Estos estudios han coincidido en cuanto a orientacion con los realizados por los economistas, los cuales intentan desarrollar una teoria que dilucide la forma en que se realizan las decisiones economicas bajo situaciones de incertidumbre. En este trabajo, han resultado ser de utilidad muchos de los conceptos desarrollados en la teoria de los juegos. Sin embargo, y a diferencia de esta ultima teoria, la atencion se ha concentrado sobre las situaciones en que hay una completa incertidumbre en lo que respecta a los movimientos contrarios que amenazan a un determinado plan de accion: “juegos contra la naturaleza”. Las reglas de decision que han sido consideradas adecuadas para este tipo de situacion incluyen tambien el maximin y el maximax (escogiendose la estrategia de mejor resultado) y asimismo criterios intermedios a mitad de camino de dichos extremos. Se han utilizado tambien diversas aplicaciones de la teoria de la probabilidad en la teoria de la toma de decisiones, incluyendo el criterio de Bayes, que lleva su nombre por este matematico del siglo XVIII, que recomienda que entre varios cursos de accion que puedan ser frustrados por contingencias inciertas, se escoja el que de un resultado mayor. La teoria de las decisiones ha conducido igualmente a que se vuelvan a examinar los fundamentos de la Estadistica, que ha sido interpretada como un juego contra la naturaleza. La gran figura en este campo fue Abraham Wald, cuya obra converge tambien con la de von Neumann en otros aspectos.

Programacion

La programacion lineal, el analisis input-output y la teoria de los juegos estan todos en el mismo nivel maximo de importancia en cuanto a los metodos econometricos. La programacion lineal fue el resultado de un descubrimiento multiple de Kanterovich en 1939 y mas tarde por Dantzig y Koopmans. Hay tambien cierta relacion entre la programacion lineal y el trabajo de von Neumann en la teoria de juegos, ya que el juego rectangular se resuelve con la ayuda de los mismos procedimientos matematicos que se emplean en ciertos programas lineales.

Al igual que el calculo diferencial o la teoria de juegos, la programacion matematica forma parte mas de las Matemáticas que de la Economía politica. Sin embargo, fue ideada como una tecnica especificamente destinada a colaborar en la solucion de problemas economicos. La programacion lineal, tal y como ha sido desarrollada en EE.UU. habia de resolver ciertos problemas de programacion surgidos en los complicados calculos de la Air Force. Desde su descubrimiento, ha demostrado ser util para la solucion numerica de diversos problemas economicos practicos con los que tiene que enfrearse la direccion de las empresas. Facilita, por ejemplo, el envio de productos obtenidos en distintas plantas de produccion hacia los mercados fisicos con un coste logistico minimo, o la elaboracion de tipos especificos de gasolina a partir de crudos diferentes y tambien a un coste minimo. Cuando se utiliza en los procesos de produccion, la programacion lineal recibe el nombre de “analisis de actividad”.

“Programacion” significa planificacion o toma de decisiones y no, como podria pensarse, creacion de programas para ordenadores (aunque estos se han utilizado en la resolucion de problemas de este tipo). Se la llama “lineal” porque lleva consigo la manipulacion de funciones lineales, es decir, de funciones en las que las variables solo estan elevadas a la primera potencia y que, por consiguiente, pueden ser representadas por lineas rectas. En la teoria microeconomica convencional, las relaciones tipicas son descritas como no lineales y estan representadas en forma curvilinea. Si la programacion lineal se ha puesto en primer plano, se debe principalmente a que la teoria microeconomica tiene carácter formal y no facilita los calculos numericos de las variables que intervienen. Para aplicar las tecnicas de la programacion lineal a las relaciones entre las variables microeconomicas, estas deben suponerse transformadas en relaciones lineales, considerando que las curvas convencionales de la teoria microeconomica estan formadas por pequeños segmentos lineales.

Al igual que el calculo diferencial, en el que se basa la teoria microeconomica, la programacion lineal da tambien minimos y maximos de costes y beneficios, por poner un ejemplo. Sin embargo, en la programacion lineal, la maximizacion o minimizacion son objeto de ciertas restricciones como “desigualdades”o “inecuaciones” como son, por ejemplo, un espacio de almacenamiento limitado (hablar de la Economía como gestion de recursos limitados, restricciones, etc.), un numero limitado de maquinas o unas necesidades minimas de trabajo para manejar maquinas. Estas desigualdades reflejan el ambiente real en que se desenvuelven las empresas mejor que la teoria microeconomica convencional, mas abstracta y general. La inclusion de estas desigualdades en el instrumento de la programacion lineal hace aumentar la exactitud de los calculos numericos que proporciona.

Junto con la programacion lineal se han desarrollado tambien otras variantes de la programacion matematica de diferentes grados de complejidad para poder endretarse a situacion especiales. La programacion no lineal ha sido ideada para manejar situaciones que lleven consigo rendimientos decrecientes y la programacion entera para los casos en que las indivisibilidades requieran calculos en forma de numeros enteros.

Los grandes avances de la Econometría según las lineas de analisis input-output, la teoria de juegos y la programacion matematica, estan todos relacionados con un nucleo comun de operaciones Matemáticas que los vinculan tambien con otros avances de la Economía matematica. Estos avances a que nos referimos no invitan a primera vista a las aplicaciones practicas y estan relacionados con los aspectos matematicos de la teoria del equilibrio. Las aportaciones mas destacadas en esta materia fueron desarrolladas por Wald en un serie de articulos publicados en 1935 y 1936 y por von Neumann, en otro articulo tambien publicado en 1936.

Modelos de equilibrio

A finales de la decada de 1920, Wald abandono Rumania para trabajar en Viena con Menger. En 1938 llego a EE.UU. y se hizo famoso por su trabajo sobre la teoria de las decisiones estadisticas y por el analisis subsiguiente del muestreo y del control de la calidad. La mayoria de las aportaciones de Wald a la matematica pura y a la Economía matematica son anteriores a esta epoca y furon hechas durante la estacia deWald en Viena, donde la Economía matematica atrajo a Menger y otros. Fue alli donde Wald escribio varios articulos fundamentales de gran complejidad en los que investigaba la existencia y unicidad de los equilibrios economicos, indicando que habia algo mas que la mera enumeracion de las ecuaciones.

Como tan a menudo sucede en la historia intelectual hubo tambien otros que se sintieron atraidos por problemas similares a los que ocupaban a Wald. Su obra coincidio con el creciente interes en Inglaterra y EE.UU. por los aspectos relacionados con los equilibrios economicos, por su estabilidad y por la relacion entre la estatica y la dinamica, trabajo este que dio lugar al “Valor y capital”, de Hicks en 1939, a diversos articulos de Samuelson y otras notables aportaciones. La obra de Samuelson contiene el famoso principio de correspondencia, que subraya la dependencia formal entre la estatica comparativa y el analisis dinamico.

La atencion prestada por Wald a las Matemáticas de los equilibrios economicos es comparable tambien a los esfuerzos similares de von Neumann, que culminaron en su articulo de 1937. En este, von Neumann construye un modelo de equilibrio de una Economía de crecimiento uniforme bajo unas hipotesis fuertemente restrictivas. Tal Economía estaba caracterizada paor cantidades ilimitadas de recursos naturales y ausencia de rendimientos decrecientes. Dicho tipo de Economía se expandiria con una tasa de crecimiento igual al tipo de interes. El modelo tiene ciertos rasgos en comun con el primitivo estado de la sociedad que precede a la acumulacion de capital y a la apropiacion de la tierra de la que hablaba Adam Smith. Sin embargo, y por paradojico que pueda parecer, algunos aspectos del modelo se asemejan a las economias de paises subdesarrollados que actuan bajo condiciones de oferta de trabajo ilimitada y desempleo encubierto. El articulo de von Neumann ejercio una profunda influencia sobre las posteriores teorias matematicas de crecimiento economico que utilizaron conceptos tales como el “equilibrio de crecimiento de oro”, definido en ocasiones como un estado en el que la produccion de todos los bienes y de las fuerzas de trabajo crezcan en iguales proporciones. Estas teorias condujeron a su vez a los “teoremas del camino optimo” desarrollados por Samuelson y sus colaboradores que dilucidan la relacion existente entre los diferentes caminos de crecimiento y el que maximiza el crecimiento uniforme.

Avances europeos

La direccion de los estudios econometricos indica las presentes fronteras de la ciencia economica y es indicadora de las profundas transformaciones sufridas por la Economía politica en las dos ultimas decadas. Hay toda una galaxia de especialistas que llevan a cabo trabajos econometricos en numerosos paises. En los Paises Bajos, Jan Tinbergen es uno de los primeros exponentes de la investigacion econometrica de los ciclos de los negocios. Sus investigaciones, que utilizan el sistema de ecuaciones de la Economía del equilibrio general y las relaciones dinamicas, ha sentado un decisivo precedente para este tipo de trabajo. Entre los noruegos que han destacado en el trabajo econometrico estan Ragnar Frish, que compartio con Tinberger el primer premio nobel de Economía en 1969, y Trygve Haavelmo, el principal exponente de la aplicación del metodo probabilistico a la Econometría, en el que los datos del pasado sirven como parametros de las distribuciones de probabilidad de los datos futuros. La floreciente Economía matematica noruega y de los demas paises escandinavos, como el trabajo, por ejemplo, de Zeuthen en Dinamarca y de la escuela de Estocolmo, reflejan en parte la duradera influencia de Wicksell.

El metodo matematico se ha difundido tambien por Alemania, donde antes de la Segunda Guerra Mundial, solo fue cultivado en forma especial por unos pocos hombres entre los que destacan Schneider y von Stackelberg, el cual hizo conocidas aportaciones a la teoria de los mercados monopolisticos. Los cambios de orientacion politica e intelectual que siguieron a la Segunda Guerra Mundial pusieron fin a la preponderancia de la Economía historicista alemana. Desde entonces, la Economía matematica ha ido aumentando su ascendiente en dicho pais. Lo mismo puede decirse del Japon y de las economias sovieticas.

De particular interes es la irrupcion de la Econometría en Francia durante la posguerra, pais que fue patria de los grandes maestros de la Economía matematica pura, que fueron reconocidos alli solo de forma un tanto vacilante. Entre los econometristas franceses que hicieron un buen trabajo en la epoca comprendida entre las dos Guerras estan Divisia, Roy y Gibrat. La obra del primero, gran parte de la cual se desarrollo en el marco de la teoria cuantitativa del dinero, tiene rasgos comunes con la de Irving Fischer en EE.UU. Al igual que Fischer, Divisia contribuyo tambien a la teoria de los numeros indices. Entre las muchas aportaciones de Roy, destaca su analisis estadistico de la demanda. El trabajo de Gibrat incluye la lay del efecto proporcionado, conocida con el nombre de ley de Gibrat, que dice que la tasa de crecimiento esperada de una empresa es independiente del tamaño de esta; esta ley ha demostrado ser una hipotesis enormemente fructifera y ha sido comprobada por varios investigadores ingleses y americanos.

Tras la Segunda Guerra Mundial se inicio una nueva era con el trabajo de Massé y Allais, bajo cuya influencia se fueron llevando a cabo estudios econometricos por un numero creciente de jovenes especialistas discipulos de Allais. Este mismo reconocio a Irving Fischer como su maestro y al igual que este presto una atencion especial a la teoria del interes. Siendo ya ingeniero y con una mente imaginativa y de amplios intereses, se oriento hacia los estudios economicos durante la guerra. Sin ayuda de ciclioteca alguna y sin discusion academica, pero con ayuda de un ejemplar de la “Teoria del interes” de Fischer, reconstruyo por su cuenta el cuerpo principal de la teoria economica moderna. Su obra “Economía e interes” en dos volumenes, publicada en 1947, es un estudio de las condiciones requeridas por un optimo intertemporal, movido por caminos similares a los seguidos por los teoricos del crecimiento. Sin embargo, mientras estos ultimos expresaban sus ideas en forma de modelos hipoteticos basados en ciertas suposiciones, el de Allais era un programa para la accion, en el que las suposiciones eran convertidas en propuestas politicas, entre las que se incluia el mantenimiento de un tipo de interes igual a cero.

Al igual que Allais, muchos otros economistas franceses han sido tambien ingenieros civiles graduados en la prestigiosa Ecole Polytechnique. Han sido estos, en general, los que han cubierto los puestos administrativos encargados de la planificacion nacional, de la actuacion y de los programas de inversion de las industrias nacionalizadas y de la administracion de las empresas de servicio publico. Para los problemas encontrados en estos trabajos se han buscado soluciones econometricas, ciencia esta que encaja perfectamente para cuantos han estudiado ingenieria. Se ha realizado tambien trabajo teorico como respuesta a las nacesidades practicas; la estrecha relacion existente entre ambos tipos de trabajo puede ponerse de manifiesto mediante el ejemplo de Massé, el cual, tras una experiencia en la administracion de la industria electrica nacionalizada, llego a ser el responsable de la organización de la planificacio francesa y fue ademas autor de un autorizado estudio de las decisiones de inversion optimas en 1919.

En relacion con los precios y con los programas de inversion de las empresas publicas, los economistas franceses hicieron importantes aportaciones a la teoria del coste marginal distinguiendo entre el coste marginal de expansion y el de contraccion, que pueden no ser simetricos, y desarrollando tambien un razonado metodo de fijacion de precios de la electricidad con una nueva tarifa, la “tarifa verde”, con la cual las demandas altas son desalentadas y las inversiones en plantas generadoras reducidas. En un nivel de abstraccion mas alto y continuando el trabajo de Allais, Malinvaud estudio las relaciones intertemporales entre el equilibrio competitivo y el optimo de Pareto, orientandose hacia la Economía del bienestar y la teoria del capital.

Nada confirma mas positivamente el triunfo del metodo matematico que su victoria, tras un considerable retraso, en Francia. El metodo matematico puede no senalar, sin embargo, la perfeccion ultima de una etapa final de la ciencia economica. Nadie puede saber lo duradera que puede resultar la victoria de la Econometría ni cuando surgira un metodo rival en las ilimitadas fronteras de la ciencia. Mientras en los paises de habla inglesa la discusion critica sobre el valor del metodo matematico para la Economía y sobre sus limitaciones es cosa completamente del pasado, en Francia dicha discusion todavia prosigue. Por esta razon y tambien porque la Economía matematica procede del genio frances, por lo que podemos preguntarnos si la proxima fase de la ciencia economica, todavia por llegar, tendra nuevamente sus raices en Francia. Nadie puede pronosticar como sera dicha nueva fase, ni si las nuevas ideas seguiran desarrollando el metodo matematico o lo dejaran, por el contrario, de lado. Las grandes ideas implicadas en el analisis input-output, en la teoria de los juegos y en la programacion lineal fueron puestas en primer plano hace unos treinta años y, desde entonces, no se ha seguido ningun nuevo avance en Economía matematica, que sea comparable a ninguno de ellos en cuanto a su vital importancia.

Si surgen ideas provechosas desde el exterior de la Economía matematica propiamente dicha es posible que dichas ideas influyan sobre la Economía y den lugar a una fusion de elementos considerados hasta el presente como dispares. La energia potencial necesaria para dicha fusion esta encerrada en el trabajo de Perroux, quien cuenta con numerosos seguidores en la Economía politica francesa. Al igual que los institucionalistas americanos, Perroux es un critico de la Economía neoclasica y su obra tiene un sabor institucionalista. Como Schumpeter, que ha influido sobre el y a cuya obra dedica todo un libro, Perroux no se ha asustado de intentar desarrollar una Economía politica en la que encuentre lugar la franca especulacion acerca de los grandes problemas de la epoca. Tambien como Schumpeter, Perroux ha adoptado una actitud positiva frente al analisis matematico y ha dedicado un libro en el que se muestra mucho menos esceptico que Schumpeter, a exponer las tecnicas cuantitativas de la planificacion. Por otra parte, en 1961m en el prefacio de la gran sintesis de su obra “La Economía del siglo XX” ha anunciado su intencion de volver a resumir su pensamiento, hasta ahora expresado verbalmente, en forma de modelos algebraicos.

La queja principal de Perroux acerca de la Economía neoclasica esta basada en la observacion de que no presta atencion a ciertos aspectos vitales de la Economía y ello debido a su misma estructura y especialmente al concepto de equilibrio, que es el punto central de esta. La Economía del equilibrio supone la accion de unos sujetos economicos que estan coordenados por una apreciable medida de igualdad. El toma y daca reciproco producira en este caso ajustes y correcciones de las perturbaciones, Perroux rechaza este metodo porque va, según el, en contra de los hechos y porque oculta el papel desempenado por el poder economico del mercado. En su lugar, apoya una Economía politica, no de coordinacion entre iguales y de interdependencia funcional entre ellos, sino de subordinacion, es decir, una Economía en la que el sujeto economico dominante esta en un lado y el dominado en otro. De la misma manera que Schumpeter abrio el camino hacia la dinamica de la innovacion, asi tambien Perroux se ha propuesto revelar la dinamica de la desigualdad. No ignora el hecho de que han sido enunciadas teorias de las situaciones de mercados monopolisticos que pueden ser comparadas a sus propias ideas, pero insiste en que dichas ideas cubren solo un aspecto especial de una materia que exige ser tratada por medio de una teoria general. La teoria de Perroux del “efecto de dominacion” senala el carácter asimetrico e irreversible de las relaciones entre los sujetos economicos dominantes y dominados. Esta falta de simetria y de reversibilidad, afirma Perroux, hace que las relaciones de poder actuen en el mercado de forma diferente de las interdependencias que encontramos en la Economía de equilibrio. En vez de restablecer el equilibrio y de corregir automaticamente las perturbaciones, el efecto de dominacion puede producir cambios prolongados y acumulativos.

Perroux ha desarrollado su teoria del efecto de dominacion a varios niveles. A nivel de empresa, la empresa dominante obtiene con sus operaciones un superavit que va aumentando debido a unas ventas siempre crecientes y a unas compras al exterior siempre decrecientes con la consiguiente posicion de mercado que le garantiza unos precios favorables. Dicho superavit hace aumentar su capacidad para proveerse de medios adecuados para una financiacion interna, para la adquisicion y el control de otras empresas y para financiar o manipular de alguna otra manera la demanda de sus productos. Otro ejemplo del efecto de dominacion es la proponderancia dentro del marco de la macroEconomía moderna, del inversionista sobre el ahorrador. Los que controlan las decisiones de inversion estan en una posicion dominante respecto a los que ahorran. En otros niveles, el efecto de dominacion se hace sentir tambien en las “macrodecisiones” del gobierno y de otras entidades colectivas, principal elemento de coercion. Tambien a nivel internacional ha analizado Perroux el tema de la Economía dominante, arrojando sobre el nueva luz. Su teoria difiere del imperialismo que supone (como en todo su analisis del efecto de dominacion) que no hay intencionalidad por parte del poder dominante.

Los pensamientos bosquejados en los parrafos anteriores ofrecen solo una muestra de las muchas aportaciones hechas por Perroux a un nuevo tipo de teoria economica, menos pura y mas cercana a la realidad que la convencional. Al ser otra alternativa distinta a la Economía del equilibrio, su obra puede ser como una piedra puesta en el camino que haya de conducir hacia una nueva fase de la Economía. Si esta nueva fase ha de fundirse con la Economía matematica puede surgir quiza un institucionalismo econometrico o una eocnomia institucional que proponga nuevas cuestiones y que proporcione nuevas perspectivas para solucionar los viejos problemas de la Economía.

Metodos econometricos

La Econometría es una sintesis de teoria y experiencia. Nuevas leyes economicas pueden ser descubiertas y nuevas teorias desarrolladas, asi como viejas leyes verificadas. Este optimismo derivo de la gran fe en las tecnicas cuantitativas. Aun asi, el primer enfoque no fue empirico. Los econometristas dependen del metodo analitico basado en los ultimos avances en tecnicas estadisticas. Estos metodos fueron importantes al dar a los economistas de inicios del siglo XX nuevos modos de explicar el mundo y, sobre todo, parecia procurarles un nuevo estatuto cientifico.

Asi, cuando la Econometría emergio como una actividad en si al inicio de siglo, el uso de la estadistica y datos para verificar las relaciones de las teorias economicas ofrecio un nuevo metodo de investigacion. Antes se atendia a la introspeccion personal y observacion causal hasta el empirismo de los historiadores de la Economía. La nueva Economía se sustentaria sobre una tecnologia mas solida y sus utiles serian herramientas estadisticas, modelos matematicos y calculadoras automaticas. Podemos afirmar que en la decada de los 40, la nueva disciplina se hallaba perfectamente asentada.

El programa econometrico ha cambiado en los ultimos tiempos. Al inicio, los economistas fundian conscientemente la Economía y las Matemáticas, hasta el punto que, entre sus objetivos, la Econometric Society tenia la promocion de estudios que unificaban el teoria y la practica a los problemas economicos. Asi, cualquier enfoque que promueva laa unificacion de estudios teoricos y cuantitativos en la Economía, entrara en la esfera de interes de la Sociedad.

Para los economistas de la primera mitad del siglo XX, la union de Matemáticas y Estadistica con Economía era el ideal cientifico de sus estudios.

La aparicion del ideal, de la union de Economía matematica y estadistica emergio a principios del siglo XX, es una cuestion sumamente interesante. La Matematica se pensaba que fuese esencial en el desarrollo posterior de la Economía como disciplina cientifica deductiva. Se creia que el uso de las Matemáticas, calculo y algebra, en concreto, llevaria a la claridad en la expresion de teorias (y las asunciones que involucraban) y que el proceso razonamiento matematico convertirian los argumentos economicos mas rigurosos. No obstante, tal enfoque fue adoptado por un numero limitado de economistas a finales del XIX. El metodo solo fue de uso comun despues de 1930. Los ejemplos numericos e ilustracion geometricas se introdujeros para ayudar a explicar ideas antes que el algebra y el calculo diferencial se empleasen en el desarrollo de teorias, pero incluso estos fueros relativamente pocos antes de 1900.

Comparativamente, el uso de datos estadisticos en Economía tiene una larga vida desde la escuela de Petty y Graunt a finales del siglo XVII. Pero no hubo una tradicion continuativo hasta el desarrollo de la ciencia estadistica del siglo XIX que fue asociada particularmente con las emergentes ciencias sociales. Se pensaba que la aplicación de analisis estadisticos mejoraria el lado inductivo de la Economía y asi fue cuando se fue depurando a lo largo del siglo XIX el uso de datos estadisticos en Economía. Los datos estadisticos se demostraron sumamente utiles en el establecimiento de constantes economicas, razonamientos y medidas de variables economicas (de las cuales los datos mas sofisticados fueron la construccion de numeros indices).

Los comienzos no fueron faciles, pues en un principio los datos economicos disponibles eran insuficientes y no todas las variables teoricas eran medibles. Los metodos estadisticos no estaban lo suficientemente avanzados como para asignar valores numericos a las complejas leyes causales del comportamiento que predominaban en las teorias economicas. Incluso a finales del siglo XIX los metodos estadisticos dificilmente podian coadyuvar al progreso de las ciencias sociales si no era estableciendo ciertas regularidades en el comportamiento de las variables. Incluso disponiendo de datos y metodos apropiados, los economistas matematicos raramente adaptaban sus teorias para permitir su tratamiento estadistico.

J. N. Keynes en 1891 aprecio que las representaciones geometricas tratadas por economistas matematicos permitian ser operadas como herramientas estadisticas, pero tales representaciones geometricas eran aun muy poco habituales.

En definitiva, los economistas del siglo XIX creyeron que las Matemáticas y la Estadistica seguian cursos diferentes. Las primeras servian fundamentalmente a fines deductivos y las segundas a fines inductivos.

Jevons, que fue uno de los pioneros en la aplicación de metodos cuantitativos en sus analisis economicos, expreso tanto la situacion actual de la Economía cuantitiativa como sus propias impresiones al escribir: “la ciencia economica deductiva debe ser verificada y su uso practico permitido por la inductiva ciencia estadistica (...) si bien las dificultades de tal union son enormes”.

Podria responderse que deberiamos mirar no al desarrollo de los metodos matematicos, sino al de la historia de los economistas para entender de donde proviene el analisis cuantitativo economico. Aquí podemos tambien sugerir ciertas hipotesis, pero no dar respuestas ciertas.

En una de las pocas descripciones sistematicas del surgimiento de la cuantificacion en los inicios del siglo XX, Spengler discute tanto los estilos nacionales como las escuelas de pensamiento. Sugiere que la cuantificacion florecio en la escuela Neoclasica y que Marschall y Edgeworth fueron los principales responsables de su éxito, al creer ambos en la complementariedad de los metodos inductivo y deductivo en Economía. No obstante, Marschall dedico poco tiempo a la Economía estadistica y ello explica en parte el considerable retraso del Reino Unido en los inicios de la disciplina. El otro gran pionero matematico neoclasico, Walras, junto con su compatriota Cournot, no tuvieron tiempo para la Estadistica.

En los EE.UU., el mas importante pionero de los econometristas americanos, Moore, desarrollo sus analisis cuentitativos debido al desencanto que le suscitaban las ideas y modelos neoclasicos. A pesar de que los econometristas de los años 30 remontan sus estudios a la tradicion de Cournot, Walras y Marschall como derivacion de la escuela neoclasica, lo cierto es que todos ellos ignoraron los importantes progresos de la Economía empirica.

Los economistas de finales del siglo XIX de escuelas convencionales tendieron a acoger la creciente riqueza de datos estadisticos sin la necesidad de desarrollar explicaciones estadisticas. En Alemania, la escuela historica de economistas politicos formo el nucleo de un circulo intelectual mas amplio que acogio con entusiasmo el pensamiento estadistico. Este circulo genero estrechas relaciones entre pensadores estadisticos como Lexis y Engel y economistas historicos como Schmoller. Craver y Leijonhufvud han estudiado como este nueva tendencia empirica estadistica entro en las escuelas institucionales americanas a finales del siglo XIX (muchos de cuyos miembros habian estudiado en Alemania con economistas de la escuela historica) y como este enfoque estadistico fue exportado a Europa en los años 20.

Pero los economistas americanos que aceptaron las pruebas estadisticas fueron a menudo los mismos que con mayor violencia rechazaron los metodos y modelos matematicos.

Dejando aparte a los EE.UU., los entornos mas fertiles para el desarrollo practico de la Econometría en los inicios del siglo XX se encontraron en Holanda y Escandinavia, si bien Spengler sostiene que los economistas holandeses no tuvieron un brillo particular en Matematica ni Estadistica, mientras que los escandinavos tuvieron éxito en Matemáticas pero mostraron escasos progresos en Estadistica. En su consecuencia, y a pesar de sus interesantes comentarios sobre Economía matematia y estadistica (por separado), Spengler no nos ayuda a formarnos una idea clara acerca del desarrollo personal por el que emergio la Econometría.

Despues de Lausanne

Esta busqueda retrospectiva en la Economía del siglo XIX puede tener sentido al carecer los economistas de inicio del siglo XX una fuente clara de inspiracion. Podemos caracterizarlos como un conjunto de estudios con clara vocacion internacional, distintas experiencias intelectuales y creencias economicas. El estilo nacional, por tanto, parece importar menos que el entusiasmo personal generado por el programa metodologico comun que se estaba implantando.

Asi, Frisch recordando el primer encuentro de la Econometric Society de Lausanne en 1931, declara: “los economistas de Lausanne estabamos tan ilusionados con la nueva aventura y tan deseosos de dar y recibir, que casi no teniamos tiempo de comer en los almuerzos y cenas con nuestras notas circulando por las mesas para desesperacion de los camareros”.

Este analisis sobre las relaciones entre econometristas y la mas amplia comunidad cientifica del siglo XX sigue siendo una de las mas importantes empresas para el futuro. El lugar mas fructifero para iniciarlo podria ser el entorno de los estadisticos, al ser el contenido y evolucion de su programa en sus primeros años fuertemente influido por el desarrollo de la Estadistica. (Mas adelante, la Economía matematica y estadistica se dividirian de nuevo dejando a la Econometría en el lado de la Estadistica.)

Cuando consideramos la historia de la Estadistica descubrimos que esta lejos de demostrar un desarrollo aislado, ya que los metodos estadisticos y pensamiento probabilistico se encontraban plenamente introducidos en la ciencia de principios del siglo XX. Pocos campos cientificos permanecieron inalterados si bien el pensamiento estadistico y la probabilidad no penetraron al mismo nivel en cada disciplina, como en Biologia o Psicologia. Las tres disciplinas fueron afectadas por los calculos inferenciales, en particular con el uso de metodos estadisticos para desarrollar leyes generales.

Recientemente, T.M. Porter y S.M. Stigler han destacado la importancia del modelo de Quetelet del comportamiento humano. En general, las personas se comportan de un modo impredecible, pero reunidos todos juntos, estos aparentemente distintos sujetos obedecen las leyes de los errores que los separan del “hombre medio”. Esta observacion de regularidad estadistica en los asuntos humanos demostro un potendial inmenso. Asi, Porter muestra como la estadistica social llevo a los fisicos a desarrollar por analogia la mecanica estadistica (hipotesis que me parece sumamente pretenciosa. El hecho de que distintos estudiosos trabajen en paralelo un campo apena abierto al estudio no debe levarnos a pensar en la mutua influencia entre ambos). Para Stigler, las teorias de Quetelet levantaron barreras a la transferencia de tecnicas de inferencia de la Astronomia a las emergentes ciencias sociales.

La influencia de Quetelet se refleja en la interpretacion tipica de regularidad estadistica del siglo XIX, que podemos hallar en la discusion de Mill sobre los metodos de inferencia cientifica. Asi tomando varias observaciones a la vez podremos eliminar las circunstancias debidas al azar y la regularidad estadistica que emerge de los datos verifica que o bien una ley causal o bien una constante explica tal comportamiento.

A pesar de la fiabilidad matematica de tales experimentos, debe notarse (como destacaba Stigler) que determinados comportamientos no son analizables por medio de la inferencia estadistica, como los suicidios, por ejemplo.

La solucion a tales problemas comenzaron a finales del siglo XIX con la reinterpretacion del comportamiento de la gente no en terminos de errores, sino como variaciones naturales o reales debidas a los complejos asuntos humanos. Porter considera este el segundo ciclo del pensamiento estadistico, cuando la “ley de los errores” se convierte en “distribucion normal”. Esto giro condujo al desarrollo de leyes estadisticas de herencia en genetica, regresiones y correlaciones. Estas relaciones similares a leyes son importantes al ser, según Hacking, las primeras leyes estadisticas propiamente dichas, leyes que ofrecen una explicacion eficiente de fenomenos sin tener que referirse a las causas originantes. En opinion de Porter, la adopcion de tales modelos estadisticos libero a las ciencias sociales y naturales del determinismo cientifico del siglo XIX and produjo un florecimiento del trabajo estadistico en diversos campos aplicados y al desarrollo de la teoria de la estadistica matematica. Stigler sostiene que fue gracias a la contribucion de Yule la conexión de estas nuevas leyes estadisticas con el viejo metodo de minimos cuadrados que empleaban los astronomos y que posibilito el empleo de la regresion en los estudios estadisticos posteriores. Esta transformacion hizo posible ademas el desarrollo de los analisis de mas de una variable en los que podia controlarse estadisticamente una variable mientras se analizaba el comportamiento de las restantes.

J.L. Klein, por su parte, ofrece otra version de la historia. A su modo de ver, tanto la Biometria como la Econometría fueron desarrolladas por la necesidad incorporar variaciones temporales a los analisis. Asi, a la variacion logica (no temporal) en los fenomenos humanos le fue concedida ina identidad estadistica en terminos del “hombre medio” de Quetelet y la distribucion normal de Pearsons. Para proporcionar una variacion temporal entre generaciones, los biometristas generaron las relaciones de correlacion y regresion. Los econometristas adoptaron estas herramientas junto con otras nociones de procesos estocasticos de la Astronomia para caracterizar las relaciones economicas a lo largo del tiempo.

Estos enfoques encierran una pregunta comun: ¿Por qué los economistas necesitaron la Estadistica? La razon es la posibilidad que ofrecen las tecnicas estadisticas de sustituir el metodo experimental. La idea de un experimento cientifico controlado es reproducir en un laboratorio las condiciones requeridas por la teoria y entonces manipular las variables relaventes para medir el parametro considerado o verificar una ley. Cuando los datos no pueden ser recogidos bajo condiciones controladas o no proceden de experimentos repetibles, entonces la relacion entre los datos y la ley teorica puede que no sea real.

Este problema, por supuesto, no lo tenia tan solo la Economía. Aparecio en otras ciencias sociales y en ciencias naturales donde los experimentos controlados no eran posibles. Para constatar de que manera la Estadistica encaja aquí, debemos volver una vez mas al siglo XIX, cuando los economistas que buscaban un perfil mas cientifico para sus analisis aceptaron que el metodo experimental no era aplicable a su caso.

Un sustitutivo del metodo experimental en el siglo XIX fue el metodo tendente a extraer regularidades, patrones repetitivos o relaciones constantes de un conjunto de datos. La habilidad de la Estadistica para discernir el orden del caos consituyo una innovacion esencial en la Estadistica social del siglo XIX. No obstante, las ideas estadisticas de entonces no proporcionaban en todos los casos las respuestas exactas a los problemas del siglo XX.

“La investigacion de relaciones causales entre los fenomenos economicos presenta diversos problemass de gran dificultad y ofrece numerosas oportunidades para llegar a conclusiones falaces. Dado que el estadistico raramente puede realizar experimentos, debe aceptar los datos de la experiencia diaria, y discutir lo mejor que pueda las relaciones de un conjunto de cambios; no puede, como el fisico, reducir el problema a la variacion de un solo parametro en el tiempo. En este sentido, los problemas de los estadisticos son mucho mas complejos que los de los fisicos”.

Las complejas leyes causales de las ciencias sociales y biologicas precisaban de metodos de medicion disenados para neutralizar o permitir los efectos de las circunstancias variables bajo las cuales los datos habian sido recogidos bajo condiciones ideales en el experimento. Estas son precisamente las caracteristicas que Stigler cita para sustentar su teoria de aparicion de los nuevos metodos estadisticos de la escuela Biometrica; metodos de medicion que permitirian a los cientificos del siglo XX algun grado adicional de control sobre datos no obtenidos experimentalmente para asi poder hacer frente a la pluralidad de causas.

Parece que las condiciones necesarias para el exitoso desarrollo de la Economía estadistica fueron alcanzadas en los albores del siglo XX, pero debemos ser cautos pues resulta sumamente complejo adaptar herramientas estadisticas de un campo cientifico para aplicarlas a otro. Asi, en Biologia, Fischer diseno tecnicas para neutralizar los efectos de factores incontrolables en experimentos agricolas. Psicologos como Thurstone desarrollaron metodos para medir efectos inobservables en los pacientes. Ninguna de ellas es aplicable en Economía, si bien los problemas que afrontan son similares.

Provistos de herramientas generalistas, los econometristas deben desarrollaran aun sus propias soluciones estadisticas para cubrir los huecos existentes entre las condiciones emanadas de la teoria y las condiciones bajo cuyos datos se recogieron. Seria erroneo suponer que haciendo esto, los economistas estuviesen experiementado conscientemente por su cuenta; en cambio, tratan de medir y controlar estas diferencias entre teoria y realidad que se dan en su trabajo aplicado. Solo mas tarde comenzaron las discusiones teoricas y buscaron soluciones generales para sus problemas practicos.

A continuacion mostraron con tres casos el desarrollo expuesto en las lineas precedentes.

Ciclos economicos

Los economistas del siglo XIX no aceptaron la edia de la existencia de ciclos regulares en la actividad economica. En su lugar, pensaron en terminos de “crisis”, un palabra que implicaba un nivel anormal de actividad y empleada en diferentes sentidos: podia significar panico financiero o el periodo de mas profunda depresion cuando se cerraban las fabricas. Una crisis financiera no era seguida necesariamente de una depresion economica, sino que podia tratarse de un fenomeno exclusivo de los mercados de capitales.

Hubo unas pocas excepciones entre los economistas y los comentaristas industriales que reconocieron un patron ciclico en la actividad economica (por ejemplo, Marx). Ademas, no hubo una teoria concordada sobre que era lo que causaba las crisis si bien no habia duda de que en ocasiones no solo los economistas, sino cada persona tenia su propia tesis sobre las causas de las crisis. Un ejemplo, “el primer informe anual del comisario del trabajo” de los EE.UU. en 1886 proporcionaba una lista de todas las causas de las depresiones economicas destinada al Congreso. Entre ellas se encontraba la guerra, la destruccion de capital, los agitadores sociales, etc.

Nunca se consiguio aclarar las causas recurriendo a la evidencia empirica según los intrumentos disponibles en el siglo XIX. La razon de fondo consistia en la imposibilidad de acceder a las causas de el complejo comportamiento de la Macroeconomia a lo largo del tiempo mediante la observacion de hechos escogidos al azar. En particular, la escuela historia de Alemania fracaso con este enfoque.

La introspeccion, en cambio, parecia mas apropiada para el estudio de la Microeconomia.

Con este desolador panorama de fondo se inicio el estudio de los ciclos economicos a finales del siflo XIX. El desarrollo del enfoque estandar no fue directo alno haber una definicion clara de los fenomenos. ¿Habia ciclos? ¿Eran solo tendencias? Los economistas trataron de resolver estas y otras cuestiones por medio de pruebas, pero habia muchas formas distintas de recoger datos, analizarlos y explorar relaciones de interes.

Por lo que respecta a los datos, habia muchos disponibles, a pesar de que los ingresos medios individuales a nivel nacional no eran estiamdos aun, si se sabia algo sobre los precios, produccion y mercados financieros, lo que permitio trabajar en ciclos economicos.

Las fases podrian resumirse asi:

1. Primeros intentos de formulacion de teorias sobre la existencia de ciclos economicos reconocibles mediante una serie de hechos estandar susceptibles de observacion.

2. Rechazo de teorias generales. Cada ciclo debe analizarse separadamente. Se emplean tecnicas estadisticas para la corroboracion de hipotesis.

3. Por fin, las aplicaciones estadisticas a series temporales permiten controlar las caracteristicas basicas para el entendimento de los ciclos.

Analisis de la demanda

La idea de que los precios varian de forma inversamente proporcional a la cantidad demandada y directamente proporcional a la ofertada fue establecida en epocas muy antiguas, si bien algunos autores sostienen que en la Economía clasica tales leyes no fueron bien definidas ni consistentes. Sin embargo, o quizas a causa de ello, el deseo de hacer mas cientifica (tanto para expresar de formas mas exacta las teorias como para proporcionar un conocimiento mas potente basado en datos empiricos) encontro una expresion mas desarrollada en el lado de la demanda. De hecho fue una de las areas que primero recibio una represantacion empirica y grafica.Se piensa que esto ocurrio por vez primera gracias a Cournot en 1838, si bien sus contribuciones al desarrollo de la Economía no fueron apreciadas ante mucho despues.

En torno al año 1870 se sentaron las bases de la teoria del valor desde el lado clasico de la concentracion de la oferta hasta el nuevo analisis del consumidor individual.

Blaug describe en 1968 como se desarrollo esta teoria a lo largo de dos lineas de pensamiento, las de Marshall y Walras.

Walras siguio el primer trabado de Cournot y empleo la cantidad como variable dependiente. Represento la relacion precio - cantidad como la cantidad demandada u ofrecida a un determinado precio (manteniendo constante las demas costantes) y el ajuste del desequilibrio en el mercado se realizo mediante un cambio de precios. En el apendice se resume la teoria economica desarrollada por este autor.

Marshall, por su parte, considero el precio como variable dependiente. Sus sistema se baso en la determinacion del precio al que consumidor y vendedor acordarian el intercambio, ajustandose el modelo mediante cambios de cantidad. Su formalizacion de la teoria de la demanda proporciono modelos a los que tanto los razonamientos matematicos y pruebas estadisticas pueden ser facilmente aplicados En el apendice se detalla el pensamiento economico de Marshall en la parte relevante con nuestro discurso.

Cournot y Jevons habien pensado que las leyes numericas de la demanda podian determinarse empiricamente. Jenkin, por su parte, discutio la posibilidad de determinar experimentalmente las leyes de la demanda y oferta a partir de las variaciones de precios y cantidades de año en año.

A finales del siglo XIX, Keynes aun era optimista sobre el éxito de la medicion de demanda, pero aun no llego a saber las dificultades que se encontrarian. El propio Keynes describio tales problemas:

“Con una mejor Estadistica (...) podria ser posible delimitarse empiricamente la demanda en terminos de su variacion respecto al precio para ciertos articulos de uso general. Como dice Cournot, “si suponemos que las condiciones de demanda no varian, sino que cambian las de oferta, ya que los gastos de produccion suben o bajan, (...) entonces los precios variaran y los cambios de la demanda nos proporcionaran las tablas empiricas”. Pero tambien es reconocido por Cournot que las condiciones de la demanda raramente permanecen constantes aunque se trate de un periodo de tiempo corto. Siempre se cerifican cambios en costumbres, rentam y demas que causan cambios de la demanda a un precio dado. Ya que a pesar de todo, los calculos estadisticos deberian cubrir un periodo de tiempo mas o menos largo, es previsible que sean viciados por los efectos de cambios como los mencionados antes, a menos que estos puedan ser previstos y estimados”.

De tal modo, los economistas entendieron los problemas apuntados por Cournot y claramente determinados por Keynes.

El primer analisis estadistico de la demanda inicia con un poderoso cuerpo de teorias generalmente aceptadas, y la definicion del rol de la Econometría como la medicion de las leyes de la demanda y la busqueda de los parametros numericos de tales variaciones.

Esto se halla en contradiccion con los analisis estadisticos de los ciclos economicos, donde buena parte de los primeros trabajos se concentro en la definicion y aislamiento de los ciclos en los datos. La presencia de muchas teorias sobre ciclos se asocio con el desarrollo de varios modelos distintos del ciclo y diferentes enfoques del analisis.

El acuerdo general de la teoria en el caso de la demanda, se asocio con una menor diversidad en el enfoque estadistico y saco a la luz dos tipos de problemas.

El primero consiste en reconciliar los requisitos de la teoria con las condiciones bajo las cuales los datos se recogieron. Esta interaccion entre los medelos teoricos de demanda y las mediciones estimularon los desarrollos de la modelizacion econometrica.

El segundo grupo de problemas hace referencia a la identificacion de relaciones empiricas de la curva de demanda. Esto supuso tanto el aislamiento de la identificacion como problema aparte como su solucion.

Modelos formales

En esta parte se aborda como los economistas consiguen consolidar las ideas sobre teoria economica y datos empiricos. Se desarrollaron tres modelos formales del modo en que se las relaciones estadisticas observadas se corresponden con las relaciones teoricas esperadas. Cada modelo proporciono una explicacion del hueco entre teoria y datos y una racionalizacion de la respuesta aproxinada que se encontro.

El primer modelo estas aproximaciones en terminos de errores de medicion. El segundo descansa en las variables omitidas en la ecuacion. El tercero proporciona una explicacion mas general de la relacion entre resultados empiricos y teoria economica tratando la relacion teorica como probabilistica. Cada uno de ellos dispone de un analisis estadistico propio.

Hasta ahora, se fue desarrolando la Economía en un contexto aplicado. Los economistas fueron respondiendo (no siempre con éxito) los problemas con los que se encontraban. En los apendices se muestran las conclusiones de estos analisis a traves de las teorias concretas que se desarrollaron a lo largo del siglo XX.

Conclusiones

El problema fundamental con el que se encontraron los economistas, tal y como se ha puesto de manifiesto en otras partes de este estudio, consistio en el aislamiento y control de los datos empiricos asi como en su relacion con la teoria pre-establecida. Se sugirio una forma alternativa de estudio experimental en el que la teoria economica podia ser reconstruida para ajustarla a los datos recogidos.

No obstante, por razones practicas, los elementos de ambos enfoques resultaban necesarios. Obviamente, no podian ajustarse los datos a la teoria, sino lo contrario. Ambos, teoria y datos, debian ser flexibles en el intento de traer ambos elementos al punto en el que la medicion estadistica y el control pudiesen llevarse a cabo.

El metodo de ajuste propuesto por Haavelmo fue el empleado por los economistas en el periodo anterior a 1940. El campo de la demanda demostro que la metodologia funcionaa. Los economistas eran conscientes que debian interpretar los datos según el marco teorico considerado. Pero también apreciaron que debian modificarse las teorias para alcanzar el éxito. Estas diatribas paracian mas filosoficas que economicas, pero afectaban al trabajo diario de los economistas.

La mas esquiva de estas tempranas dificultades (al menos para los historiadores) se refiere a a la interpretacion de los resultados econométricos. Los estudiosos emplearon correlaciones y minimos cuadrados como herramientas habituales vacilando entre distintas interpretaciones de los resultados. En ocasiones se favorece el modelo deterministico del XIX, con relaciones exactas y medicion de errores. En otras, se adoptaron las ideas mas recientes e interpretaron las relaciones economicas como “leyes estadisticas” con la sugerencia que reflejaban un comportamiento medio o que eran descripciones de covarianzas sin interpretaciones causales.

La incertidumbre de la nueva interpretacion surgio al no estar seguros los economistas del tipo de fenomenos que trataban de explicar. Tempranamente, sin embargo, los economistas dispusieron de dos ejemplos de interpretacion y explicacion. Primero, la descripcion de Quetelet del comportamiento medio (“el hombre medio”) y el desvio individual (distribuida a traves de la ley de los errores). La segunda explicacion vino de la ley de regresion de Galton, que explico el patron del comportamiento acumulado en terminos de procesos estadisticos.

Ninguna de estas interpretaciones de la relacion estadistica estaba relacionada con la Econometría. Con Haalvelmo la profesion pareceo haber llegado a un definitivo consenso con un modelo estadistico de causas y errores economicas en las relaciones. Pero al mismo tiempo, el viejo ideal cientifico habia cambiado, desde el determinismo a la vision probabilistica del modo en que se trabajaba. Esto dejo el modelo de Haalvelmo abierto a nuevas dudas. ¿Estaba basado el azaroso comportamiento de las variables economicas o era al fin y al cabo un modo conveniente de afrontar formalmente con la inferencia en un marco no experimental?

Retrospectivamente, apreciamos una cierta libertad en estos inicios. Se permitia una rica diversidad de ideas, practicas e interpretaciones. A pesar de que se consiguieron dar pasos importantes, tanto en lo que respecta a las soluciones individuales como en la idea central del modelo econometrico como intermediario de teoria y datos, los economistas sufrieron una falta de tecnicas generales y reglas de desarrollo de “metodos experimentales”. Tales reglas fueron fijadas por Haavelmo hacia 1944 y codificadas por la Comision Cowles. Los textos de la epoca se refieren a tales reglas como la alternativa valida al metodo experimental de la ciencia.

Con tales avances, la Econometría, que entre tanto se hizo con un nombre propio como Economía aplicada, se diferencio de la Economía estadistica. La diferencia entre ambas se aprecia en sus actitudes hacia el papel de la teoria y la inferencia. Los economistas estadisticos creian, con Quetelet, que las regularidades y relaciones que apreciaron emergerian de los datos. Los econometristas, por el contrario, creyeron que los datos solo mostrarian sus secretos cuando encajasen con la teoria correspondiente (bajo forma del correcto modelo econometrico) y la inferencia probabilistica.

Pero si hubo progresos en el establecimiento de leyes econometricas, hubo tambien decepciones importantes, ya que en el periodo posterior a Haavelmo, mientras la Econometría se adentraba en las nuevas tecnologias, quedaban atrás para siempre interesantes ideas de los inicios. Por ejemplo, el importante concepto de “autonomia” de Frisch desaparecio en torno a 1950. Los modelos dinamicos se hundieron bajo el peso de los modelos estaticos keynesianos, las teorias de equilibrio general y las sistemas de ecuaciones de Cowles. Esto muestra solo una parte de los importantes realizados en los años 40. Mientras la Comision Cowles formulaba problemas teoricos que proporcionaban soluciones generales, los modelos matematicos y estadisticos quedaban colpsados en un unico modelo matematico.

La naturaleza de la Econometría aplicada tambien cambio con las nuevas reglas. Al inicio, se aplicaba al mero dato mucho mas que la simple tecnica estadistica; la Econometría era creativa y reunia la teoria y la practica en la explicacion del mundo. Para estos estudiosos, resultaba censurable aplicar una teoria a ciertos datos sin entender las condiciones de medida, asi como emprender medidas sin ninguna teoria que las apoyase. Con la creacion de reglas de diseno experimental y la formalizacion del enfoque de Haavelmo, la Econometría aplicada parecio entrar en una fase mucho menos creativa. Los datos se tomaron con menor seriedad como fuente de ideas e informacion para los modelos econometricos, y el papel del desarrollo de teorias de la Econometría aplicada fue degradado respecto al papel de testeo de teorias. La nocion de modelo econometrico sufrio un cambio de significado bajo la presion de tales cambios. Los modelos, asi, pasaron a ser considerados como extensiones pasivas de teorias economicas del mundo real, como el componente estadistico de la Economía pura en lugar de representantes de una Economía sintetica en la que el conocimiento teorico y la informacion del mundo real eran integrados.

En la primera mitad del siglo XX, los econometristas se encontraron realizando una amplia gama de tareas. De la precisa formulacion de teorias matematicas en Economía al desarrollo de actividades necesarias para construir un modelo; de la aplicación de metodos estadisticos en la preparacion de datos a la medida y control de modelos. Se desarrollaron conjuntamente la Matematica y la Economía, asi como la Estadistica. Entre 1920 y 1940, las herramientas de la segunda y tercera disciplina fueron empleadas conjuntamente en el desarrollo de la Economía. Pero la naturaleza cambiante de la empresa econometrica en los 40 provoco una vuelta a la division del trabajo, de forma que los economistas desarrollan teorias y los econometristas centrados en la Estadistica. En los 50, el ideal de fusion de las disciplinas fracaso definitivamente.

Apendices

Adam Smith (1723-1790)

Adam Smith (1723-1790) nace en Escocia. Fue reconocido gracias a la Riqueza de las Naciones y por sus aportaciones en filosofía, ética y teología. Adam Smith recoge todo el pensamiento liberal y lo hace suyo. Se fija en Cantillón al cual cita en sus libros. Une todo el pensamiento liberal en un sistema económico que explica la realidad económica de su tiempo.

La base de su pensamiento es filosófica; para él el individuo es libre por naturaleza y la libertad es un derecho innato para el hombre. Y esa libertad la confronta con el derecho del Gobierno a decir al individuo lo que debe hacer. Así, los gobiernos son una creación de los hombres y son posteriores a los derechos innatos de los individuos. Por ello, el Estado no puede imponer su voluntad sobre los individuos. Los derechos del estado son posteriores a los derechos del individuo. El estado no debe intervenir en las cuestiones que guarden relación con las actuaciones económicas de los individuos. Además, por regla general los burócratas hacen mal las cosas, con lo cual lo mejor es que no intervengan para nada.

Para Adam Smith los individuos son egoístas, pero si se deja a los individuos guiarse libremente por ese egoísmo una mano invisible los llevará hacia el bienestar común. No es necesario, pues, que el individuo esté guiado por buenos sentimientos, basta con dejarle actuar libremente en busca de su mayor beneficio, que será el beneficio de la propia sociedad. Ha de existir, eso sí, competencia entre los individuos. En situación de monopolio el egoísmo es desmesurado. Este ataque a los monopolios también se debe a que en esta época el estado era el que concedía los monopolios. Así el estado no debía intervenir para nada en la economía.

El valor de una mercancía para la persona que la posee y que tiene intención de intercambiarla por otras mercancías es la cantidad de trabajo que puede comprar con la misma. El trabajo es la medida real del valor de las cosas. Cuando una persona llega al mercado a comprar un bien está cambiando una cantidad de trabajo por otra. Para hacer comparaciones entre cantidades de dinero la moneda facilita todo intercambio. Esto ocurre únicamente en las economías simples. En las economías avanzadas, además del trabajo, hay otros dos factores que aportan valor a la mercancía: el capital y los recursos naturales (tierra). Al capital se le paga con un beneficio y a los dueños de los recursos naturales con una renta.

La teoria de los precios se desarrolla con ideas que parten de Cantillón. Existen dos tipos de precios, los precios de mercado a corto plazo y los precios naturales a largo plazo. También existe una diferencia entre demanda absoluta y demanda relativa. La relevante es la demanda efectiva, que es aquella demanda que está dispuesta a pagar el precio natural del bien que desea adquirir.

John Stuart Mill (1806-1873)

Mill tocó cuatro áreas fundamentales:

  • Ciencia económica.

  • Concepto de utilidad.

  • Libertad individual.

  • Teoría del gobierno representativo.

Fue un autor clásico pero muy crítico con los contemporáneos. En 1869 cuando se alejó de la doctrina del fondo de salarios se acabó la doctrina de la Escuela Clásica. Vamos a considerar aquí su primer libro, que se divide en dos partes:

  • En la primera se trata sobre la teoría económica, es decir, sobre las leyes económicas de la producción, que para él son inamovibles, naturales.

  • La segunda trata sobre política económica, “leyes sociales de la distribución”. Estas no son naturales, dependen de la voluntad humana, y están basadas en valores, costumbres y gustos cambiantes.

  • Asume la ley de Say y la doctrina de Malthus, y aceptó al principio la doctrina del fondo de salarios. Para Mill, la acumulación de capital tenía un papel fundamental en el progreso económico. Se olvida con frecuencia que la gente de un país se mantiene y prevé sus necesidades no con el producto del trabajo actual sino con el del pasado. Para Mill el desempleo de recursos no era posible, el ahorro se convertía automáticamente en inversión; nunca pensó que se podía dar una oferta excesiva de bienes. Asumía la Ley de Say. Y, al igual que Ricardo, creía que la economía, debido a la ley de los rendimientos decrecientes y a la caída de los incentivos, se veía empujada de un estado progresivo a un estado estacionario. Ahora bien, para Mill el estado estacionario era deseable porque suministraba condiciones necesarias para el ambicioso programa de reforma social que quería desarrollar. Una vez alcanzado el estado estacionario podían evaluarse los problemas de distribución de la riqueza y las reformas sociales podían darse con rapidez.

    Se basaba en tres elementos clave:

    • Principio de la población de Malthus.

    • Principio de rendimientos decrecientes de los recursos.

    • Doctrina del fondo de salarios.

    En una economía en expansión el nivel de inversión y los salarios son altos y tienden a crecer, la acumulación de capital se produce con rapidez, pero esos salarios altos, debido al principio de la población de Malthus, inducen al crecimiento de la población. Como consecuencia, tienen lugar presiones sobre la oferta de alimentos y de recursos en general. Esto llevará por la Ley de rendimientos decrecientes a la necesidad de invertir mayores cantidades de capital y de trabajo para incrementar la producción. Así se incrementan los costes de producción y desciende la tasa de beneficio. Esto provoca la disminución en la acumulación de capital, lo que conduce al estado estacionario. Este estado estacionario puede aplazarse de forma indefinida. A largo plazo su llegada es inevitable, y en este estado estacionario los beneficios han desaparecido y los salarios están en su nivel de subsistencia. Todo este proceso puede entenderse como un movimiento hacia el estado estacionario a lo largo del tiempo, que pueden ser décadas o siglos, que es interrumpido por un incremento de la productividad.

    Mill aportó novedades al análisis económico e incluso avanzó ideas que luego desarrollaron autores neoclásicos.

    Karl Marx (1818-1883)

    Marx nace en 1818 en Prusia y muere en Londres en 1883. Fue hijo de padres burgueses. Estudió Derecho en Berlín doctorándose con 23 años. Trató de ser profesor pero se lo impidieron y como consecuencia se convirtió en editor, editando una revista crítica con el capitalismo y con el gobierno prusiano. Así, en 1844 se exilia a París. Ese mismo año el gobierno le declara traidor a la patria y le prohíbe regresar. Pocos años después el gobierno francés expulsa también a Marx. En 1849 se establece en Bélgica, pero de nuevo ha de huir a Londres. Sobrevivió gracias a numerosos artículos que escribió, pero nunca salió de la pobreza.

    En 1845 se hace famoso por publicar un libro sobre uno de los filósofos más famosos de la época: Feuerbach. Dos años después publica Miseria de la filosofía, en 1848 El manifiesto comunista, en 1859 Contribución a la crítica de la economía política, y por fin en 1867 su obra cumbre, El Capital. Hasta 1883 ya no publica nada. Después de su muerte, Engels (1820-1895) editará otros dos tomos de El Capital.

    Con este contexto Marx desarrolla cinco conceptos básicos:

    1. Materialismo histórico. Marx une la dialéctica de Hegel con el materialismo de Feuerbach. Según Marx, el primer motor de la historia es la forma en que los individuos satisfacen sus necesidades materiales: “El primer acto histórico es la producción de la vida material”. La economía es, pues, la ciencia de la producción. La historia de la humanidad debe explicarse como una sucesión dialéctica de etapas, enfrentadas cada una con la anterior.

    2. División del trabajo. Según Marx, a lo largo de la historia los métodos de producción han contribuido a conformar la naturaleza humana. Marx acepta la idea de Adam Smith de que la división del trabajo provoca un incremento de la riqueza, pero provocando un conflicto de intereses. Una creciente división del trabajo lleva a la agravación de este conflicto de intereses.

    Para Marx, históricamente primero tuvo lugar la separación entre industria y comercio por un lado, y la agricultura por el otro. Después se separaron la industria y el comercio, más tarde se fueron separando los distintos tipos de actividad, y finalmente cada trabajo acaba reduciéndose a algo simple y mecánico y cada trabajador acaba atado a ese trabajo y enfrentado a todos los demás. Además, la división de trabajo provoca que cada trabajador pierda el control del proceso productivo y por consiguiente el fruto de su trabajo se convierte en algo ajeno a él.

    3. Fuerzas productivas. En realidad, para Marx las fuerzas productivas son aquellos elementos que intervienen en la producción: tierra, trabajo, capital y tecnología. Estas fuerzas productivas son dinámicas, están en constante desarrollo y cambian debido a alteraciones en la población, descubrimientos tecnológicos o mejoras en la educación.

    4. Relaciones de producción. En el curso de su vida económica y social las personas entablan unas relaciones indispensables para la producción pero independientes de su voluntad, y que corresponden a una etapa determinada de desarrollo de las fuerzas productivas materiales. Estas reglas del juego son esencialmente y son de 2 tipos: relaciones de propiedad (entre las personas y las cosas) y relaciones humanas (entre las personas).

    5. Estructura y superestructura. El conjunto de las relaciones de producción constituye la estructura económica de una sociedad. Por encima de ella se sobrepone una superestructura política y legal que corresponde a una conciencia social determinada, incluyendo al Estado y la Religión. Estas instituciones existen para que las personas se conformen con las relaciones de producción que les han venido dadas. El Estado, según Marx, no es más que la cristalización del poder de la clase social dominante que actúa en interés de ella misma y en contra del interés general.

    Alfred Marshall (1842-1924)

    Nace en 1842 y muere en 1924 en el seno de una familia de muy rígidos principios. Se casó con una antigua alumna suya, M. Paley, y ambos dieron clase en Cambridge, donde ofrecía a la clase sus descubrimientos. Marshall tenía verdaderas dificultades para publicar su obra, y sólo lo hacía cuando estaba totalmente seguro de que no contenía errores. El resultado de todo ello fue una obra perdurable y de gran elegancia. Sus tres grandes libros son:

    • Principios de economía, 1890, que le dio gran fama.

    • Industria y comercio, 1899.

    • Moneda, crédito y comercio, 1923.

    En sus Principios de economía, Marshall realizó aportaciones fundamentales a la teoría económica. La base de estos principios son conceptos metodológicos que dejó establecidos y que fueron seguidos por muchos economistas después de él. Hemos de destacar cuatro conceptos metodológicos de Marshall:

    - El uso de las Matemáticas. Marshall, a pesar de que era un apasionado de las Matemáticas, limitó su uso porque ante todo estaba interesado en comunicarse fácilmente y tuvo serias dudas sobre la verdadera utilidad de las Matemáticas para cubrir este objetivo. Recomendó que se hiciera Economía sobre una base histórica y estadística, es decir, lo fundamental era que las Matemáticas y la Estadística no se alejaran de la realidad.

    - Ciencia y leyes económicas. Para Marshall la economía consiste en recoger, combinar y analizar los hechos económicos adquiridos por medio de la observación y la experiencia a la determinación de los que han de ser los efectos inmediatos y finales de los diversos grupos de causas.

    Las leyes económicas son manifestaciones de tendencias expresadas en modo indicativo y no preceptos éticos de carácter imperativo. Para Marshall, la ciencia económica es una operación de sentido común refinado por el análisis y la razón. Los hechos y la historia son esenciales para el científico económico, pero los hechos en sí mismos no enseñan nada. De los datos históricos deben extraerse regularidades y tendencias.

    La teoría económica está facilitada porque los hechos económicos del comportamiento humano pueden separarse de los hechos en general. La economía se interesa por motivos mensurables, que son el dinero y los precios. Aunque no constituyen una medida perfecta, con precauciones, pueden constituir la fuerza motriz de gran parte de los móviles que actúan en la vida humana.

    - Caeteris paribus. Según Marshall, el tiempo es la principal causa de las dificultades que se encuentra el economista en su investigación, que hacen que deba avanzar paso a paso y dividiendo una cuestión compleja en partes, estudiando cada una por separado y combinando las soluciones parciales en una única solución más o menos completa de todo el problema. Al dividir esa cuestión compleja aparta una serie de causas perturbadoras a las que deja en un depósito denominado Ceteris Paribus. En definitiva, el estudio de algún grupo de tendencias se aísla mediante el supuesto de que las demás cosas permanecen constantes.

    - Corto y largo plazo. La clave para la comprensión de su método radica en la relación entre los cambios de la demanda y las condiciones de producción a lo largo del tiempo, que causa unos efectos en la producción de una empresa diferentes a corto y a largo plazo. Según Marshall, a corto plazo, ante una variación de la demanda, existen rigideces en la respuesta de la oferta (algunos factores son fijos). A largo plazo, sin embargo, desaparecen las rigideces.

    Leon Walras (1834-1910)

    León Walras constituye junto con Marshall el soporte fundamental de los principales desarrollos microeconómicos que han tenido lugar dentro del S.XX. Sin embargo, su objeto de estudio y su método son muy diferentes a los de Marshall, así como su personalidad, su obra, sus objetivos en cuanto a público y sus fines a la hora de escribir.

    La principal obra de Walras es Elementos de economía política pura, 1874. Tanto Walras como Marshall se interesaron sobre todo por la formación de los precios. Para ellos el objeto de estudio era el proceso de equilibrio de precios y cantidades que tenían lugar en el mercado. Pero Marshall empleó una convención al tratar mercados particulares.

    Cuando se considera un mercado en términos de equilibrio parcial al estilo de Marshall se está considerando un mercado casi aislado. Marshall empleaba en gran medida el Ceteris Paribus tanto al tratar las curvas de demanda como de oferta. Por el contrario, Walras estaba interesado en las relaciones que existían entre los mercados. Desde su punto de vista, estas interdependencias existían porque el proceso de valoración tenía lugar necesariamente en todos los mercados. Al mismo el supuesto de Ceteris Paribus era inadecuado. Las conexiones entre todos los mercados que Marshall dejó aparte constituyen la clave del sistema de Walras. Debido a esto Walras dedicó gran parte de sus energías a criticar a Marshall.

    Una parte del problema de la confrontación entre ambos autores se encuentra en que desarrollaron sus análisis y escribieron sus libros para públicos muy diferentes; Mientras Marshall pretendía llegar a un público amplio, Walras pretendía escribir para un selecto grupo de teóricos a escala mundial. A pesar de su enfrentamiento se compenetran bien. Mientras Marshall profundizaba en el análisis parcial y alcanzaba, gracias a la cláusula del Caeteris Paribus, conceptos de gran utilidad, Walras se dedicó a plasmar por escrito lo que Marshall había evitado estudiar. Y, aunque llegaba a una única conclusión general, ésta es la que complemente el análisis de Marshall. Su gran aportación fue que demostró matemáticamente lo que quería afirmar. Efectuó un análisis gráfico y matemático complejo para expresar una idea sencilla.

    Walras definió una función de utilidad de un individuo e introdujo una restricción presupuestaria: la renta. Dada una renta se trataba de definir la cesta óptima de bienes y servicios para el individuo. Según Walras las personas son capaces de ordenar sus preferencias entre cestas alternativas de bienes y servicios, y el nivel de satisfacción que el individuo recibe por el consumo de las cestas alternativas se denomina generalmente utilidad del individuo.

    John Maynard Keynes (1883-1946)

    Keynes está considerado como el economista más influyente del siglo XX. En torno a él, sobre todo a partir de los años 30, resurge el interés de los economistas por la macroeconomía. Tras su muerte, Keynes se convirtió en un mito, y a partir de él, el Keynesianismo imperó en los ambientes universitarios y políticos. Incluso en los años 50 y 60 la mayor parte de los gobiernos occidentales aplicaron políticas económicas Keynesianas. Keynes pasó a la historia como el economista que aconsejaba a los gobiernos que incentivaran la demanda agregada a través del déficit o de los impuestos. El endeudamiento se convirtió en un hecho habitual.

    Keynes fue discípulo de Marshall, el cual le recomendó que se hiciera economista. Keynes estudió en Cambridge, destacando como conferenciante. Sin embargo, abandonó sus clases para dedicarse a aconsejar a los gobiernos, investigar y amasar una fortuna especulando con divisas. De su éxito nació en Keynes una visión absolutamente negativa del mercado de capitales en conjunto y de la figura del empresario. Su asalto a la fama se produjo en 1919 con su obra Las consecuencias económicas de la paz. En 1930 publica Tratado sobre el dinero. En ese momento estalla la gran depresión y los economistas neoclásicos son incapaces de explicarla y de ofrecer alternativas.

    En 1936 Keynes publica La teoría general de la ocupación, el interés y el dinero. El éxito de esta obra le convierte en el mejor economista de aquellos tiempos. En ella explica la gran depresión y propone soluciones. En 1946 le nombraron vicepresidente del Banco Mundial y participó en la elaboración del Plan Marshall, pero meses después murió. La teoría general nace como contestación a la escuela neoclásica y como solución a los problemas de la gran depresión. Keynes rechazaba la teoría económica neoclásica, en especial dos de sus postulados, la Ley de Say y la idea del equilibrio competitivo.

    Para Keynes ahorro era igual a inversión. Un mecanismo de interés flexible garantizaba este resultado. Si I>S la competencia entre los inversores elevaba el tipo de interés hasta el punto de equilibrio. Por el contrario, si I<S la competencia entre los ahorradores provocaba la caída del tipo de interés de nuevo hasta el punto de equilibrio.

    EL MONETARISMO: IRVING FISHER, MILTON FRIEDMAN Y LA ESCUELA DE CHICAGO

    El dinero, los incrementos de la cantidad de dinero en la economía fueron vistos por los clásicos como un elemento que influía en la demanda de las mercancías y además incrementaba los precios. Los clásicos no analizaron el proceso de ajuste que tenía lugar en la transacción hacia un nuevo equilibrio. Para ello había que esperar a los neoclásicos de principios del siglo XX, sobre todo a Fisher y Pigou. Estos se preocuparon por la transmisión del dinero a los precios, por lo que determinaba la velocidad de circulación del dinero y por el estudio de los tipos de interés.

    La gran aportación de Fisher gran aportación fue deducir un marco matemático para exponer las conclusiones de la Teoría cuantitativa. De forma simplificada Fisher escribió la siguiente identidad:

    MV=PT

    M = stock de dinero en circulación.

    V = velocidad anual de circulación del dinero (número de veces que el dinero cambia de manos).

    P = nivel agregado de precios.

    T = volumen físico de las transacciones.

    Esta ecuación se convirtió en la expresión matemática por excelencia de la Teoría Cuantitativa. Según Fisher, V y T eran independientes de la oferta monetaria. Fisher suponía que estaban determinados por factores reales, hábitos y costumbres, tecnología y acuerdos institucionales. De este modo, las variaciones de M no producían cambios en ninguno de los determinantes reales de V y T. Así podía afirmar la estricta proporcionalidad entre M y T, es decir, entre el aumento de la cantidad de dinero en circulación y el incremento del nivel general de precios.

    Un aumento de las tenencias monetarias de los individuos altera la relación óptima entre los saldos en efectivo y los gastos de los individuos. Una mayor cantidad de dinero provoca un exceso de oferta de saldos monetarios en manos del público, lo que da lugar a un incremento del nivel de gastos. Un incremento de los gastos lleva a no incrementar el producto y a un incremento del precio hasta que el nuevo nivel de precios no restablezca el equilibrio que existía con anterioridad. En la nueva situación los saldos monetarios de los individuos, con esos precios más altos, han regresado a su nivel óptimo.

    Fisher también estudió el proceso por el cual se determina el tipo de interés nominal. Este tipo de interés nominal constituye la suma del tipo de interés real, el cual refleja las fuerzas básicas de la economía en el endeudamiento y en el préstamo, y la tasa de inflación esperada en un momento determinado. Los prestamistas ajustarán el tipo de interés nominal a las expectativas de inflación. Como consecuencia, unas tasas de expansión monetaria mayores a las habituales pueden llevar a unos tipos de interés nominales más bajos debido al incremento de la oferta de fondos prestables. Pero con el tiempo los precios más altos llevan a través de las expectativas inflacionistas a incrementar el tipo de interés nominal.

    Un tiempo después llegó la evolución keynesiana que abandonó la Teoría Cuantitativa de los neoclásicos, y en pleno dominio de las teorías keynesianas, en 1956 Milton Friedman, de la Escuela de Chicago, rescató del olvido las ideas de Fisher, aunque con un matiz: V no era fija, pero sí estable y predecible a partir de una serie de variables independientes, que son las variables reales de la economía, como la renta, el tipo de interés o el capital, a partir de las cuales se podía establecer V. Entonces podía reivindicarse que la cantidad de dinero y el nivel de precios estaban directamente relacionados.

    Además Friedman desarrolló la teoría de las expectativas adaptables, y dijo que las expectativas de precios se forman sobre la base de la experiencia de las inflaciones previas de los años anteriores. La incertidumbre domina las expectativas sobre precios, los trabajadores se ofrecen a cambio de unos salarios futuros, y los empresarios adquieren trabajo a cambio de unos precios futuros. Según Friedman, las expectativas de lo que va a ocurrir en un futuro inmediato se forman a partir de lo que ha ocurrido en un pasado inmediato. Suponiendo un incremento de la tasa de expansión monetaria el resultado inicial es un incremento de los saldos en efectivo de los individuos y las empresas. Al principio, el tipo de interés nominal baja, pero el exceso de saldos lleva a un crecimiento del gasto y de los precios. Y a causa de las expectativas adaptables, tras un tiempo de ajuste, los agentes se adaptarán a los nuevos precios y contratarán suponiendo esos precios superiores.

    El proceso no termina hasta que la tasa de inflación iguala a la nueva tasa de expansión monetaria, y los nuevos saldos reales en manos del público son iguales a los saldos deseados. Por tanto, aunque la expansión monetaria puede reducir inicialmente el tipo de interés nominal, la inflación y el problema de los saldos en manos del público llevan a que tras el proceso de ajuste los tipos de interés nominales suban. La única manera de que los tipos de interés puedan descender durante largos períodos de tiempo consiste en aplicar unas tasas de expansión monetaria cada vez más altas. Esto es muy peligroso. La interpretación monetaria de la inflación es que esta se produce por culpa de incrementos / descensos discrecionales irregulares de la tasa de crecimiento del dinero. Así pues, la inflación es un fenómeno monetario.

    El monetarismo ha estudiado la relación entre el empleo y la inflación. En 1958 el economista británico Phillips ofreció una relación inversa entre la tasa de paro y de inflación. Según él, se requerían tasas de inflación cada vez más altas para reducir la tasa de paro en un porcentaje determinado. Si esto fuera cierto supondría un dilema esencial para el responsable en política económica. Sin embargo, durante la segunda mitad de los años 60 y en los 70 surge la “estanflación” (inflación y estancamiento). Las tasas de inflación y desempleo se incrementaron a la vez y esto origina dudas sobre la validez de la relación de Phillips.

    En 1968 Fiedman aportó una solución a este debate. Para él, a corto plazo podía existir una relación inversa entre paro e inflación, pero a largo plazo, tras todo el proceso de ajuste, la tasa natural de paro era independiente de la cantidad de dinero en circulación. Esta tasa natural de paro venía determinada por todas las condiciones naturales que influían en la demanda y en la oferta de trabajo, como el grado de acuerdos institucionales, el nivel de organización de la mano de obra, la existencia o no de leyes sobre salarios mínimos, la proporción de mujeres en la fuerza de trabajo o el nivel de educación del trabajador.

    Modelo de regresion lineal clasico

    A continuación presento un ejemplo de Estadística aplicada al análisis económico el modelo de regresion lineal basico, pieza fundamental de la Econometría que viene empleado en la construcción de los principales métodos de previsión económica.

    Se trata de inferir las propiedades estocásticas del vector de variables