Informática


Historia de la Informática


INTRODUCCIÓN:

Los ordenadores tienen una corta pero dilatada historia. En 1995 se han cumplido 20 años de la aparición del primer ordenador personal y apenas hace 50 años que se terminó ENIAC, el primer calculador electrónico que realmente funcionaba. Pero hace unos 5 000 años los seres humanos ya realizaban operaciones numéricas ayudándose del ábaco, la primera máquina que servía para ejecutar trabajos intelectuales y no físicos.

Los ordenadores han experimentado un desarrollo meteórico. Hace apenas 50 años que se construyó el ENIAC (Electronic Numerical Integrator Analyzer and Computer), el primer calculador electrónico que realmente funcionó; ocupaba una planta completa de la escuela Moore de Electrónica de la Universidad de Pennsylvania, en EE.UU., pesaba más de 3 toneladas, su consumo era de 150 kilovatios (se dice que cuando se conectaba, se notaba en las luces de toda la parte oeste de Filadelfia) y en su construcción se utilizaron unos 18 000 tubos de vacío.

Hace unos 40 años había en los EE.UU. unos 250 ordenadores, hoy son millones y su número crece cada día a la vez que, simultáneamente, ha ido disminuyendo su tamaño y su precio. A finales de 1982, Toong y Gupta en un artículo publicado en la revista Scientific American (traducido al castellano en Investigación y Ciencia, en febrero de 1983) describían la reducción del precio de los ordenadores con la siguiente comparación: «Si a lo largo de los últimos 25 años la industria aeronáutica hubiese experimentado la espectacular evolución que ha vivido la industria informática, un Boeing 767 costaría hoy unas 60 000 ptas. y circunvalaría el globo terráqueo en 20 minutos consumiendo unos 20 litros de combustible»; y añaden que el precio de los dispositivos lógicos para los ordenadores está disminuyendo a razón de un 25 % anual, el de los dispositivos de memoria a razón de un 40 %, mientras que la velocidad de proceso se ha multiplicado por 200 en 25 años y el tamaño de los ordenadores ha disminuido 10 000 veces.

Pero como todas las innovaciones humanas, los ordenadores no han surgido de la nada, sino que disponen de unos antecedentes, una prehistoria, que conviene conocer en sus grandes hitos para poder comprender su desarrollo espectacular.

PREHISTORIA DE LOS ORDENADORES:

Se puede decir que un ordenador es una máquina gobernada por un procesador de información y que lleva incorporado un calculador automático. En este sentido, es interesante recordar ciertos descubrimientos esenciales en la historia de la automática y del cálculo.

La automática

La automatización consiste en reemplazar al hombre por una máquina para la ejecución de una tarea. Todo trabajo humano requiere dos tipos de energía: la energía muscular o mecánica y la energía mental o cognitiva; y esto es así tanto para un campesino que trabaja su campo como para un científico que pasa las horas encerrado en su laboratorio, aunque las proporciones necesarias de cada tipo de energía varían de una actividad a otra. Pues bien, la historia de la automática es el intento repetido de crear máquinas que sustituyan a los seres humanos en todo tipo de trabajos.

Han llegado hasta nuestros días algunos de los autómatas fabricados en la Edad Media: relojes de catedrales, instrumentos de música automática de algunas ciudades centroeuropeas, sistemas de riego automático, etc.

Leonardo da Vinci (1452-1519) concibió y diseñó casi todas las máquinas de trabajo que van a poder construirse y hacerse útiles posteriormente con la máquina de vapor.

En el siglo XVIII, se habían realizado importantes avances en la relojería y se habían popularizado los autómatas. Jacques de Vaucansons (1709-1782) logró una gran fama con algunos de sus autómatas, como el pastor provenzal que interpretaba 20 canciones diferentes con una flauta en una mano y un tambor en la otra, realizando los mismos movimientos que un hábil músico. Los trabajos de los hermanos Jaquet-Droz son verdaderos anticipos de los autómatas posteriores: construyen un escribano, el cual traza unas frases preestablecidas, un dibujante que pinta dibujos inscritos en una «memoria» mecánica y un músico, que interpreta canciones almacenadas en cilindros.

Por el tipo de trabajos que se realizan en esa época parece que se van a confundir la automática y la cibernética, en el sentido de que la primera disciplina aspira a construir sistemas automáticos que simulan al hombre, objetivo definitorio de la cibernética; sin embargo esta confluencia no es posible en ese momento y habrá que esperar hasta nuestros días para que esta convergencia pueda darse en la moderna teoría de autómatas.

El comienzo de la era moderna de la automatización viene marcada por el invento de la máquina de vapor y del regulador automático a bolas para esta máquina (James Watt, 1736-1819).

Este invento supone que a partir de ese momento se posee una fuente de energía controlada capaz de suministrar un trabajo útil que, mediante un árbol de distribución, se puede aplicar a múltiples tareas, sustituyendo al hombre; también se posee, con el regulador de Watt, del primer sistema automático de control.

La industria téxtil es pionera en la automatización de la información. El diálogo hombre-máquina se inició con trabajos como los realizados por Joseph-Marie Jacquard (1801), que construyó un telar automático que podía tejer diseños de telas siguiendo las instrucciones codificadas en un sistema de tarjetas perforadas; modificando las perforaciones de la tarjeta, la máquina modificaba su conducta de forma automática. El sistema de almacenamiento de la información en tarjetas perforadas se ha utilizado mucho en los ordenadores, aunque ahora está en desuso.

La máquina de vapor se extiende rápidamente por toda Europa con la expansión de la Revolución Francesa, pero posteriormente aparecen otro tipo de motores que también son fuentes de desarrollo de la automatización: motor eléctrico (1872), motor de explosión (1877), motor a reacción (1944) y motor nuclear (1943).

El cálculo

Entre las actividades más comunes de la vida cotidiana de todos los pueblos, desde el comienzo de los tiempos, está la acción de contar; por tanto, el hombre siempre ha tenido necesidad de un instrumento que le ayude a realizar esta operación. En un principio fue práctica generalizada el contar con los dedos, los cuales siguen siendo, todavía hoy, el instrumento favorito de niños y adultos, en muchas situaciones.

El primer dispositivo para realizar operaciones numéricas que se suele mencionar, es el ábaco, cuyo origen no se conoce perfectamente, pero que algunos sitúan en Babilonia, hace unos 5000 años. Se ha señalado que el ábaco es la primera máquina que ayuda a realizar un trabajo intelectual, frente a las máquinas habituales que sirven para realizar trabajos físicos.

El siguiente gran paso en la creación de instrumentos de ayuda al cálculo fue la invención de los logaritmos por el matemático escocés Neper (1550-1617), los cuales permiten reducir las multiplicaciones y divisiones a sumas y restas:

log (x . y) = log(x) + log (y)

log (x/y) = log (x) - log (y)

Los científicos de la época apreciaron inmediatamente la importancia de la aportación de Neper y enseguida se intentaron mecanizar las operaciones aritméticas elementales, esto es, suma, resta, multiplicación y división. Se construyó un aparato llamado regla de cálculo, utilizando una regla que llevaba marcados los números a la distancia correspondiente de sus logaritmos; se multiplicaban o dividían cantidades, sumando o restando distancias sobre la regla, ayudándose de un par de separadores.

Posteriormente se perfeccionó el instrumento, sustituyendo los separadores por dos reglas que se desplazan la una sobre la otra.

La regla de cálculo fue el primer instrumento de cálculo analógico, así como el ábaco fue el primer instrumento de cálculo digital. Esta diferencia se mantiene en los ordenadores modernos, según se verá más adelante.

Durante mucho tiempo se ha tenido a Blaise Pascal por el inventor, en 1642, de la primera máquina de calcular, pero parece que en 1623 Wilhelm Schickard, astrónomo y profesor de lenguas orientales, construyó por sí mismo una máquina para calcular que describió en una carta al gran astrónomo Kepler; Schickard falleció en 1635 y su máquina se perdió, de tal manera que sólo a partir de 1935 se empezó a reconstruir su invento.

De cualquier manera, por su influencia teórica, Pascal y Leibniz, dos de las más grandes figuras que ha producido la humanidad, pueden ser considerados como inventores del cálculo automático. Pascal, en 1642, cuando tenía 19 años, intentando ayudar a su padre, recaudador de impuestos, en las cuentas que tenía que realizar, diseñó e hizo construir un aparato que sumaba y restaba.

La máquina de Pascal, aunque fue conocida y admirada, no tuvo éxito en su difusión y utilización; era demasiado cara y no siempre funcionaba bien.

Leibniz, entre 1672 y 1674, diseñó e hizo construir una máquina que realizaba las 4 operaciones aritméticas básicas. Su diseño fue utilizado muchos años más tarde, ya en el siglo XIX, en las primeras máquinas de calcular utilitarias.

Leibniz hizo contribuciones esenciales para el desarrollo de la lógica y de las matemáticas, por lo que se le considera como uno de los fundadores de la lógica matemática, la cual constituye la base de los modernos ordenadores. Además de eso, Leibniz fue diplomático, se ocupó de teología y fue uno de los grandes filósofos de la época moderna.

Todos los instrumentos de cálculo que se han mencionado hasta ahora no pueden considerarse verdaderamente automáticos, ya que para realizar cálculos necesitan la continua intervención humana, tanto para introducir datos como para anotar los resultados conseguidos.

Charles Babbage (1791-1871), profesor de matemáticas en la Universidad de Cambridge, diseñó una máquina que permitía calcular tablas de valores para cualquier función matemática (logaritmos, cuadrados, cubos, etc.), basándose en que toda función se puede aproximar con bastante fiabilidad mediante polinomios, y teniendo en cuenta que por medio de sumas se pueden conocer los valores de cualquier polinomio.

Babbage construyó en 1822 una pequeña máquina que calculaba valores para polinomios de segundo grado, con una precisión de 6 cifras. Posteriormente, intentó desarrollar una nueva máquina que tabulase polinomios de sexto grado con 30 decimales, pero no llegó a concluir este calculador porque se embarcó en el proyecto de lo que llamaría «la máquina analítica».

Esta nueva máquina sería un computador universal con el siguiente diseño (muy similar al de los ordenadores modernos):

-Una memoria para almacenar datos de entrada, así como los datos intermedios generados a lo largo de las operaciones, datos necesarios para continuar los cálculos.

-Una unidad aritmética para realizar operaciones matemáticas básicas.

-Una unidad de control para hacer que la máquina ejecute las operaciones en la secuencia deseada. Pensó adaptar el método inventado por Jacquard para el control de telares.

-Unidades de entrada para suministrar los números iniciales y las instrucciones de operación.

-Una unidad de salida, con un diseño similar al de una máquina de escribir.

Babbage no llegó a terminar la máquina analítica por problemas económicos, a pesar de que invirtió en ella gran parte de su considerable fortuna personal; fue su hijo Henry quien logró terminarla y presentarla en 1910 a la Astronomical Society de Inglaterra. Aunque nunca se llegaron a realizar completamente las ideas de Babbage, su trabajo supuso un gran avance para el cálculo automático.

Otro gran hito del siglo XIX, de naturaleza diferente al anterior, fue la construcción de una lógica matemática que iba mucho más allá de la lógica formal de Aristóteles (que seguía siendo la mayor contribución a la lógica). El trabajo del matemático inglés George Boole (1815-1864) abrió la vía a un desarrollo insospechado de esta disciplina, desarrollo que continuó en el siglo XX y que ha sido esencial en la historia de los ordenadores.

También en el siglo XIX comienza el problema del tratamiento de grandes masas de datos. En EE.UU. había que realizar por ley un censo de población cada 4 años, lo cual era imposible con los métodos manuales tradicionales. Hermann Hollerith (1860-1929), ingeniero estadístico, fue contratado para estudiar un procedimiento mecánico para el tratamiento de los datos recogidos del censo; Hollerith construye su máquina estadística, la cual utiliza tarjetas perforadas, no para darle órdenes a la máquina como hacía Jacquard, sino para explotar y tratar los datos registrados en las mismas. Con este invento nacen las máquinas eléctricas, que en un principio se destinan a la automatización de la gestión contable, y se desarrollan otra serie de máquinas como perforadoras de datos, clasificadoras de tarjetas, tabuladoras, impresoras, etc. Son los albores de la informática de gestión.

En 1903 Hollerith abandona la Oficina del Censo de EE.UU. y crea su propia compañía «Compañía de máquinas de tabular» que con el paso de los años se transformaría en la poderosa «International Business Machine Corporation» (IBM).

LA HISTORIA DE LOS ORDENADORES:

Al tiempo que se empiezan a construir máquinas para la gestión de la información contable, los hombres de ciencia quieren una máquina de tratamiento automático de datos científicos, un calculador científico. Desde el punto de vista de la ingeniería parece un objetivo más difícil, por la amplia gama de matices de la información a tratar en el mundo científico en relación al mundo administrativo y comercial; sin embargo, existe la gran ventaja de poder estandarizar con facilidad los problemas científicos en un lenguaje formal, como es el lenguaje matemático.

La posibilidad de optar entre dos vías de actuación, o lo que es igual, de tomar y ejecutar una decisión se pudo implementar en los sistemas mecánicos primero mediante el concurso de la electricidad y, posteriormente, gracias al desarrollo de la tecnología, mediante la electrónica, pero en cualquier caso sobre la estructura tecnológica descansa una arquitectura lógica y matemática.

Un relé clásico es el órgano elemental del razonamiento automatizado, en cuanto que puede adoptar dos posiciones: sí o no, verdadero o falso, cero o uno, según un convenio de transcripción de información previamente establecido; se verá cómo un número de relés suficientemente alto, convenientemente reunidos en serie (la salida de uno convertida en entrada del siguiente), o en paralelo (salidas paralelas y entradas paralelas), o en montaje híbrido (serie, paralelo) van a producir circuitos lógicos.

Una vez que se logró simular físicamente un razonamiento lógico, todo el resto del desarrollo histórico del ordenador hasta hoy va a consistir en sustituir la tecnología primitiva de relés por tecnologías más avanzadas como válvulas de vacío, distintos tipos de transistores, circuitos integrados, etc. Conviene citar los trabajos de Shannon, entre una pléyade de científicos, matemáticos e ingenieros, como esenciales para lograr la conexión entre los aspectos físicos y los fundamentos lógicos que tienen lugar en un ordenador.

En 1937 Howard Aiken, físico de la Universidad de Harvard, diseñó los planos para una máquina que obedecía órdenes consecutivas; dicha máquina fue construida por IBM y donada en 1944 a la Universidad de Harvard; se le llamó MARK I y fue la calculadora más potente con piezas electromecánicas.

Ya se ha mencionado, en la introducción a este capítulo, que ENIAC fue el primer ordenador electrónico en el que el proceso de datos y su almacenamiento y el control de las operaciones se realizaba por medio de dispositivos electrónicos, los tubos de vacío, que hacen posible el salto del cálculo eléctrico al electrónico.

En 1945, Von Neumann proponía diseñar y construir un ordenador que trabajase en sistema binario, capaz de almacenar en su interior los datos necesarios para la resolución del problema que se le plantease y con una memoria de mucha mayor capacidad que las conseguidas hasta ese momento.

En 1949 se construía en la Universidad de Cambridge, en Inglaterra, el primer ordenador comercial destinado a la gestión; era un ordenador decimal que permitía utilizar caracteres alfabéticos, la entrada y salida de datos se realizaba por medio de tarjetas perforadas y utilizaba unidades de cinta magnética como memoria auxiliar.

Generalidades en la historia de los ordenadores

La base fundamental de la evolución de los ordenadores digitales ha sido el desarrollo de los componentes que forman su memoria y unidades de cálculo.

Los ordenadores digitales, que son normalmente de uso general, trabajan directamente con los datos numéricos, representándolos por medidas de variables discretas, como son los impulsos eléctricos, los dientes de una rueda dentada, etc.

Los ordenadores analógicos, dedicados a problemas específicos, trabajan con los números, transformándolos mediante escalas en medidas de variables continuas, como son longitudes, corrientes, fuerzas magnéticas, etc.

Para aprovechar la rapidez del ordenador analógico y la precisión del digital, según los cálculos requieran una u otra característica, se han construido ordenadores «híbridos» de los dos tipos anteriores.

Con este criterio se habla de cinco generaciones, hasta el momento presente, en la historia del ordenador.

-Primera generación: se la suele situar cronológicamente entre 1950 y 1960. Es la etapa de las empresas iniciales del mundo informático, Remington Road (UNIVAC) e IBM, que no venden sino que alquilan los ordenadores, tales son los elevados costes que comportan. Es la generación de las válvulas de vacío, con un soporte de programas muy rudimentarios escritos en código máquina.

-Segunda generación: la invención del transistor por W. Shockley va a marcar la diferencia con la primera generación; a principios de 1960 salen al mercado los primeros ordenadores transistorizados. En esta generación, que cubre de 1960 a 1964, además de la sustitución de las válvulas de vacío por transistores, tiene lugar la ampliación de las memorias internas, la generalización del concepto de arquitectura modificable, se usan periféricos de gran masa de memoria como los tambores y discos magnéticos y se reduce el tamaño de los ordenadores. Aparecen los lenguajes ensambladores que traducen las instrucciones del código máquina, llegando a generar ya lenguajes de alto nivel como FORTRAN, COBOL y ALGOL.

-Tercera generación: abarca aproximadamente la década 1964-1974; se progresa considerablemente en la reducción de tamaño y aumento de la velocidad de cálculo, mediante la implementación de diferentes tecnologías de integración de transistores y otros circuitos de estado sólido. Se avanza mucho en software, desarrollando más lenguajes de alto nivel (PL1, BASIC, RPG, APL) y sistemas operativos, se inicia la programación estructurada, se construyen potentes compiladores e intérpretes, se generaliza el uso en las empresas de paquetes de software, bibliotecas de programas y bases de datos; aparecen las técnicas de tiempo compartido y la multiprogramación. Se generalizan los periféricos en la arquitectura de los ordenadores, dotando a los sistemas informáticos de una gran modularidad; se hace uso del teleproceso, de discos flexibles y de lectoras ópticas.

En este momento es cuando se estructura el mercado de ordenadores constituyéndose las compañías que llegan hasta nuestros días: IBM, Control Data, Nixdorf, Philips, ICL, Bull, Bourroughs (hoy Unisys), NCR, Siemens, Fujitsu, etc.

-Cuarta generación: mediante las técnicas de integración a gran escala se produce la revolución del microprocesador; el tamaño de los ordenadores se reduce a una décima parte con respecto a los de la anterior generación, se alcanzan velocidades multiplicadas por factores de 10, 50 y hasta 100, y se llegan a grandes masas de memoria en reducidísimos tamaños; todo ello gracias a la tecnología LSI (gran escala de integración).

En Silicon Valley, INTEL Corporation produce el primer microprocesador, es decir, un «chip», una pieza única de tamaño muy reducido que contiene miles de componentes electrónicos y que pueden realizar cualquier tarea lógica constituyéndose en la unidad central de proceso de un ordenador; inmediatamente después salen al mercado los microprocesadores Z-80, 6800 de Motorola y otros.

Basándose en los microprocesadores, aparecieron los ordenadores de uso personal: en el número de enero de 1975 de la revista «Popular Electronics» aparecía la descripción de un ordenador que podía comprarse sin armar por 395 $ o que podía obtenerse armado por 650 $; se llamaba «Altair 8800» y estaba basado en el microprocesador 8080 fabricado por la empresa Intel. Su diseñador y constructor era Edward Roberts que fundó una pequeña compañía instalada en un garaje de una casa de Alburquerque, Nuevo México. Roberts se quedó sorprendido del éxito pues sólo esperaba vender unos cientos de Altair y recibió miles de peticiones que no podía atender.

Otro éxito espectacular en la historia de los negocios en los EE.UU. es la empresa Apple. Poco después de la aparición de Altair dos amigos apasionados por la electrónica, Stephen Wozniak y Steven Jobs, de 25 y 20 años respectivamente, fundaban Apple Computers Company con el exiguo presupuesto que provenía de la venta de un coche y de una calculadora programable y de un pequeño crédito; fabricaron un ordenador del que vendieron unas 175 unidades a unos 500 $ cada una, a pesar de que era un aparato de muy difícil uso pues no tenía teclado ni terminales. En 1977 lanzaron el modelo Apple II que constituyó un rotundo éxito; a finales de 1983 alcanzaron un volumen de ventas de mil millones de dólares.

En 1981, IBM lanzaba con mucho retraso y mucha cautela, un ordenador personal, el PC (Personal Computer), del cual ese año vendieron ya 35 000 unidades y en 1983, 800 000, situándose en el primer lugar de las ventas de microordenadores para empresa.

En estos últimos años han aparecido continuamente nuevas máquinas y casi todas las grandes empresas de material electrónico, material de oficina o calculadoras, americanas, europeas o japonesas están tratando de hacerse un hueco en este floreciente pero difícil mercado (muchas empresas de Silicon Valley y otros parques tecnológicos han quebrado por la dura competencia en el sector de las tecnologías de vanguardia).

Al mismo tiempo que se producía este gran desarrollo de los PC's, se profundizaba en la investigación de los grandes ordenadores y de los superordenadores, como el CRAY-1, diseñado por Seymour R. Cray, que tiene una memoria interna superior a los 8 megabytes y realiza 200. 106 operaciones por segundo; el CRAY llega a manejar en ampliaciones de memoria hasta 20 gigabytes. Otros superordenadores son el FALCOM, japonés y el Numerical Aerodinamic Simulation Facility.

-Quinta generación: hoy día existen múltiples proyectos de investigación y experiencias ya realizadas o en curso de realización en el terreno de la Inteligencia Artificial (IA) y de los Sistemas Expertos.




Descargar
Enviado por:Fly
Idioma: castellano
País: España

Te va a interesar