Historia de los Computadores

Orígenes. Generación de Computadoras. Desarrollo Informático. Lenguaje Binario. Ábaco. Tarjeta Perforada. Internet

  • Enviado por: Fernando Torres Y Tatiana Montoya
  • Idioma: castellano
  • País: México México
  • 17 páginas

publicidad
cursos destacados
Laravel: Framework PHP rápido, potente y divertido
Laravel: Framework PHP rápido, potente y divertido
La tecnología avanza cada vez más rápido y cada vez contamos con menos tiempo para hacer las...
Ver más información

Programar Android desde cero
Programar Android desde cero
Aquí podrás encontrar diversos tutoriales de programación en Android, para que aprendas a programar totalmente desde...
Ver más información


Universidad Nacional Autónoma de México

Escuela Nacional de Estudios Profesionales Acatlan

Índice

Historia de las Computadoras


Historia de las Computadoras


Introducción

L

os hombres siempre han contado y calculado, pero el cálculo cobró mucha importancia cuando comenzó la compra y venta de mercancías. Aparte de los dedos de la mano, los primeros objetos que ayudaron a contar y calcular fueron piedrecillas de río, utilizadas para representar los números de 1 a 10. Hace unos cinco mil años, en Mesopotamia, se trazaban en el suelo unas rayas hondas en las que se depositaban las piedrecillas. Moviendo las piedrecillas de una raya a otra, se podían hacer cálculos. Mas adelante, en China y Japón, se utilizo el ábaco de la misma manera, con sus hileras de cuentas que representaban las centenas, las decenas y las unidades. Los posteriores adelantos no llegaron hasta mucho después, con el invento de ciertas ayudas para el calculo como los logaritmos, la regla de corredera y las calculadoras básicas mecánicas del siglo XVII.

Ya en las sociedades primitivas experimento el ser humano la necesidad de contar; a medida que se intensificó el comercio se requirieron sistemas más elaborados para contar y realizar operaciones aritméticas básicas. Pero durante muchos siglos se emplearon sistemas de numeración demasiado complejos de manejar y poco prácticos. Uno de esos sistemas fue el de numeración romana, en el cual se emplean varios símbolos alfabéticos para representar ciertas cantidades: I, V, X, L, C, D y M representan respectivamente las cantidades 1, 5, 10, 50, 100, 500 y 1 000.

Para escribir otras cantidades empleaban combinaciones de estos símbolos; por ejemplo, CLVI representa la cantidad 156. Entre otros inconvenientes de este sistema, se encuentra que el número de símbolos alfabéticos necesarios para representar una cantidad aumenta muy rápidamente al aumentar la cantidad. Este sistema de numeración dificultaba enormemente el desarrollo de las operaciones aritméticas.

Para realizar estas operaciones, fundamentalmente sumas y restas, los hombres usaron durante muchos siglos, aparte de sus dedos, un instrumento llamado ábaco. Se cree que el ábaco fue inventado en Babilonia hace unos 5 000 años.

Pero no fue posible un desarrollo importante de la aritmética y otras áreas de las matemáticas hasta que se ideo la numeración por posición, tal como la utilizada en la actualidad.

Este sistema, que supone la concepción y uso del numero cero, parece ser que fue ideado en la India. Los árabes lo redescubrieron durante la invasión de aquel país en el siglo IX, y cuatro siglos mas tarde lo introdujeron en Europa. Debe mencionarse que los mayas en Mesoamerica consiguieron por si mismos llegar también a concebir el cero y elaborar un sistema de numeración por posición.

Una vez que se disponía de un sistema de numeración adecuado, se habían sentado las bases para el desarrollo del calculo y la posibilidad del calculo automático mediante máquinas.

Generación Cero

E

l primer instrumento para contar, después de los dedos, fue un aparato que utilizaba un gran numero de cuentas. Alrededor del año 3000 a.C. estas cuentas fueron clasificadas en un mecanismo denominado “ábaco” que podía realizar operaciones aritméticas más eficazmente que las cuentas sueltas. Las cuentas iban ensartadas en unas varillas de madera o metal, verticales y paralelas, montadas en un armazón rectangular. Las varillas empezando de derecha a izquierda, representan las unidades, las decenas y las centenas. Los sumerios, los chinos los romanos y después los pueblos de la Europa medieval sabían efectuar rápidamente con estos instrumentos, además de las 4 operaciones aritméticas, la extracción de raíces cuadradas.

John Napier inventó en 1614 los logaritmos neperianos, llamados así en su honor . Mediante el uso de logaritmos consiguió simplificar el cálculo de multiplicaciones y divisiones reduciéndolo a un cálculo con sumas y restas. Elaboró unas tablas en donde a cada número le correspondía otro número que es su logaritmo neperiano; los logaritmos tienen una importante propiedad: el producto o el cociente de dos números se puede expresar como la suma o la diferencia respectivamente, de sus logaritmos. Cuando se quería sumar dos números, se buscaban en la tabla sus respectivos logaritmos, se sumaban, y luego se buscaba en la tabla el número cuyo logaritmo equivale al resultado de la suma. Análogamente se hacían las divisiones mediante restas. El propio Napier construyó, en 1617 unas tablillas con bastoncillos que permitían realizar multiplicaciones de números relativamente grandes.

La regla de cálculo, que nos es más familiar, fue inventada a principios del siglo XVII por el inglés Edmund Gunter. Está constituída por dos reglas, deslizable la una sobre la otra, dotada cada una de una graduación logarítmica. La regla ha sido indiscutiblemente el instrumento de cálculo “mecánico” más utilizado en el curso de los últimos siglos, hasta la aparición de las calculadoras electrónicas de bolsillo. Permitía efectuar las cuatro operaciones aritméticas, elevar a la potencia, la extracción de raíces y ciertos cálculos más complejos.

El nacimiento de las primeras máquinas de calcular, dotadas de mecanismos complejos con engranajes y otros tipos de uniones, se remonta al siglo XVII. La primera fue construída en 1623 por el alemán Wilhelm Schickard; era capaz de efectuar las cuatro operaciones aritméticas. Desgraciadamente, el prototipo de esta máquina desapareció en la guerra de los Treinta años.

Por ello se considera generalmente que la “primera máquina de calcular” fue inventada por el científico y filósofo francés Blaise Pascal, en 1642. Se trataba de una “sumadora mecánica” que efectuaba automáticamente sumas gracias a los movimientos de las ruedas dentadas de las que estaba constituída.

En 1671, el filósofo y matemático alemán Gottfried Wilhelm Leibniz inventó una máquina capaz de multiplicar y dividir. Para ello utilizó la famosa “rueda de Leibniz”, un mecanismo concebido para efectuar las multiplicaciones en forma de adiciones repetidas, principio que fue continuado más tarde por los sistemas modernos.

Los primeros modelos de máquina de calcular no tuvieron ninguna difusión: si bien eran geniales, no despertaron en su época más que curiosidad. Fue necesario esperar a la segunda mitad del siglo XIX para que las calculadoras mecánicas se perfeccionaran y encontraran un comienzo de explotación industrial. En esta época y en el curso de los cuarenta primeros años del siglo XX, fueron inventadas y producidas en serie máquinas capaces de efectuar las cuatro operaciones y otros cálculos más elaborados. Estaban constituídas de teclas, de manivelas y de discos, y muchas eran capaces de imprimir los cálculos efectuados y los resultados obtenidos.

Los modelos más perfeccionados eran verdaderas joyas de mecánica de precisión, como el “original Odhner” (1875), cuyos dispositivos de multiplicación están perfeccionados,o el “Comptometer” de Felt (1885), equipado de una palanca de inscripción. Cabe citar también el sistema de división creado por Léon Bollée en 1889, ya que su mecanismo era particularmente ingenioso. No obstante estas máquinas presentaban ciertas limitaciones, prácticamente insalvables para hacerlas funcionar, era necesario que el operador interviniera manualmente en todas las fases del cálculo. De ahí que la ejecución era muy lenta y, sobre todo, no era posible programar las operaciones, característica esencial de las computadoras modernas aun de las más sencillas.

El Lenguaje Binario

E

n 1801, Joseph Jacquard construyó un telar para tejer brocados. Esta máquina se controlaba utilizando una tarjeta en la que se perforaban unos orificios que correspondían al modelo de la artista. Los ganchos que asían la fibra de seda solamente podían pasar hasta estos orificios y el modelo era automáticamente tejido en la fábrica. El trabajo de la máquina era determinar la presencia o ausencia de un agujero en un lugar determinado del cartón, utilizándose así las operaciones de carácter binario. Las tarjetas perforadas fueron igualmente utilizadas en los pianos mecánicos inventados en América hacia 1880, y adaptadas a los órganos de “Barbarie”.

Ya en la segunda mitad del siglo XIX una serie de inventores estadounidenses fueron mejorando la tecnología de las máquinas de calcular: George Barnard Grant, Frank Baldwin, Dorr Felt, y William Burroughs...entre estas máquinas mencionaremos el “Comptometer” de Felt, que se accionaba mediante la pulsación de unas teclas; y la “máquina de sumar e imprimir” de Burroughs, que permitía imprimir sobre una banda de papel los datos y los resultados.

El éxito alcanzado por estas máquinas impulsó el desarrollo durante el siglo XX de nuevos modelos de máquinas de calcular mecánicas que jugaron un importante papel hasta la reciente aparición de las máquinas electrónicas.

Las máquinas de calcular mencionadas hasta aquí no se pueden considerar dentro del concepto que se tiene actualmente de ordenador. Disponían de algún método para introducir números, realizar operaciones aritméticas y obtener resultados, lo cual equivale a las unidades de entrada, proceso y salida de un ordenador; pero carecían de elementos esenciales propios de un ordenador, tales como la memoria o la capacidad de realizar operaciones lógicas y de relación. El paso fundamental que diferencía a una calculadora de un verdadero ordenador es que la primera tan solo es capaz de realizar operaciones aritméticas, mientras que el segundo, además, es capaz de tomar decisiones por si misma, mediante el uso de funciones lógicas.

A principios del siglo XIX ya estaba clara la necesidad de desarrollar una máquina capaz de realizar cálculos con alta precisión y seguridad, con la menor intervención humana posible.

EL MÉTODO DE LAS DIFERENCIAS

En la tabla adjunta figura el cubo de los primeros números enteros y sus sucesivas diferencias. Como se puede observar, todas las diferencias terceras valen 6. Este resultado es general para todos los números enteros. Esto permite calcular toda la serie de diferencias. Cada termino será la suma del término anterior y la diferencia siguiente.

No.

Cubo

1a. dife-
rencia

2a. dife-
rencia

3a. dife-
rencia

1

1

7

2

8

12

19

6

3

27

18

37

6

4

64

24

61

6

5

125

30

91

6

6

216

36

127

6

7

343

42

169

6

8

512

48

217

9

729

El primero en concebir un ordenador fue el matemático e inventor británico Charles Babbage. En 1812 empezó a trabajar en un tipo de máquina de calcular a la que llamó máquina de diferencias o máquina diferencial, por estar basado su funcionamiento en el llamado método de las diferencias. A partir de 1823, y durante 10 años, el gobierno británico financió el proyecto de Babbage. Esta máquina estaba constituída por una gran cantidad de dispositivos y engranajes mecánicos que debían funcionar coordinadamente.

La idea y el diseño eran fundamentalmente correctos, pero desgraciadamente, al igual que casi dos siglos antes le había ocurrido a Leibniz, la tecnología de la época aun no estaba suficientemente desarrollada para fabricar piezas con la precisión necesaria.

Al entrar en funcionamiento todos los engranajes, la escasa precisión de cada uno de ellos se iba acumulando con la de los demás, produciendo unas tremendas sacudidas. No fue posible superar estas dificultades y finalmente el gobierno retiró su apoyo a Babbage.

Un año después de la paralización del proyecto de Babbage, el ingeniero sueco George Schentz comenzó a construir una máquina análoga, tras rediseñar algunas de sus partes. La máquina quedó terminada en 1840; en los años posteriores introdujo algunas novedades. Este proyecto fue financiado por el gobierno sueco.

La idea de la “máquina de diferencias” llevó a Babbage a concebir otra aún más compleja: la máquina analítica. Esta máquina debería funcionar de forma diferente según el tipo de problema que tuviera que resolver. Pensó que un sistema de tarjetas perforadas, como se utilizaba en el control de los telares, podría servir para introducir los datos en la máquina, así como para darle las instrucciones necesarias para que realizase un determinado cálculo.

Una vez introducida esta información, las operaciones se realizarían en un dispositivo al que llamó “taller”; los resultados parciales se almacenarían en un dispositivo al que llamó “almacén”. Los resultados finales saldrían impresos.

Esta máquina disponía básicamente de los mismos dispositivos que cualquier ordenador: unidades de entrada y salida, para introducir datos y programas y para imprimir resultados; una unidad de proceso, el “taller”, y una unidad de memoria, el “almacén”, con capacidad para 1000 números de 50 cifras. Se puede decir que había nacido la idea de ordenador; era el año 1833. Desgraciadamente solo llego a existir un prototipo de la máquina, pues estaba totalmente fuera del alcance de la ingeniería de la época construir una máquina de aquellas características. Habría que esperar todavía un siglo para que se pudiera hacer realidad este sueño.

Por su parte lord Kelvin concibió la idea de una máquina analógica. La máquina de Babbage era digital; como en los ordenadores actuales, sus resultados se hubieran podido imprimir en forma de columnas de números. En cambio la máquina de lord Kelvin era de tipo analógico; sus resultados no serían de tipo numérico, sino ciertas cantidades que representarían números; los resultados se podrían visualizar en forma gráfica. Lord Kelvin y su hermano James Thomson construyeron en 1872 la primera máquina de este tipo; su misión era predecir mareas y representar gráficamente sus niveles. Kelvin pensó que se podría construir una máquina de este estilo que fuera polivalente, es decir, que se le pudiera dar instrucciones para resolver diferentes tipos de problemas, al igual que había imaginado Babbage con su máquina digital. No obstante por dificultades técnicas, esta máquina, a la que Kelvin llamó “analizador diferencial”, no llegó a hacerse realidad. La primera máquina analógica fue construida en 1930 por Vannevar Bush.

Hermann Hollerith (1860-1929) diseñó una máquina tabuladora aprovechando algunas de las ideas de Babbage. Con esta máquina elaboró para el gobierno de Estados Unidos el censo de 1890. Utilizó unas tarjetas perforables, en las que codificaba mediante perforaciones la información sobre cada ciudadano (sexo, edad, profesión, etc.). Luego mediante la máquina tabuladora realizó el recuento, para lo que necesitó varias semanas. El recuento del anterior censo, realizado en 1880, había tardado en realizarse manualmente 7 años.

Para explotar su invento, Hollerith fundó la compañía (Tabulating Machine Company), que años después, en 1924, se convertiría en la “International Bussines Machine”, conocida como IBM, que en la actualidad es la mayor empresa informática del mundo. La máquina de Hollerith contaba con dispositivos análogos a los de un ordenador: perforador, verificadora, clasificadora, intercaladora, reproductora y tabulador; pero carecía de otros rasgos característicos de un ordenador; así, no tenía un programa almacenado con las instrucciones de las operaciones que se deben realizar.

Los primeros ordenadores

E

n las primeras décadas del siglo XX se realizaron importantes avances teóricos y tecnológicos que permitirían en breve tiempo la construcción del primer ordenador eléctrico. Entre ellos mencionaremos el diseño de los circuitos necesarios para realizar aritmética binaria y la construcción de los primeros modelos operativos basados en relés electromagnéticos, aportaciones debidas a Claude Shannon y a George Stibitz.

Mientras tanto el ingeniero alemán Konrad Zuze construyó por su cuenta en 1938 una unidad experimental llamada Z1, que constituía un auténtico ordenador digital. En poco tiempo se construyeron el Z2, Z3 y Z4, que fueron introduciendo sucesivas mejoras. Estos ordenadores electromagnéticos los utilizaron los alemanes durante la Segunda Guerra Mundial para diseñar aviones. Pero quedaron destruidos durante la guerra. Tal vez por esta razón son omitidos con frecuencia en la historia de la informática, considerándose al Harvard Mark I, construido en Estados Unidos, como el primer ordenador auténtico.

El Harvard Mark I fue construido bajo la dirección de Howard Aiken y financiado por la IBM entre 1939 y 1944; tenía 16m de largo y 2m de ancho, estaba compuesto por unas 700.000 piezas y varios kilómetros de cable. Era capaz de realizar las cuatro operaciones aritméticas básicas y operaba con números de hasta 23 cifras. Puede dar una idea de su rapidez el siguiente dato: multiplicaba tres números de ocho dígitos en un segundo; se debe tener presente que en su tiempo marcó un hito, aunque hoy puede parecer ridículo. No obstante en unos pocos años más aumentó espectacularmente la rapidez de cálculo hasta unos límites impensables por entonces.

El Harvard Mark I utilizaba relés, aunque ya se conocían las válvulas electrónicas y se sabía que éstas permitirían una mayor rapidez de cálculo. Pese a todo se prefirió el uso de relés, que eran más seguros que las válvulas de entonces, que se sobrecalentaban rápidamente y se estropeaban con frecuencia.

El gobierno británico, bajo la dirección del científico Alan Turing, comenzó a construir, en 1941, un ordenador, que también se basó en el uso de relés. A partir de 1943 comenzaron a construir la serie Colossus, que ya se empleaba válvulas en vez de relés. Estos ordenadores los utilizaron los ingleses durante la guerra para descifrar los mensajes en claves de los alemanes. Los Colossus fueron los primeros ordenadores electrónicos, pero sólo servían para realizar el trabajo para el que habían sido diseñados.

John Mauchly y Presper Eckert dirigieron en Estados Unidos la construcción de un ordenador de válvulas llamado ENIAC (siglas en inglés de Integrador y Calculador Numérico Electrónico), que fue terminado en 1946. Este monstruo de la ingeniería pesaba 30 tm, ocupaba 1.600m y consumía 100.000 watios diarios. En su tiempo causó asombro por su gran rapidez; podía sumar cinco mil números en un segundo. No obstante, su mayor mérito es que fue el primer ordenador electrónico polivalente, es decir, se le podía programar para realizar distintos cálculos, aunque esto resultaba muy laborioso, ya que requería rehacer conexiones y cableados.

El siguiente paso era poder almacenar en la memoria central del ordenador las instrucciones necesarias para que pudiese realizar cada uno de los trabajos que se le encomendaban. Esto permitía solucionar dos problemas: por una parte, evitaba el engorroso procedimiento de tener que programar el ordenador para cada tarea, mediante el sistema de rehacer conexiones y cableados; por otra parte, cada tarea se podía ejecutar más rápidamente al ahorrar trabajo manual a los programadores. Esta idea, propuesta por el matemático John von Newman (1903-1957), sentó las bases de la actual informática. El Manchester Mark I, en 1948, y el EDSAC, en 1949, ambos desarrollados en Gran Bretaña, fueron los primeros ordenadores capaces de almacenar los programas en la memoria.

Aquí se puede considerar que termina la prehistoria de los ordenadores y comienza la historia actual, que se suele dividir convencionalmente en cuatro períodos o generaciones.

Las cuatro generaciones

Primera generación

La primera generación de ordenadores se caracterizó por el uso de válvulas electrónicas. Estos ordenadores eran máquinas muy grandes, difíciles de operar y muy caras; su uso sólo era asequible a los gobiernos o grandes empresas y universidades, y se requería personal muy especializado para manejarlos. Entre los ordenadores de esta generación destacan la serie 600 y 700 de IBM y el UNIVAC I.

Segunda generación

La segunda generación de ordenadores se distingue por el uso de transistores en lugar de válvulas. El primer ordenador transistorizado, llamado TX - 0, apareció en 1956; en poco más de cuatro años todos los ordenadores usaban transistores. Fue un paso revolucionario en la informática que permitió reducir el tamaño de los ordenadores y aumentar su potencia, al tiempo que su precio disminuía espectacularmente.

Por otra parte, el desarrollo de los sistemas de cintas y discos permitió el aumento de la capacidad de almacenamiento de información. Algunos modelos de ordenador de esta generación son las series 1400 y 1700 de IBM y el 3600 de C. D. C.

Tercera generación

La tercera generación de ordenadores se diferenció por el uso de circuitos integrados. Los primeros ordenadores con circuitos integrados aparecieron en Estados Unidos hacia 1964. Desde su aparición el proceso de miniaturización de estos circuitos ha sido constante, lo que ha permitido diseñar sistemas informáticos cada vez más pequeños y baratos hasta llegar a los microordenadores actuales. Entre los ordenadores de esta generación se encuentran los modelos 360 y 370 de IBM, el 600 de C. D. C; el 1800 de UNIVAC, la serie 200 de HONEYWELL.

Cuarta generación

La cuarta generación de ordenadores presenta importantes avances tecnológicos en todos los órdenes, entre los que destaca el uso de memorias electrónicas, que han supuesto un nuevo abaratamiento en el coste de los ordenadores, además de una mayor fiabilidad y rapidez de las memorias. Otro de los avances importantes ha sido el establecimiento de redes de comunicación entre ordenadores. El proyecto MAC desarrollado en Estados Unidos a principios de los años sesenta fue el primer sistema en el que se interconectaron ordenadores en red. La progresiva miniaturización de los componentes electrónicos ha permitido el desarrollo de los actuales microordenadores. La cantidad de marcas y modelos, tanto en macro como en microordenadores, aparecidos durante los últimos años es enorme.

Entre los microordenadores citaremos el IBM 370 y el Burroughs 700; entre los micros mencionaremos los Apple, pioneros en esta tecnología, y los potentes IBM P.C.

Actualmente Japón está volcado en el diseño del ordenador de la quinta generación, que esperan tener concluido para 1990.

Desarrollo de la computadora digital moderna

Año

Nombre

Hecha por

Observaciones

1834

Máquina analítica

Babbage

Primer intento por construir una computadora digital

1936

Z1

Zuze

Primera máquina calculadora a base de relevadores

1943

COLOSSUS

Gobierno británico

Primera computadora electrónica

1944

Mark I

Aiken

Primera computadora americana de propósito general

1946

ENIAC I

Eckert/Mauchley

La historia de la computación moderna se inicia aquí

1949

EDSAC

Wikes

Primera computadora con programa almacenado

1951

Whirlind I

M. I. T.

Primera computadora de tiempo real

1951

UNIVAC I

Eckert/Mauchley

Primera computadora vendida comercialmente

1952

IAS

von Neumann

La mayoría de las computadoras actuales usan este diseño

1960

PDP - 1

DEC

Primera minicomputadora (se vendieron 50)

1961

1401

IBM

Máquina pequeña de orientación comercial de gran popularidad

1961

7094

IBM

Dominó la computación científica a principios de los años sesenta

1963

B5000

Burroughs

Primera máquina diseñada para un lenguaje de alto nivel

1964

360

IBM

Primera línea de productos diseñada como familia

1964

6600

CDC

Primera máquina con paralelismo interno extensivo

1965

PDP - 8

DEC

Primera minicomputadora para el mercado de masas (se vendieron 50000)

1970

PDP - 11

DEC

Dominaron las minicomputadoras en los años setenta

1974

8080

Intel

Primer CPU de propósito general integrado

1974

CRAY - 1

Cray

Primera supercomputadora

1978

VAX

DEC

Primera supermini de 32 bits

Conclusiones

El desarrollo de las computadoras a ido en aumento día con día, a tal grado que es casi imposible mencionar todos los avances que se han hecho en los ultimos años.

Además el costo de las computadoras a disminuido tambien y se hacen más accesibles para todas las personas.

Cada vez las computadoras son de menor tamaño y costo,pero las actividades que pueden realizar, así como sus capacidades y rapidez de proceso siguen aumentando.

En un futuro no muy lejano se podra llegar a construir robots que puedan tener la capacidad de razonar y aprender como los humanos.

Bibliografía

Enciclopedia Temática Imago.

Tomo 6 “Informática y Programación”.

Editorial Santillana.

“El malabarista de los números: Blaise Pascal”. Bram de Swaan.

Pangea Editores.

1a. Edición 1992, México.

“Los inventos”.Lionel Bender.

Biblioteca Visual Altea.

Editorial Altea, 1994, Mécico.

Enciclopedia Descubrir.

Volumen 13 “Historia de la Informática”.

Pag. 2936.

Editorial Hachette - Latinoamericana.

Libros del rincon SEP, 1992, México.

Historia de las computadoras

Historia de las Computadoras.

7

Historia de las Computadoras.