Informática


Historia de la Computadora


Las ideas y las invenciones de muchos matemáticos, científicos, e ingenieros allanaron el camino para el desarrollo de la computadora moderna. En un sentido, la computadora tiene realmente tres fechas una como calculadora mecánica, cerca de 500 A.CC., otra como concepto (1833), y la tercera del nacimiento como la computadora digital moderna (1946).

Calculadora Mecánica.

La primera calculadora mecánica, fue un sistema de barras y de bolas móviles llamados el ábaco, fue ideada en Babilonia alrededor de 500 A.CC.. El ábaco proporcionó el método más rápido de calcular hasta 1642, cuando el científico francés Pascal Blaise inventó una calculadora hecha de ruedas y de dientes. Cuando la rueda de las unidades se movía una revolución (más allá de diez muescas), se movía la muesca de la rueda de las decenas; cuando la rueda de las decenas se movía una revolución, se movía la muesca de la rueda de los centenares; etcétera. Mejoras en la calculadora mecánica de Pascal fueron llevadas a cabo por los científicos e inventores tales Gottfried Wilhelm Leibniz, W.T. Odhner, Dorr E. Felt, Frank S. Baldwin y Jay R. Monroe.

Más allá de la máquina sumadora.

El concepto de la computadora moderna primero fue contorneado en 1833 por el matemático británico Charles Babbage. Su diseño de un "motor analítico" contuvo todos los elementos necesarios de una computadora moderna: dispositivos de entrada de información, un almacén (memoria), un molino (unidad que cómputo), una unidad de control, y dispositivos de salida. El diseño llevó más de 50,000 piezas móviles en una máquina de vapor tan grande como una locomotora. La mayoría de las acciones del motor analítico eran realizadas utilizando tarjetas perforadas, una adaptación al método que ya era usado para controlar máquinas de cosido automático de seda. Aunque Babbage trabajó en el motor analítico por casi 40 años, él nunca construyó realmente una máquina de trabajo.

En 1889 Herman Hollerith, inventor americano, patentó una máquina calculadora que contó, comparó y ordenó la información guardada en tarjetas perforadas. Cuando las tarjetas eran colocadas en su máquina, presionaban una serie de contactos del metal que correspondía a la red de perforaciones potenciales. Cuando un contacto encontraba en un agujero (perforado para representar la edad, ocupación, etcétera), cerraba un circuito eléctrico y aumentaba la cuenta para esa categoría. Su máquina primero fue utilizada para ayudar a clasificar la información estadística para el censo 1890 de Estados Unidos.

En 1896 Hollerith fundó la Compañía de Máquinas de Tabulación para producir máquinas similares. En 1924, después una numerosa fusión, la compañía cambió su nombre a International Bussines Machine Corporation (IBM). IBM hizo de la maquinaria de tarjetas de oficina un negocio dominante en los sistemas de información hasta que tarde en los años 60, cuando una nueva generación de computadoras hizo obsoleta a la máquina de tarjetas.

En los últimos 20 y 30 años, varios nuevos tipos de calculadoras fueron construidos. Vannevar Bush, ingeniero americano, desarrolló el analizador diferenciado, la primera calculadora capaz de solucionar ecuaciones diferenciales. Su máquina calculaba con números decimales y por lo tanto requirió centenares de engranajes y ejes para representar los varios movimientos y lazos de los diez dígitos.

En 1939 los físicos americanos John V. Atanasoff y Clifford Berry produjeron el prototipo de una computadora en el sistema de numeración binario. Atanasoff pensaba que un número binario era mejor para satisfacer los cómputos que los números decimales porque dos dígitos 1 y 0 pueden ser representados fácilmente por un circuito eléctrico, que sería encendido o apagado. Además, George Boole, matemático británico, había ideado ya un sistema completo de la álgebra binaria que se pudo aplicar a los circuitos de la computadora.

Calculadoras Numéricas Electrónicas

La computadora moderna creció fuera de los esfuerzos intensos de la investigación montados durante la Segunda Guerra Mundial. Desde 1941 el inventor alemán Konrad Zuse produjo una computadora operacional, la Z3, que fue utilizado en los diseños de aviones y de misiles. El gobierno alemán rechazó ayudarle a refinar la máquina, sin embargo, la computadora nunca alcanzó su potencia completa.

Un matemático de Harvard nombrado Howard Aiken dirigió el desarrollo de la Calculadora Controlada de Secuencia Automática de Harvard-IBM, conocida más adelante como la Marca I una computadora electrónica que utilizó 3,304 relais electromecánicos como interruptores encendido-apagado. Terminada en 1944, su función primaria era crear las tablas balística para hacer la artillería de la marina más exacta.

La primera computadora completamente electrónica, que utilizó los tubos de en vez de los relais mecánicos, era tan secreta que su existencia no fue revelada hasta décadas después de que fuera construida. Inventada por el matemático inglés Alan Turing y puesta en operación antes de 1943, el Colossus era la computadora con que los criptógrafos británicos rompían los códigos secretos militares de los alemanes.

Como Colossus fue diseñado para solamente una tarea, la distinción como la primera computadora electrónica moderno de uso general pertenece correctamente a ENIAC (Electronic Numerical Integrator and Calculator). Diseñada por dos ingenieros americanos, Juan W. Mauchly y J. Presper Eckert, Jr., ENIAC entró servicio en la universidad de Pennsylvania en 1946. Su construcción era una enorme hazaña de ingeniería la máquina de 30 toneladas contuvo 17,468 tubos de vacío conectados por 500 millas (800 kilómetros) de cableado. ENIAC realizó 100,000 operaciones por segundo. La invención del transistor en 1948 trajo una revolución en el desarrollo de la computadora. Los tubos de vacío calientes, no fiables fueron substituidos por los transistores pequeños del germanio (luego silicio) que generaban poco calor con todo funcionado perfectamente como los interruptores o los amplificadores.

El descubrimiento en la miniaturización de la computadora vino en 1958, cuando Jack Kilby, ingeniero americano, diseñó el primer circuito integrado verdadero. Su prototipo consistió en una oblea del germanio que incluyó los transistores, las resistencias y los condensadores, los componentes principales del trazado de circuito electrónico. Usando chips de silicio menos costosos, los ingenieros tuvieron éxito en poner más y más componentes electrónicos en cada chip. El desarrollo de la integración en gran escala (LSI) permitió abarrotar centenares de componentes en un chip; la integración a muy gran escala (VLSI) hizo crecer ese número a los centenares de millares; y los ingenieros proyectan que las técnicas de integración ultra grande (ULSI) permitirán ser colocados alrededor de 10 millones de componentes en un microchip el tamaño de una uña.

Otra revolución en tecnología del microchip ocurrió en 1971 en que el ingeniero americano Marcian E. Hoff combinó los elementos básicos de una computadora en un chip de silicio minúsculo, que llamó microprocesador. Este microprocesador Intel 4004 y centenares de variaciones que las siguieron son las computadoras dedicadas que hacen funcionar millares de productos modernos y forman el corazón de casi cada computadora electrónica de uso general.

Revolución de la PC

A mediados de los años setenta, los microchips y los microprocesadores habían reducido drásticamente el costo de los millares de componentes electrónicos requeridos en un computadora. La primera computadora de escritorio accesible diseñada específicamente para el uso personal fue llamada la Altair 8800 y vendida por Micro Instrumentation Telemetry Systems en 1974. En 1977 Tandy Corporation se convirtió en la primera firma principal del elemento electrónico para producir una computadora personal. Agregaron un teclado y un CRT a su computadora y ofrecieron medios de guardar programas en una grabadora. Pronto, una compañía pequeña llamada Apple Computer, fundado por el ingeniero Stephen Wozniak y los trabajos de Steven Jobs, comenzaron a producir una computadora superior.

La IBM introdujo su computadora personal, o PC, en 1981. Como resultado de la competencia de los fabricantes de clones (computadoras que funcionaron exactamente como una PC IBM), el precio de computadoras personales cayó drásticamente. La computadora personal de hoy es 200 veces más rápida que ENIAC, 3,000 veces más ligera, y vario millones de dólares más barata. En la rápida sucesión de computadoras se ha contraído del modelo de escritorio a la computadora portátil y finalmente a la del tamaño de la palma. Con algunas computadoras personales la gente puede incluso escribir directamente en una pantalla de cristal líquido usando una aguja electrónica pequeña y las palabras aparecerán en la pantalla en mecanografiado limpio.

Inteligencia artificial y sistemas expertos

La investigación en inteligencia artificial está procurando diseñar una computadora que pueda imitar los procesos y las habilidades propias del pensamiento del ser humano como el razonamiento, solucionar problemas, toma de decisiones y aprender. Se cree que la inteligencia humana tiene tres componentes principales: sentido, capacidad de clasificar y de conservar conocimiento, y capacidad de hacer elecciones basadas en la experiencia acumulada.

Los sistemas expertos o los programas de computadora que simulan los procedimientos de toma de decisión de humanos expertos, ya existen y exhiben los componentes segundos y terceros de la inteligencia. INTERNIST, por ejemplo, es un sistema informático que puede diagnosticar 550 enfermedades y desórdenes humanos con exactitud tal como la de los doctores humanos expertos.

La Historia de la computadora.

2do de educación media.

Santo Domingo ; Rep. Dom.

17 de diciembre de 1999.-

'Historia de la Computadora'




Descargar
Enviado por:Rafael Estévez
Idioma: castellano
País: República Dominicana

Te va a interesar