Historia de las computadoras

Computación. Informática. Generaciones informáticas. Ordenadores personales. Tipos de ordenadores

  • Enviado por: Belindakudai
  • Idioma: castellano
  • País: México México
  • 8 páginas
publicidad
publicidad

'Historia de las Computadoras'

1ER SEMESTRE

GRUPO “D”

INFORMATICA

TEMA: EVOLUCION TECNOLOGICA DE LAS COMPUTADORAS

(HISTORIA DE LAS COMPUTADORAS)

H, VERACUZ, VER A JUEVES 20 DE SEPTIEMBRE 2007

Las computadoras aparecen a finales de la década de 1950.

La computadora resulta ser un medio mecánico para representar descripciones libre de antigüedad y obtener un resultado útil.

Más aún, podría decirse que la computadora aparece cuando los niveles tecnológicos alcanzan el grado de avance y refinamiento que ya tenían las ideas y conceptos matemáticos, lo cual sucede a mediados del siglo XX.

Uno de los problemas que siempre nos ha cautivado es el relacionado con la actividad de contar y con el concepto de número.  De ahí que las primeras herramientas que se inventaron en esté ingenio mecánico capaz de liberarnos de la pesada tarea de calcular a mano.

El ábaco, es la primera calculadora mecánica, aunque no se puede llamar computadora porque carece de un elemento fundamental, el programa, que no se logrará hasta mucho tiempo después.

La maquina de calcular de Blaise Pascal (1623-1662).  Se trata de engranes en una caja, que proporcionan resultados de operaciones de suma y resta en forma directa - mostrando un numero a través de una ventanita-

La máquina analítica de Charles Babbage, nació alrededor de 1830, esta podría considerarse la primer computadora. Este diseño, nunca llevado por completo a la práctica, contenía todos los elementos que configuran una computadora moderna y la diferencian de una calculadora.

La máquina analítica estaba dividida funcionalmente en dos grandes partes: una que ordenaba y otra que ejecutaba las órdenes. La que ejecutaba las órdenes era una versión muy ampliada de la máquina de Pascal, mientras que la otra era la parte clave.  La innovación consistía en que el usuario podía, cambiando las especificaciones de control, lograr que la misma máquina ejecutara operaciones complejas, diferentes de las hechas antes.

Cien años después de Babbage, en 1947 se diseño la primera computadora electrónica digital, que tenia gran parecido funcional con la maquina analítica de Babbage, aunque antes hubo algunos esfuerzos.

Un equipo dirigido por los Doctores John Mauchly y John Ecker de la Universidad de Pennsylvania, termino en 1947 la ENIAC (Electronic Numerical Integrator And Computer) que puede ser considerada como l a primera computadora digital, electrónica de la historia.

Esta maquina era enorme media 10 x 16 metros, ocupaba el sótano de una Universidad, pesaba 30 tonelada, tenia 17,468 tubos  de vació y 60000 relevadores, consumía 140 Kw y requería un sistema de aire acondicionado industrial.  Pero era capaz de efectuar alrededor de 5000 sumas o 2800 multiplicaciones en un segundo, calculo el valor de la constate pi. Como entre otras cosas iba a reemplazar a un grupo de matemáticas que hacia cómputos numéricos para una oficina especializada, recibió el nombre de “computadora”.

El nuevo equipo diseño la EDVAC (Electronic Discrete Variable Automatic Computer), tenia cerca de 40,000 bulbos y usaban un tipo de memoria basado en tubos de mercurio donde circulaban señales eléctricas sujetas a retardos.

La nueva idea fundamental resulta muy sencilla, pero de vital importancia: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada de manera “suave” y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como la ENIAC.

Esta clasificación se emplea poco ya, y además el criterio para determinar cuando se dio el cambio de una generación a otra no está claramente definido, aunque proponemos que al menos debieran cumplirse los dos requisitos estructurales :

Cambios estructurales de construccion

Avances significativos en la forma de comunicación con las computadoras.

TIPOS DE COMPUTADORAS U ORDENADORES

En la actualidad existen dos tipos de:

ORDENADORES ANOLOGICOS las analógicas un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada.

ORDENADOR DIGITAL el ordenador puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en megahercios, o millones de ciclos por segundo. Un ordenador con una velocidad de reloj de 100 MHz, velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de ciclos por segundo.

La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo. Un grupo de ocho bits se denomina byte y cada uno contiene 256 configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el número decimal 210, o bien estar indicando al ordenador que compare los datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip de memoria. El desarrollo de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la velocidad de los ordenadores. La colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a medida que avanza el desarrollo de los ordenadores digitales modernos.

Primera Generación (1951 a 1958)

Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.

Segunda Generación (1959-1964) Transistor Compatibilidad Limitada

El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.

Los programas de computadoras también mejoraron. El COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación.

Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.

La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH. Esta generacion no duro mucho solo duro 5 años

Tercera Generación (1964-1971) Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora

Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.

Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.

La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea.

Cuarta Generación 1971 a la fecha Microprocesador, Chips de memoria, Microminiaturización

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC Personal Computer).

Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo.

Unidad central de proceso (CPU), circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento, los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida.

El microprocesador

El microprocesador es un circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo. Podríamos decir de él que es el cerebro del ordenador. Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles o aviones.

El microprocesador es un tipo de circuito sumamente integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos electrónicos complejos formados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material conocido como semiconductor. Los microprocesadores modernos incorporan hasta 10 millones de transistores, además de otros componentes como resistencias, diodos, condensadores y conexiones, todo ello en una superficie comparable a la de un sello postal.