Informática


Historia de los ordenadores


República Bolivariana de Venezuela

Ministerio de Educación Superior

Instituto Universitario de Tecnología Agro-Industrial

San Cristóbal, Estado Táchira

HISTORIA DEL COMPUTADOR

Realizador Por:

Sección: I

San Cristóbal, Febrero de 2007.

Introducción

Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente tipo para realizar sus trabajos, para hacerlos más simples y rápidos. La historia conocida de los artefactos que calculan o computan, se remonta a muchos años antes de Jesucristo.

La historia de la computadora es muy interesante ya que muestra como el hombre logra producir las primeras herramientas para registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos empezaron a formar naciones y el comercio era ya medio de vida.

La evolución histórica del procesamiento de datos se divide en cuatro fases:

1.- técnicas de registros

2.- dispositivos de cálculo

3.- programas de tarjetas perforadas

4.- computadores electrónicos

Una computadora procesa datos. Las empresas desarrollan departamentos de procesamiento de datos (programación de computadoras), pues las computadoras procesan datos para producir información significativa.

Los datos se construyen de hechos y cifras en bruto (sin procesar). La información está constituida por los datos procesados; la información tiene significado, los datos no.

La computadora y sus programas llevan a cabo el procesamiento de la entrada; por lo tanto el programa convierte los datos en información útil.

Historia del Computador

Comprende el surgimiento de herramientas en la antigüedad para facilitar los cálculos, su mejora, cambios, hasta la aparición del ordenador digital en el siglo XX.

La Computación, y por tanto, las Ciencias de la Computación, tienen su origen en el cálculo, es decir, en la preocupación del ser humano por encontrar maneras de realizar operaciones matemáticas de forma cada vez más rápida y más fácilmente. Pronto se vio que con ayuda de aparatos y máquinas las operaciones podían realizarse de forma más rápida y automática.

El primer ejemplo que encontramos en la historia es el:

El Abaco

Dos principios han coexistido respecto a este tema. Uno es usar cosas para contar, ya sea los dedos, piedras, conchas, semillas. El otro es colocar esos objetos en posiciones determinadas. Estos principios se reunieron en el ábaco, instrumento que sirve hasta el día de hoy, para realizar complejos cálculos aritméticos con enorme rapidez y precisión.

En el Siglo XVII en occidente se encontraba en uso la regla de cálculo, calculadora basada en las investigaciones de Nappier, Gunther y Bissaker. John Napier (1550-1617) descubre la relación entre series aritmética y geométricas, creando tablas que llama logaritmos. Edmund Gunter se encarga de marcar los logaritmos de Napier en líneas. Bissaker por su parte coloca las líneas de Nappier y Gunter sobre un pedazo de madera, creando de esta manera la regla de cálculo. Durante más de 200 años, la regla de cálculo es perfeccionada, convirtiéndose en una calculadora de bolsillo, extremadamente versátil.

Por el año 1700 las calculadoras numéricas digitales, representadas por el ábaco y las calculadoras análogas representadas por la regla de cálculo, eran de uso común en toda Europa.

La Pascalina

La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

La máquina analítica

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.

Primeros Ordenadores

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

'Historia de los ordenadores'

Ordenadores electrónicos

1944 marca la fecha de la primera computadora, al modo actual, que se pone en funcionamiento. Es el Dr. Howard Aiken en la Universidad de Harvard, Estados Unidos, quien la presenta con el nombre de Mark I. Es esta la primera máquina procesadora de información. La Mark I funcionaba eléctricamente, instrucciones e información se introducen en ella por medio de tarjetas perforadas y sus componentes trabajan basados en principios electromecánicos. A pesar de su peso superior a 5 toneladas y su lentitud comparada con los equipos actuales, fue la primer máquina en poseer todas las características de una verdadera computadora.

La primera computadora electrónica fue terminada de construir en 1946, por J.P.Eckert y J.W.Mauchly en la Universidad de Pensilvania, U.S.A. y se le llamó ENIAC. Con ella se inicia una nueva era, en la cual la computadora pasa a ser el centro del desarrollo tecnológico, y de una profunda modificación en el comportamiento de las sociedades.

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John Von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.

A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

Generaciones

El avance de la tecnología empleada en la construcción de los Computadores y los métodos de explotación de los mismos ha variado notablemente. Esto ha dado lugar a que podamos distinguir hasta ahora cinco generaciones distintas. El paso de una generación a otra siempre ha venido marcado por las siguientes características:

  • Miniaturización del tamaño.

  • Fiabilidad.

  • Capacidad para resolver problemas complicados.

  • Velocidad de cálculo.

Primera Generación

Comprende desde 1951 hasta 1959. La compañía Sperry Rand Corporation construye la UNIVAC I, el primer Computador comercialmente disponible. Los componentes electrónicos usados fueron válvulas electrónicas, por este motivo su tamaño era muy grande y su mantenimiento complicado. Se calentaban rápidamente y esto obligaba a utilizar costosos sistemas de refrigeración. Eran de escasa fiabilidad, los tiempos de computación de los circuitos fundamentales eran de varios microsegundos, con lo que la ejecución de los programas largos implicaba espera, incluso de varios días.

La forma de ejecutar los trabajos en los Computadores de esta generación era estrictamente a modo de secuencia.

La Primera Generación (electromecánicos y electrónicos de tubos de vacío).

Para tabular el censo de 1890, el gobierno de Estados Unidos estimó que se invertirían alrededor de diez años. Un poco antes, Herman Hollerith (1860-1929), había desarrollado un sistema de tarjetas perforadas eléctrico y basado en la lógica de Boole, aplicándolo a una máquina tabuladora de su invención. La máquina de Hollerith se usó para tabular el censo de aquel año, durando el proceso total no más de dos años y medio. Así, en 1896, Hollerith crea la Tabulating Machine Company con la que pretendía comercializar su máquina. La fusión de esta empresa con otras dos, dio lugar, en 1924, a la International Business Machines Corporation (IBM).

Sin embargo, en el censo de 1910, el sistema de Hollerith fue sustituido por uno desarrollado por James Powers. En 1911 James Powers constituyó la Power's Tabulating Machine Company, convirtiéndose en el principal competidor de Hollerith.

En 1900, en el Congreso Internacional de Matemáticas de París, David Hilbert (1862-1943) pronunció una conferencia de título Problemas matemáticos, en la que proponía una lista de 23 problemas que estaban sin resolver (algunos todavía lo están).


Dos de estas cuestiones fueron: ¿es la matemática completa?, es decir, ¿puede ser demostrada o refutada cualquier sentencia matemática? y ¿es la matemática consistente?, es decir, ¿es cierto que sentencias tales como 0 = 1 no pueden demostrarse por métodos válidos?. En 1931, Kurt Gödel (1906-1978) fue capaz de responder a estas dos preguntas, demostrando que cualquier sistema formal suficientemente potente es inconsistente o incompleto.

Otra de las cuestiones era: ¿son las matemáticas decidibles? es decir, ¿hay un método definido que pueda aplicarse a cualquier sentencia matemática y que nos diga si esa sentencia es cierta o no?. Esta cuestión recibió el nombre de enstcheidungsproblem.

En 1936, Alan Turing (1912-1954) contestó a esta cuestión en el artículo On Computable Numbers. Para resolver la cuestión Turing construyó un modelo formal de computador, la Máquina de Turing, y demostró que había problemas tales que una máquina no podía resolver. Al mismo tiempo en Estados Unidos contestaba a la misma cuestión Alonzo Chuch, basándose en una notación formal, que denominó cálculo lambda, para transformar todas las fórmulas matemáticas a una forma estándar. Basándose en estos resultados, entre 1936 y 1941, el ingeniero alemán Konrad Zuse (1910-1957), diseñó y construyó su serie de computadores electromecánicos binarios, desde el Z1 hasta el Z3. Sin embargo estos computadores no tuvieron mucha difusión, ni siquiera dentro de su país, ya que el gobierno nazi nunca confió en los trabajos de Zuse.

En 1938, Claude Shannon (1916) demostró cómo las operaciones booleanas elementales, se podían representar mediante circuitos conmutadores eléctricos, y cómo la combinación de circuitos podía representar operaciones aritméticas y lógicas complejas. Además demostró como el álgebra de Boole se podía utilizar para simplificar circuitos conmutadores. El enlace entre lógica y electrónica estaba establecido.

Al desencadenarse la Segunda Guerra Mundial, la necesidad de realizar complicados cálculos balísticos y la exigencia de descodificar los mensajes cifrados del otro bando, impulsó el desarrollo de los computadores electrónicos de propósito general. El propio Turing fue reclutado en Bletchley Park, en Inglaterra, para descifrar los mensajes que encriptaba la máquina alemana Enigma, para lo que fue necesario construir la computadora Colossus.

En la Universidad de Harvard, Howard Aiken (1900-1973) en colaboración con IBM, empezó, en 1939, la construcción del computador electromecánico Mark I, en la que trabajó como programadora Grace Murray Hopper. Pero para cuando se terminó en 1944, ya habían aparecido las primeras computadoras totalmente electrónicas, que eran mucho más rápidas.

Por otro lado, en la Universidad del Estado de Iowa, entre 1937 y 1942, John Vincent Atanasoff (1903-1995) y Clifford Berry, diseñaron y construyeron la ABC (Atanasoff-Berry Computer). Terminada en 1942, fue la primera computadora electrónica digital, aunque sin buenos resultados y nunca fue mejorada. En 1941, John W. Mauchly (1907-1980) visitó a Atanasoff y observó de cerca su impresionante maquinaria, teniendo la oportunidad de revisar su tecnología. Más tarde, Mauchly y J. Presper Eckert, Jr (1919-1995), diseñaron y construyeron, entre los años 1943 y 1946, el computador eléctrico de propósito general ENIAC. Existe una gran controversia respecto a que Mauchly copiara muchas de las ideas y conceptos del profesor Atanasoff, para construir la computadora ENIAC. En cualquier caso en las últimas fases de su diseño y construcción aparece la importante figura de John Von Neumann (1903-1957), que actúa como consultor.

Von Neumann escribió en 1946, en colaboración con Arthur W. Burks y Herman H. Goldstine, Preliminary Discussion of the Logical Design of an Electronic Computing Instrument, que contiene la idea de Máquina de Von Neumann, que es la descripción de la arquitectura que, desde 1946, se aplica a todos los computadores que se han construido.

Con estos fundamentos, Eckert y Mauchly construyen en la Universidad de Manchester, en Connecticut (EE.UU.), en 1949 el primer equipo con capacidad de almacenamiento de memoria, la EDVAC. Eckert y Mauchly forman una corporación para construir una máquina que se pueda comercializar, pero, debido a problemas financieros, se vieron obligados a vender su compañía a a Remington Rand Corp. Trabajando para esta compañía fue que se concluyó el proyecto Univac, en 1951.

También por esta época Maurice Wilkes construye la EDSAC en Cambridge (Inglaterra) y F.C. Williams construye en Manchester (Inglaterra), la Manchester Mark I.

Estas máquinas se programaban directamente en lenguaje máquina, pero a partir de mediados de los 50, se produjo un gran avance en la programación avanzada.

Características Principales

 

Tecnología: válvulas de vacío, eran máquinas voluminosas, de alto consumo, caras y de vida limitada.

Avances del equipo físico: en la memoria se pasa de registros de válvulas a núcleos de ferrita; en la memoria secundaria, de tarjetas y cintas perforadas a tambores y cintas magnéticas. Además se introduce el control de interrupciones.

Avances del equipo lógico: utilización de aritmética binaria, programación en ensamblador (para ayudar al programador).

Principales Equipos que se destacan

Mark I.

Un dispositivo electromecánico, basado en relés, fabricado para la Marina de EU por Howard Aitken e ingenieros de la IBM. La ultima en su clase. Sustituida por la electrónica.

 

Colossus.

Descifrador de códigos de propósito especial fabricado por los británicos. Usado para descifrar los códigos de radio de los alemanes.

 

ABC.

Siglas de Atanasoff-Berry Computer, fabricada en la Univ. Estatal de Iowa. Conocida ahora como la primera computadora digital electrónica.

  ENIAC.

La más famosa de las primeras computadoras, contenía más de 18.000 tubos de vacío. Fabricada para aplicaciones balísticas del Ejército de EU.

 

Manchester Mark I.

Producida por la Universidad de Manchester; la primera computadora con "programa almacenado". Hasta ese momento, todas las computadoras tenían que ser reprogramadas mediante cambios en el alambrado. Esto fue un gran avance.

 

UNIVAC I

Primera computadora creada por una firma comercial pertenecientes a John W. Mauchly y J. Prespert Eckert.

 

SEGUNDA GENERACION

Comprende desde 1959 a 1964. Fueron diseñadas con orientación científico - administrativa. Las compañías NCR y RCA introducen las primeras computadoras construidas completamente a base de componentes denominados transistores que adoptan la forma de paralelepípedos de silicio, la velocidad de cálculo aumentó considerablemente. Los Computadores más populares de esta generación fueron el IBM-1401, IBM-1620, IBM-7090, IBM-7094.

La Segunda Generación (los transistores y los avances en programación)

Allá por 1945 la máxima limitación de las computadoras era la lenta velocidad de procesamiento de los relés electromecánicos y la pobre disipación de calor de los amplificadores basados en tubos de vacío.


En 1947, John Bardeen, Walter Brattain y William Shockley inventan el transistor, recibiendo el Premio Nobel de Física en 1956. Un transistor contiene un material semiconductor, normalmente silicio, que puede cambiar su estado eléctrico. En su estado normal el semiconductor no es conductivo, pero cuando se le aplica un determinado voltaje se convierte en conductivo y la corriente eléctrica fluye a través de éste, funcionando como un interruptor electrónico.


Los computadores construidos con transistores eran más rápidos, más pequeños y producían menos calor, dando también oportunidad a que, más tarde, se desarrollaran los microprocesadores. Algunas de las máquinas que se construyeron en esta época fueron la TRADIC, de los Laboratorios Bell (donde se inventó el transistor), en 1954, la TX-0 del laboratorio LINCOLN del MIT y las IBM 704, 709 y 7094. También aparece en esta generación el concepto de supercomputador, específicamente diseñados para el cálculo en aplicaciones científicas y mucho más potentes que los de su misma generación, como el Livermore Atomic Research Computer (LARC) y la IBM 7030.

Pero esta generación se explica también por los avances teóricos que se dan.

Así, en 1950, Alan Turing publica el artículo Computing Machinery and Intelligence en la revista Mind, en el que introducía el célebre Test de Turing. Este artículo estimuló a los pensadores sobre la filosofía e investigación en el campo de la Inteligencia Artificial. Por desgracia, Turing no fue testigo del interés que desató su artículo, porque en 1952 fue detenido por su relación homosexual con Arnold Murray y fue obligado a mantener un tratamiento con estrógenos que le hizo impotente y le produjo el crecimiento de pechos. En 1957, fue encontrado muerto en su casa al lado de una manzana mordida a la que había inyectado cianuro.

En 1951, Grace Murray Hooper (1906-1992) da la primera noción de compilador y más tarde desarrolla el COBOL. Pero fue John Backus, en 1957, el que desarrolla el primer compilador para FORTRAN. En 1958, John MacCarthy propone el LISP, un lenguaje orientado a la realización de aplicaciones en el ámbito de la Inteligencia Artificial. Casi de forma paralela, Alan Perlis, John Backus y Peter Naur desarrollan el lenguaje ALGOL.

Pero el personaje más importante en el avance del campo de los algoritmos y su análisis, es Edsger Dijkstra (1930- ), que en 1956, propuso su conocido algoritmo para la determinación de los caminos mínimos en un grafo, y más adelante, el algoritmo del árbol generador minimal. Más tarde, en 1961, N. Brujin introduce la notación O, que sería sistematizada y generalizada por D. Knuth. En 1957, aparece la Programación Dinámica de la mano de R. Bellman. En 1960, S. Golomb y L. Baumet presentan las Técnicas Backtracking para la exploración de grafos. Se publican en 1962 los primeros algoritmos del tipo Divide y Vencerás: el QuickSort de Charles Hoare y el de la multiplicación de grandes enteros de A. Karatsuba e Y. Ofman.


En 1959, Jack Kilby (1923) presenta el primer circuito integrado, un conjunto de transistores interconectados con resistencias, en una pequeña pastilla de silicio y metal, llamada chip. Fue a partir de este hecho que las computadoras empezaron a fabricarse de menor tamaño, más veloces y a menor costo, debido a que la cantidad de transistores colocados en un solo chip fue aumentando en forma exponencial.

Características Principales

 

Tecnología: en 1948 se inventó el transistor en los laboratorios de la Bell. Pero hasta 1954 no construyeron el TRADIC en la Bell, que fue el primer computador transistorizado. Las ventajas del transistor son que es más pequeño, el consumo es menor y más barato que las válvulas. Con lo cual los computadores se hacen más asequibles.

Avances del equipo físico: se consolidan las memorias de ferrita. Aparecen los canales de E/S.

Avances del equipo lógico: aparecen los lenguajes de alto nivel (FORTRAN, COBOL, ALGOL, PL1). Se impone el procesamiento tipo batch o por lotes: ejecución automática y secuencial de los programas de usuario, uno a uno.

 

Principales Equipos que se destacan

 

UNIVAC 1107, BURROUGH D-805, PDP-5 de DEC, y las científicas IBM 7070, 7090, 7094.

TERCERA GENERACION

Comprende desde 1965. La compañía IBM produce las series 360 y 370, construidas con circuitos integrados de pequeña escala y de gran escala respectivamente, los cuales sustituyen, cada uno de ellos, a varios transistores, ocupando menor espacio y a menor costo. Estas series poseen memoria virtual que permite optimizar la memoria principal.

Las computadoras de esta generación se caracterizan por:

Uso de circuitos integrados: lo cual hizo posible la reducción del tamaño físico del Computador, y aumentó la velocidad de procesamiento, confiabilidad y precisión.

Multiprogramación: que es la ejecución de varios programas simultáneamente.

Tercera Generación (cicuitos integrados y minituarización)

A partir del circuito integrado, se producen nuevas máquinas, mucho más pequeñas y rápidas que las anteriores, así aparecen las IBM 360/91, IBM 195, SOLOMON (desarrollada por la Westinghouse Corporation) y la ILLIAC IV, producida por Burroughs, el Ministerio de Defensa de los EE.UU y la Universidad de Illinois.

Seymour Cray (1925-1996) revoluciona el campo de la supercomputación con sus diseños: en 1964, el CDC 6600, que era capaz de realizar un millón de operaciones en coma flotante por segundo; en 1969, el CDC 7600, el primer procesador vectorial, diez veces más rápido que su predecesor.

En cuanto a los avances teóricos, a mediados de los 60, un profesor de Ciencias de la Computación, Niklaus Wirth, desarrolla el lenguaje PASCAL, y en Berkeley, el profesor Lotfi A. Zadeh, publica su artículo Fuzzy Sets, que revoluciona campos como la Inteligencia Artificial, la Teoría de Control o la Arquitectura de Computadores.

En 1971, Intel introduce el primer microprocesador. El potentísimo 4004 procesaba 4 bits de datos a la vez, tenía su propia unidad lógicoaritmética, su propia unidad de control y 2 chips de memoria. Este conjunto de 2.300 transistores que ejecutaba 60.000 operaciones por segundo se puso a la venta por 200 dólares. Muy pronto Intel comercializó el 8008, capaz de procesar el doble de datos que su antecesor y que inundó los aparatos de aeropuertos, restaurantes, salones recreativos, hospitales, gasolineras...

A partir de aquí nacieron las tecnologías de integración a gran escala (LSI) y de integración a muy gran escala (VLSI), con las que procesadores muy complejos podían colocarse en un pequeño chip.

Sin embargo, hasta este momento, por motivos económicos, complejidad de uso y dificultad de mantenimiento, los computadores habían sido patrimonio de universidades, organismos militares y gubernamentales, y grandes empresas.

En 1975, Popular Electronics dedicó su portada al primer microcomputador del mundo capaz de rivalizar con los modelos comerciales, el Altair 8800.

Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.

 

Los sistemas de la segunda generación eran bastantes especializados. Se les diseñaba para procesar aplicaciones tanto científicas como no científicas, pero no se procuraba que funcionaran adecuadamente en los dos ambientes. Esta situación cambió cuando en 1964 cuando IBM anunció una tercera generación de equipo de cómputo: Su familia System 360 de macro computadoras. Cada uno de los procesadores de esta familia tenía un conjunto muy amplio de instrucciones internas que podía ejecutar. Algunas de esas instrucciones eran especialmente útiles en aplicaciones científicas, mientras que otras eran más apropiadas para procesamiento de archivos. De ese modo era posible utilizar la línea 360 de manera eficiente en los dos ambientes.

 

Con la introducción del modelo 360, IBM capturó el 70% del mercado, dejando a RCA, General Electric y Xerox fuera del campo de las computadoras grandes. Sin embargo, la estandarización del modelo 360 permitió el crecimiento de los fabricantes de dispositivos de almacenamiento, cuyos periféricos eran compatibles con las series de IBM.

 

Para evitar competir directamente con la IBM, Digital Equipment Corporation (DEC) redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y operar que las computadoras grandes, las mini computadoras se desarrollaron durante la segunda generación y se extendió su uso entre 1960 y 1970. En 1960, DEC introdujo la primera mini computadora, la PDP-1 y en 1969 tenía ya una línea de exitosas mini computadoras.

 

La tecnología de los circuitos integrados también provocó la expansión de la industria del software. Los programas estándares fueron reescritos para trabajar en las nuevas máquinas de circuitos integrados, e incluso en máquinas todavía en fase de desarrollo. Esta compatibilidad hacia el futuro permitió a las compañías usar su software anticuado después de modernizar su hardware.

 

La multiprogramación

 

En el ambiente de computación centralizado de principios de los sesentas, los usuarios preparaban sus datos y los programas y después los llevaban al centro de cómputos para ser procesados. El centro de cómputo reunía todas estas tareas y las introducía por lotes a la computadora, a intervalos programados. El retraso inevitable que resultaba de este procesamiento por lotes era muy frustrante para algunos usuarios. Los retrasos eran demasiados irritantes para los estudiantes con tareas de programación, que a veces tenían que esperar varios días para localizar y corregir unos cuantos errores en sus programas.

 

Para corregir esta situación John Kemeny y Thomas Kurtz, profesores de la Dartmouth College, decidieron llevar más lejos algunos conceptos de tiempo compartido que se habían desarrollado en el Instituto Tecnológico de Massachussetts (MIT). Tiempo compartido es un término que se emplea para describir un sistema de proceso que cuenta con varias estaciones independientes, de baja velocidad (relativamente), en líneas susceptibles de utilizarse en forma simultánea. Cada una de las estaciones proporciona al usuario acceso directo al computador central. Kemeny y Kurtz desarrollaron programas especiales que permitían al procesador conmutar entre las distintas estaciones de estudiantes y llevar a cabo una parte del trabajo en el segmento de tiempo asignado a cada una, hasta finalizar el trabajo. La intención era dar al estudiante la ilusión de que nadie más estaba utilizando la computadora.

 

El BASIC

 

Para mejorar el ambiente de cómputo interactivo que estaban creando, los profesores desarrollaron un lenguaje de programación fácil de aprender por parte de los estudiantes universitarios de todas las carreras. El objeto era que todos los estudiantes tuvieran un incentivo para utilizar con cierta frecuencia las estaciones de tiempo compartido. Este lenguaje - el BASIC - que representa las iniciales en inglés de “código simbólico de instrucciones de aplicación general para principiantes” fue todo un éxito en Dartmouth en ambos aspectos. Dartmouth utilizaba una computadora General Electric y el sistema BASIC de tiempo compartido se implantó en este equipo con la ayuda de ingenieros de GE, a resultas del éxito del sistema de Dartmouth, General Electric y otros fabricantes ofrecieron instalaciones de tiempo compartido y el uso del lenguaje BASIC a sus clientes en todo Estados Unidos.

 

El Unix y el Lenguaje C

 

En 1969 se desarrollan en los laboratorios de AT&T Bell lo que sería el primer sistema operativo, el Unix. Antes de esto se requería que cada programador escribiera sus archivos en un tipo de formato que por lo general no era compatible con el de otro programador. Además, los programadores debían de preocuparse de tareas rutinarias como abrir archivos, cerrarlos, las colas de impresión, etc. Con la creación del sistema operativo esos pasos son encargados a la computadora misma, dando como resultado más tiempo al programador para ocuparse de los problemas reales. El Unix fue desarrollado en su mayor parte por Ken Thompson en una computadora DEC PDP-7, en un lenguaje también recién creado, el lenguaje C.

 

El lenguaje C tiene la ventaja sobre los otros leguajes de programación, que es de muy bajo nivel, al punto en que se pueden escribir programas con la misma rapidez y potencia que los programas escritos en lenguaje ensamblador. Sin embargo, cada tipo de computadora tiene un tipo de lenguaje ensamblador diferente, debido a que el lenguaje C es un lenguaje de alto nivel (no tan alto como los otros), los programas escritos en C pueden se transportados a otros computadores con un mínimo de cambios en sus estructuras básicas.

Historia del Linux y Unix

LINUX nació como un producto de Linus Torvalds, inspirado en el MINIX, el sistema operativo desarrollado por Andrew S. Tanenbaum en su obra "Sistemas Operativos: Diseño e Implementación". Libro en el cual, tras un estudio general sobre los servicios que debe proporcionar un sistema operativo y algunas formas de proporcionar éstos, introduce su propia implementación del UNIX en forma de código fuente en lenguaje C y ensamblador, además de las instrucciones necesarias para poder instalar y mejorar el mismo.

La primera versión de LINUX, enumerada como 0.01 contenía solo los rudimentos del núcleo y funcionaba sobre una máquina con el MINIX instalado, esto es, para compilar y jugar con LINUX era necesario tener instalado el MINIX de Tanembaum.

El 5 de Octubre de 1991, Linus anunció su primera versión 'oficial', la 0.02 con esta versión ya se podía ejecutar el bash (GNU Bourne Shell) y el gcc (GNU C compiler).
Después de la versión 0.03, Linus cambió este número por 0.10 y tras las aportaciones de un grupo inicial de usuarios se incrementó de nuevo la denominación a 0.95, reflejando la clara voluntad de poder anunciar en breve una versión 'oficial' (con la denominación 1.0).

En Diciembre de 1993 el núcleo estaba en su versión 0.99 pH I. En la actualidad la última versión estable es al 2.0.30 aunque existe ya la versión de desarrollo 2.1.

La enumeración de las versiones de LINUX implica a tre números separados por puntos, el primero de ellos es la versión del sistema operativo es el que distingue unas versiones de otras cuando las diferencias son importantes. El segundo número indica el nivel en que se encuentra dicha versión. Si es un número impar quiere decir que es una versión de desarrollo con lo cual se nos avisa de que ciertos componentes del núcleo están en fase de prueba, si es par se considera una versión estable. El último número identifica el número de revisión para dicha versión del sistema operativo, suele ser debido a la corrección de pequeños problemas o al añadir algunos detalles que anteriormente no se contemplaba con lo cual no implica un cambio muy grande en el núcleo. Como ejemplo sirva la versión de LINUX con la que ha sido desarrollado este trabajo, la última estable hasta hace poco tiempo, su número es 1.2.13, esto es, la versión 1 en su nivel 2 (estable) y la revisión número 13 de la misma en éste caso fue la última.

Hay que señalar que LINUX no sería lo que es sin la aportación de la Free Software Foundation y todo el software desarrollado bajo el soporte de esta asociación así como la distribución del UNIX de Berkley (BSD), tanto en programas transportados como en programas diseñados para este que forman parte de algunas distribuciones del LINUX.

 

El Microprocesador

 

A partir de 1965 cada año se duplicó el número promedio de componentes que se empacaban en una pastilla de silicio y este avance condujo a un suceso insólito: la creación de un microprocesador que podía colocarse en una sola pastilla. Un microprocesador contiene todos los circuitos necesarios para realizar funciones aritméticas lógicas y de control. Se puede construir una unidad de proceso completa con un microprocesador, unas cuantas pastillas de almacenamiento primario adicionales y algunos circuitos de apoyo.

 

El origen del microprocesador se remonta a finales de la década de 1960. En esta época, Víctor Poor, ingeniero en electrónica de la Datapoint Corporation, estaba trabajando en el diseño y desarrollo de computadoras de aplicación especial. Cada vez que se necesitaba un dispositivo diseñado a la medida, Poor y otros ingenieros iniciaban la labor de diseño desde cero. Esto le parecía a Poor un desperdicio considerable de tiempo. Lo mejor, razonaba Poor, sería colocar los elementos básicos de aritmética lógica y de control de una computadora en una sola pastilla de silicio. La pastilla podría producirse en grandes cantidades y después programarse de maneras diferentes para realizar tareas especiales.

 

En 1969 Víctor Poor y Harry Pyle, otro joven ingeniero de la Datapoint, desarrollaron un modelo de pastilla microprocesadora. Dado que Datapoint Corporation no fabricaba componentes electrónicos, Poor llevó su modelo de “pastilla procesadora” a dos fabricantes de componentes, Texas Instruments e Intel Corporation, con la esperanza de que fabricaran la pastilla para Datapoint. Estas reuniones no produjeron decisiones inmediatas, pero los fabricantes de componentes estaban en libertad de utilizar el concepto de pastilla microprocesadora y lo hicieron.

 

A finales de 1969, un ingeniero de Intel llamado Marcian “Ted” Hoff presentó sus ideas para el diseño de un microprocesador a los representantes de una compañía de calculadoras japonesas. En este tiempo las calculadoras se construían a partir de pastillas de circuitos especializadas que podían realizar únicamente una función. Pero la pastilla nueva de Hoff podía programarse para llevar a cabo varias funciones de cálculo especializadas. El cliente japonés aceptó las ideas de diseño y se empezó a trabajar con la disposición interna de los componentes de la pastilla. Este primer microprocesador, el Intel 4004, podía ejecutar únicamente algunas instrucciones, y sólo podía manipular cantidades diminutas de datos en un momento dado; pero para el otoño de 1971 Intel había producido una pastilla más poderosa, el 8008 y Texas Instruments entregaba ya un microprocesador. En 1974 Intel produjo un tercer microprocesador, el 8080 y quedaron establecidas las bases para el desarrollo de una computadora personal (PC).

 

Características Principales

 

Tecnología: se integran los transistores y aparecen los Circuitos Integrados (C.I.): SSI, MSI.

Máquinas: IBM 360. Aparecen las “Familias de Computadores”: computadores de distinta potencia y precio pero con la misma arquitectura y totalmente compatibles. Se produce una explosión de los mini-computadores: recursos más limitados pero muy asequibles (PDP-8,PDP-11).

Avances del equipo físico: tarjetas de circuito impreso (PCB); memorias electrónicas sustituyen a las de ferrita; aparecen las memorias cache; la CPU está basada en registros de propósito general.

Avances del equipo lógico: nuevos lenguajes de alto nivel (BASIC, PASCAL); gran avance en el S.O.; aparece la multiprogramación.

Principales Equipos que se destacan

 

IBM 360, PDP-8, PDP-11

CUARTA GENERACION

Comprende desde 1970. Basados en circuitos integrados de alta y media escala de integración con la que se van consiguiendo mejoras en el tamaño físico, llegando a tener Computadores de bolsillo, aparecen los minicomputadores y los microcomputadores.

Desde 1982 Sun Microsystem ha resuelto los problemas que conllevan mantener un ambiente de computación heterogéneo, a través del empleo de NFS (Network File System o Sistema de Archivos para Red de Trabajo). Este producto permite la interconexión de computadores de los principales proveedores de equipos, tales como: IBM, DEC, SUN, Unisys, Hewlett Packard, AT&T y más de 200 otros fabricantes. NFS, puede emplear el medio de comunicación que resulte más conveniente para el usuario: Ethernet, Token Ring, FDDI, y es totalmente independiente del sistema operativo que esté instalado en un equipo determinado. A través de NFS:

Se puede compartir archivos que residan en cualquier equipo conectado a la red, sin que el usuario tenga que conocer su procedencia (acceso transparente de la información).

Ejecutar programas en distintas máquinas, dependiendo de las ventajas comparativas que tiene un equipo sobre otro en una función específica.

Compartir recursos de almacenamiento y periféricos.

Administrar la red y en general, obtener la funcionalidad y seguridad de un sistema de computación distribuida.

Cuarta Generación (ordenadores personales de uso doméstico)

El Altair 8800, producido por una compañía llamada Micro Instrumentation and Telemetry Systems (MITS), se vendía a 397 dólares, lo que indudablemente contribuyó a su popularización. No obstante, el Altair requería elevados conocimientos de programación, tenía 256 bytes de memoria y empleaba lenguaje máquina. Dos jóvenes, William Gates y Paul Allen, ofrecerion al dueño de MITS, un software en BASIC que podía correr en el Altair. El software fue un éxito y, posteriormente Allen y Gates crearon Microsoft.

Paralelamente, Steven Wozniak y Steven Jobs, también a raíz de ver el Altair 8800 en la portada de Popular Electronics, construyen en 1976, la Apple I. Steven Jobs con una visión futurista presionó a Wozniak para tratar de vender el modelo y el 1 de Abril de 1976 nació Apple Computer. En 1977, con el lanzamiento de la Apple II, el primer computador con gráficos a color y carcasa de plástico, la compañia empezó a imponerse en el mercado.

En 1981, IBM estrena una nueva máquina, la IBM Personal Computer, protagonista absoluta de una nueva estrategia: entrar en los hogares. El corazón de esta pequeña computadora, con 16 Kb de memoria (ampliable a 256), era un procesador Intel, y su sistema operativo procedía de una empresa recién nacida llamada Microsoft.

En 1984, Apple lanza el Macintosh, que disponía de interfaz gráfico para el usuario y un ratón, que se hizo muy popular por su facilidad de uso.

En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio, y la colocación de muchos más componentes en un chip. Intel llevó esta idea a la conclusión lógica creando el microprocesador, un chip que contiene todos los circuitos requeridos para hacerlo programable.

 

El tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC). Un chip puede contener dos de los componentes del CPU, la unidad de control y la unidad aritmético-lógica, un tercer componente, la memoria primaria (también en chips), se maneja por separado.

 

Las computadoras personales (PC's)

 

El primer anuncio de una computadora personal construida a partir de un microprocesador apareció en el número de marzo de 1974 de QST, una revista para aficionados a la radio. El producto que se anunciaba era la Scelbi-8H, y sólo se vendieron cerca de 200 de estos procesadores. Pisándoles los talones a la Schelbi-8H venía la Altair 8800. La Altair, diseñada con base en una pastilla de Intel por una compañía de Alburquerque, Nuevo México, llamada MITS (Micro Intrumentation Telemetry Systems), se ofrecía originalmente en forma de un equipo para ensamblar por menos de 400 dólares. El artículo principal del número de enero de 1975 de la revista Popular Electronics trataba de esta máquina y es posible que dicho artículo haya iniciado la explosión de las computadoras personales. Para 1972, dos jóvenes programadores, Bill Gates y Paul Allen habían fundado una empresa llamada Traf-O-Data, en esta fecha Gates y Allen estaban completando un programa que podía traducir instrucciones escritas en BASIC a los códigos de lenguaje de máquina que requerían los procesadores de Intel. La Traf-O-Data se convirtió en Microsoft Corporation para vender el programa de BASIC Gates-Allen y la licencia del Microsoft BASIC se concedió a MITS a finales de 1975.

 

En la primavera de 1976 un joven técnico de la Hewlett-Packard llamado Steve Wozniak compró un microprocesador de MOS Technology y se propuso construir una computadora a partir de él. Esta computadora, la Apple I, se exhibió en el Homebrew Computer Club (club de computadoras hechas en casa) en el Valle del Silicio. Wozniak ofreció su diseño a Hewlett-Packard, que no se interesó por él. Un amigo de Wozniak, Steve Jobs, le propuso que formaran una compañía para vender la Apple. Sólo se construyeron cerca de 200 Apple I, pero a fines del verano Wozniak ya estaba trabajando sobre el diseño de la Apple II. Con la ayuda financiera y administrativa de Mike Markkula, antiguo ingeniero y ejecutivo de mercadeo de Intel, Apple se convirtió repentinamente en un competidor importante en la industria de las computadoras.

 

A finales de 1977, las máquinas que dominaban el mercado eran la Apple II, el modelo TRS-80 de la Radio Shack Division de la Tandy Corporation y las docenas de otras marcas que estaban diseñadas para seguir los conceptos de interconexión eléctrica utilizados en la computadora Altair. Como era de esperarse, la mayor parte de los programas de aplicación escritos antes de 1980 estaban diseñados para utilizarse con estas computadoras.

 

En el otoño de 1978 Personal Software presenta VisiCalc, que juega un papel importante en la revolución de las microcomputadoras. Esta popular hoja de cálculo facilito el análisis numérico en el escritorio y permitió a cualquier persona escribir lo que equivalía a programas sin tener que aprender un lenguaje de programación complejo. El programa era realmente una “calculadora visible” y su nombre es la asociación abreviada de esas palabras. La idea de este programa surgió de Dan Bricklin, que en esa época era estudiante de la Harvard Business School. Bricklin estaba utilizando las columnas e hileras de unas hojas de papel de contabilidad para analizar problemas de planeación financiera. Pero se requerían cálculos interminables cada vez que se hacía una suposición financiera diferente. Bricklin pensó que si se sustituían las hojas de papel por un “pizarrón electrónico” y “gises electrónicos”, la computadora podría encargarse de manipular los números. Bricklin le pidió a un programador amigo suyo llamado Bob Frankston que le ayudara a convertir su idea en un producto comercial. Frankston agregó varias funciones más y escribió el primer programa para la Apple II. VisiCalc se convirtió en un enorme éxito y fue responsable por sí solo de la venta de miles de Apple, muchas computadoras Apple II fueron vendidas con el propósito exclusivo de ejecutar VisiCalc. A medida que aparecía una nueva computadora, aparecía un nuevo programa clónico de VisiCalc por ejemplo, SuperCalc para las computadoras CP/M, Lotus 1-2-3 para IBM, y Excel para Macintosh.

 

A finales de los 70's e inicio de los 80's, las máquinas líderes en el ramo se estaban utilizando en todas partes: en los hogares, escuelas y lugares de trabajo. Además, al comenzar la década de 1980, compañías como Atari y Commodore estaban produciendo sistemas de bajo costo para utilizarse en los hogares y se introducía una nueva generación de modelos de escritorios más poderosos para emplearse en las escuelas y oficinas. IBM entró en el mercado con su familia de computadoras PC logrando enorme éxito, aparecieron en forma paralela compañías pequeñas que ofrecían equipos y programas nuevos.

 

IBM introduce su primera PC basada en el Intel 8088. Microsoft negocia con IBM para proporcionar el sistema operativo, PC DOS 1.0. Se ha informado que el código original de DOS fue comprado por Microsoft a un programador de Seattle por US$75.000. En 1982 Lotus 1-2-3 reemplaza a VisiCalc y se convierte rápidamente en una de las aplicaciones mas exitosas. Apple intenta penetrar el mercado empresarial con la Lisa, pero la arquitectura cerrada (poca habilidad de añadir productos de otros fabricantes) dificulta su aceptación.

Características Principales:

  • Mayor velocidad.

  • Mayor miniaturización de los elementos.

  • Aumenta la capacidad de memoria.

  • Multiprocesador (Procesadores interconectados).

  • Lenguaje Natural.

  • Lenguajes de programación: PROGOL (Programming Logic) y LISP (List Processing).

  • Máquinas activadas por la voz que pueden responder a palabras habladas en diversas lenguas y dialectos.

  • Capacidad de traducción entre lenguajes que permitirá la traducción instantánea de lenguajes hablados y escritos.

  • Elaboración inteligente del saber y número tratamiento de datos. 

  • Características de procesamiento similares a las secuencias de procesamiento Humano.

La Inteligencia Artificial recoge en su seno los siguientes aspectos fundamentales:

  • Sistemas Expertos

Un sistema experto no es una Biblioteca (que aporta información), si no, un consejero o especialista en una materia (de ahí que aporte saber, consejo experimentado).


Un sistema experto es un sofisticado programa de computadora, posee en su memoria y en su estructura una amplia cantidad de saber y, sobre todo, de estrategias para depurarlo y ofrecerlo según los requerimientos, convirtiendo al sistema en un especialista que está programado.

Duplica la forma de pensar de expertos reconocidos en los campos de la medicina, estrategia militar, exploración petrolera, etc...   Se programa a la computadora para reaccionar en la misma forma en que lo harían expertos, hacia las mismas preguntas, sacaba las mismas conclusiones iniciales, verificaba de la misma manera la exactitud de los resultados y redondeaba las ideas dentro de principios bien definidos.

Lenguaje natural

Consiste en que las computadoras (y sus aplicaciones en robótica) puedan comunicarse con las personas sin ninguna dificultad de comprensión, ya sea oralmente o por escrito: hablar con las máquinas y que éstas entiendan nuestra lengua y también que se hagan entender en nuestra lengua.

Robótica

Ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots.   Los Robots son dispositivos compuestos de sensores que reciben Datos de Entrada y que están conectados a la Computadora.  Esta recibe la información de entrada y ordena al Robot que efectúe una determinada acción y así sucesivamente.
Las finalidades de la construcción de Robots radican principalmente en su intervención en procesos de fabricación.  ejemplo: pintar en spray, soldar carrocerías de autos, trasladar materiales, etc...

Reconocimiento De La Voz

Las aplicaciones de reconocimiento de la voz tienen como objetivo la captura, por parte de una computadora, de la voz humana, bien para el tratamiento del lenguaje natural o para cualquier otro tipo de función.

QUINTA GENERACION

Para algunos especialistas ya se inicio la quinta generación, en la cual se busca hacer más poderoso el Computador en el sentido que sea capaz de hacer inferencias sobre un problema específico. Se basa en la inteligencia artificial.

El Hardware de esta generación se debe caracterizar por circuitos de fibra óptica que le permita mayor rapidez e independencia de procesos, arquitectura de microcanal para mayor fluidez a los sistemas, esto provee mayor número de vías para ayudar a manejar rápido y efectivamente el flujo de información. Además se están buscando soluciones para resolver los problemas de la independencia de las soluciones y los procesos basándose para ello en Sistemas Expertos (de inteligencia artificial) capaces de resolver múltiples problemas no estructurados y en Computadores que puedan simular correctamente la forma de pensar del ser humano.

La quinta generación de computadoras fue un proyecto ambicioso lanzado por Japón a finales de los 70. Su objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia artificial al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).

El proyecto duró diez años, pero no obtuvo los resultados esperados: las computadoras actuales siguen siendo de cuarta generación.

Debido a que entendieron que la única manera de dar el salto hacia la quinta generación era trabajar en conjunto, buscaron ayuda internacional, con esto, el proyecto se hizo mundial.

Con la cooperación internacional se han logrado importantes avances en el proyecto, sin embargo, aún falta mucho para que nos insertemos de lleno en la quinta generación.

Básicamente, los cambios más significativos que pretende introducir la quinta generación son un cambio en el lenguaje nativo de las computadoras (de binario a Prolog, el cual es un cambio radical, por ser un lenguaje de alto nivel), procesamiento paralelo (miles de procesadores funcionando en conjunto) y algunas otras novedades.

El Proyecto del Sistema de Computadoras de Quinta Generación fue desarrollado por el Ministerio de Industria y Comercio Internacional de Japón que comenzó en 1982 para crear computadoras de quinta generación. Debía ser resultado de un proyecto de investigación a gran escala entre el gobierno y la industria de Japón en la década de los ochenta.

Las Características que se pretendía que las computadoras adquirieran eran las siguientes:


Inteligencia Artificial

Son sistemas que pueden aprender a partir de la experiencia y que son capaces de aplicar esta información en situaciones nuevas. Tuvo sus inicios en los 50s. Algunas aplicaciones se pueden encontrar en:

• Traductores de lenguajes

• Robots con capacidad de movimiento

• Juegos

• Reconocimiento de formas tridimensionales

• Entendimiento de relatos no triviales

Debe quedar claro que inteligencia artificial no implica computadoras inteligentes; implica mas bien computadoras que ejecutan programas diseñados para simular algunas de las reglas mentales mediante las cuales se puede obtener conocimiento a partir de hechos específicos que ocurren, o de entender frases del lenguaje hablado, o de aprender reglas para ganar juegos de mesa. Para desarrollar este concepto se pretendía cambiar la forma en que las computadoras interactuaban con la información cambiando su lenguaje base a un lenguaje de programación lógica


Procesamiento en paralelo

Se trata de un proceso empleado para acelerar el tiempo de ejecución de un programa dividiéndolo en múltiples trozos que se ejecutarán al mismo tiempo, cada uno en su propio procesador. Un programa dividido en n trozos de esta forma, podría ejecutarse n veces más rápido, que su equivalente en un solo procesador, pero aún así queda claro que éste es su límite teórico (es decir el máximo que puede alcanzar) pudiendo conseguir en el mejor de los casos un valor aproximado con un buen paralelismo. Aunque, en principio, paralelizar un programa supone un incremento de su velocidad de ejecución, esto no tiene por qué ser siempre así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto nos llevará se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.

Antecedentes y diseño del proyecto

A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras de los Modelos de los Estados Unidos y el Reino Unido. Japón decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El centro del desarrollo y proceso de la información de Japón fue el encargado llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos junto con industria y la academia. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.

Los campos principales para la investigación de este proyecto inicialmente eran:

• Tecnologías para el proceso del conocimiento

• Tecnologías para procesar bases de datos y bases de conocimiento masivo

• Sitios de trabajo del alto rendimiento

• Informáticas funcionales distribuidas

• Supercomputadoras para el cálculo científico

Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los otros países.

Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Corporación de Microelectrónica y Tecnologías de la Computación, en Inglaterra fue Alves, y en Europa su reacción fue conocida como el Programa Europeo en Investigación Estratégica de la Tecnología de la Información.

Como uno de los productos finales del Proyecto se desarrollaron 5 Maquinas de Inferencia Paralela (PIM) teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo herramientas que se podían utilizar con estos sistemas tales como el Sistema Paralelo de Gerencia de Bases de Datos Kappa, el Sistema de Razonamiento Legal HELIC-II y el Teorema Autómata de Aprobaciones MGTP.

Sistemas expertos

Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas (hechos sobre objetos, así como situaciones e información sobre el seguimiento de una acción para resolver un problema).

Ejemplos de sistemas expertos:

  • Diagnósticos

  • Reparación de equipos

  • Análisis de inversiones

  • Planeamiento financiero

  • Elección de rutas para vehículos

  • Ofertas de contrato

  • Asesoramiento para clientes de autoservicio

  • Control de producción y entrenamientos

  • Novasoft Server

Cronología.

Año 4000 a 3000 a.C. Invención del Ábaco, en China, instrumento formado por un conjunto de cuerdas paralelas, cada de las cuales sostiene varias cuentas móviles, usadas para contar, se desarrollo, hasta reflejar el sistema decimal, con diez cuentas en cada cuerda.

Año 1300 a 1500 d.C. En el imperio Inca es usado el sistema de cuentas, mediante nudos en cuerdas de colores, para mantener un registro y calculo de los inventarios de granos y ganado.

1617 John Napier desarrolla los vástagos de Napier, formados por un conjunto de piezas con números grabados en ellas, que podían ser usadas para multiplicar, dividir y extraer raíces.

1642 Blaise Pascal construye el primer calculador mecánico, que consistía en un conjunto de ruedas, cada una de las cuales registraba un dígito decimal, y al girarse en diez pasos producía un paso de rotación en la siguiente.

1662 William Oughtred inventa la regla de cálculo.

1871 Gottfried Wilheim Von Leibnitz mejora el diseño de Pascal.

1801 Joseph Marie Jackard perfecciona la primera máquina que utiliza tarjetas perforadas; ésta era un telar, que podía tejer automáticamente diseños complejos, de acuerdo a un conjunto de instrucciones codificadas en las tarjetas perforada.

1822 Charles Babbage construye un pequeño modelo operativo de un calculador llamado “Máquina de Diferencias”

1829 Charles Xavier Thomas, construye el primer calculador que ejecuta las cuatro operaciones aritméticas en forma exacta.

1872 Frank Stephen Baldwin inventa una calculadora con teclas, basada en los principios de la máquina de Charles Thomas.

1887 Hernan Hollerith, un estadista, hizo realidad su idea de la tarjeta de lectura mecánica, y diseñó un aparato que se llamo “Máquina de Censos”. Después del censo de 1890, Hollerith trasformó su equipo para uso comercial y estableció sistemas de estadísticas de carga para los ferrocarriles. En 1896, fundó la Compañía de Máquinas de Tabulación, para hacer y vender su invento. Posteriormente esta empresa se fusionó con otras para formar lo que hoy se conoce como IBM.

El procesamiento de tarjetas perforadas se basa en una idea simple: los datos de entrada se registran inicialmente en una forma codificada, perforando huecos en las tarjetas, y estas luego alimentan a las máquinas, las cuales realizan las diferentes etapas del proceso.

1925 Vennevar Bush y sus colaboradores construyen el primer Computador analógico de gran escala.

1937 Howard Aiken de la Universidad de Harvard en Massachussetts comienza a construir una máquina calculadora automática, el Mark I, que pudiera combinar las capacidades técnicas de la época con los conceptos de tarjetas perforadas desarrolladas por Hollerith. En 1944 el proyecto fue culminado.

El Mark I es considerado el primer Computador digital de proceso general. La máquina se basaba en el concepto de aceptar datos por medio de tarjetas perforadas utilizada como entrada de datos (INPUT), realizaban cálculos controlados por un relex electromagnético y contadores aritméticos mecánicos y perforaba los resultados en tarjetas como salidas (OUTPUT).

1943 - 1946 J. Presper Ecker y John Mauchly construyen el primer Computador completamente electrónico, el E.N.I.A.C. (Electronic Numerical Integrator And Calculator), pesaba aproximadamente 30 toneladas, ocupaba un espacio aproximado de 1.500 pies cuadrados y usaba 18.000 tubos. ENIAC podía resolver en un día lo que manualmente tardaría 300 días.

1944 John Von Neumann desarrolla el concepto de los programas almacenados, es decir, un conjunto de instrucciones guardadas en una unidad de almacenamiento, que luego son ejecutadas en forma secuencial. Basándose en este concepto, Ecker y Mauchly diseñan el ENIVAC, que fue terminado en 1952.

Conclusión

La computadora o computador no es invento de alguien en especial, sino el resultado de ideas y realizaciones de muchas personas relacionadas con la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación.

La computadora es una máquina electrónica capaz de ordenar procesar y elegir un resultado con una información. En la actualidad, dada la complejidad del mundo actual, con el manejo inmenso de conocimientos e información propia de esta época de crecimiento tecnológico es indispensable contar con una herramienta que permita manejar información con eficiencia y flexibilidad, esa herramienta es la computadora.

Las computadoras cuentan con diversas herramientas para realizar varias acciones tales como procesadores de palabras que permiten crear documentos, editarlos y obtener una vista preliminar del mismo antes de imprimirlo si esa es la necesidad, también cuenta con hojas de cálculo que permiten realizar operaciones de cálculo de tipo repetitivas o no, también permite crear nóminas, balances, auditorias y demás operaciones resultando herramientas muy útiles en muchas áreas de desenvolvimiento cotidiano.

Estas herramientas necesitan de una plataforma en la cual ejecutarse. Este es el papel del sistema operativo de una máquina computacional, que permite gestionar ficheros, llamadas al sistema, entre otras acciones. Siendo Linux un sistema operativo muy eficiente constituyéndose en una alternativa muy viable a la hora de escoger un determinado sistema operativo, ya que combina la eficiencia, rapidez y potencia de los sistemas UNIX con la facilidad de uso de un sistema gráfico como MS Windows.

Bibliografía

http://www.google.com

http://www.monografias.com

http://www.solociencia.com

http://html.rincondelvago.com

http://wikipedia.com

Ilustraciones

El abaco

'Historia de los ordenadores'

Una pasalina firmada por pascal en1652

Eniac

Enigma

'Historia de los ordenadores'

Konrad Zuse

'Historia de los ordenadores'

John von Neumann

Blaise Pasacal

'Historia de los ordenadores'

Parte de la máquina diferencial de Babbage

'Historia de los ordenadores'

Circuito integrado

'Historia de los ordenadores'

Sistema de computadoras de quinta generación

'Historia de los ordenadores'

Computador analógico

'Historia de los ordenadores'

'Historia de los ordenadores'

'Historia de los ordenadores'

'Historia de los ordenadores'

'Historia de los ordenadores'

'Historia de los ordenadores'

'Historia de los ordenadores'

'Historia de los ordenadores'

'Historia de los ordenadores'

'Historia de los ordenadores'

Augusta Ada Byron

'Historia de los ordenadores'

'Historia de los ordenadores'

Charles Babbage

'Historia de los ordenadores'




Descargar
Enviado por:MAFER2007
Idioma: castellano
País: Venezuela

Te va a interesar