Sociedad de la información y las nuevas tecnologías

Orígenes. Generación de Computadoras. Desarrollo Informático. Abaco. Tarjeta Perforada. Internet. DVD (Digital Versatile Disc). WWW (World Wide Web). Robótica

  • Enviado por: Francisco Jose Lerín Y Alfredo Martín
  • Idioma: castellano
  • País: España España
  • 15 páginas
publicidad
publicidad

En el presente trabajo abordaremos someramente la evolución, desarrollo y complejización del cálculo automático a través de la historia. Como elemento fundamental del trabajo científico, la posibilidad de mecanización de las operaciones matemáticas ha sido un objetivo largamente perseguido por profesionales de las matemáticas, ingenieros, inventores, astrónomos y demás científicos. Incluso los funcionarios públicos, militares, estudiantes e investigadores... Todos ellos han buscado una forma de acelerar los tediosos procesos de cálculo, sobre todo los más repetitivos, que exigen una ingente cantidad de tiempo sin tener una dificultad que lo justifique.

Como elemento consustancial a la fabricación de máquinas calculadoras, nos detendremos también en algunos hitos en la historia de la automatización mecánica. Muchas veces ha sido el bajo nivel de los conocimientos y técnicas de fabricación lo que ha retardado la aparición de máquinas de calcular, por la falta de piezas lo suficientemente calibradas y precisas. El desarrollo de los mecanismos automáticos corre paralelo al de la construcción de máquinas calculadoras, que es, en suma, el objetivo de estudio de este trabajo. También nos detendremos en determinados avances en el mundo de las matemáticas, esenciales para obtener una aplicación práctica de las máquinas.

Como memoria de curso que es, no aspiramos sino a una descripción de los momentos históricos que consideramos fundamentales en el desarrollo de máquinas calculadoras.

1.- DE LOS COMIENZOS A LA PRIMERA CALCULADORA.

El hombre aprendió a contar con los dedos. Es la forma más fácil, la más asequible y la primera que se le ocurre hasta a los niños de hoy en día. Al tener diez dedos entre las dos manos, la base 10 se convirtió en la base numérica más usada. Para representar números más grandes que diez se usaron diversos métodos, desde un auxiliar que contara con otros diez dedos hasta la extensión a falanges, dedos de los pies, brazos u otras partes del cuerpo. Algunos pueblos (bastantes de entre los mesopotámicos) utilizaron otros sistemas de numeración, principalmente en base 60 (sexagesimales). Pero la base 10 y el sistema posicional triunfaron como expresión numérica, especialmente después de la introducción de la numeración arábiga; el sistema de numeración parece que fue inventado por los hindúes en los siglos I o II d.C.. Los árabes lo tomaron de ellos y lo transmitieron a la península ibérica; desde allí fue pasando al resto de Europa, donde el primero que usó numeración arábiga fue el monje Geribert D'Aurillac, posteriormente papa Silvestre II (h. 938-1003), siendo generalizados por el matemático italiano Leonardo Fibonacci (h. 1175-1240) en su celebérrimo Liber abaci (ca. 1202), en el que muestra los conocimientos aprendidos de los árabes durante sus viajes. La numeración arábiga es, sin duda, mucho más flexible para el cálculo que la numeración romana, e introduce en el cálculo el concepto de valor posicional del número, decisivo a la hora de enfrentarse con cantidades grandes.

LAS MÁQUINAS CALCULADORAS.

Aunque parece ser que no fue la primera máquina calculadora corresponde a Blaise Pascal (1623-1662) el mérito de haberla dado a conocer al mundo. La tradición quiere que Pascal construyera la máquina para ayudarse en la tediosa labor de hacer largas sumas mientras ayudaba a su padre, intendente de finanzas en Rouen: he aquí la conexión entre el cálculo repetitivo y su proceso de automatización.

La máquina de Pascal era una sumadora mecánica, compuesta por varias series de ruedas dentadas accionadas por una manivela. La primera rueda correspondía a las unidades, la segunda a las decenas, etc... y cada vuelta completa de una de las ruedas hacía avanzar 1/10 de vuelta la siguiente. La máquina, de la que se hicieron varios modelos con fines comerciales, funcionaba por el principio de adición sucesiva; mediante otro procedimiento, incluso restaba. Se introduce así el concepto de saldo o resultado acumulativo, que se sigue usando hasta nuestros días: la máquina proporciona de manera automática (con el giro de la manivela) el resultado, dispuesto para leerse y sin participar en el proceso de toma de decisión (compárese con la regla de cálculo, donde el operador ha de decidir dónde coloca la pieza móvil de la regla). La máquina de Pascal efectúa el cálculo de forma mecánica, ofreciendo el resultado final.

Gottfried Leibniz (1646-1716) amplió los horizontes de las máquinas calculadoras diseñando una máquina multiplicadora. La máquina de Leibniz no sólo contaba con ruedas dentadas sino que éstas eran de forma altamente ingeniosa: tenían los dientes escalonados, de forma que la multiplicación no se hacía por sumas sucesivas, sino en un solo movimiento de manivela. La calculadora de Leibniz sumaba, restaba, multiplicaba y dividía de manera automática. Desgraciadamente, el nivel técnico de la época no permitió construirla.

Un nuevo paso fue dado en 1709 por Giovanni Poleni y su máquina aritmética, en la que los cálculos mecánicos se realizan en virtud del movimiento de caída de un peso, limitándose el operador a introducir los datos y anotar el resultado. El principio de funcionamiento fue esencial para el desarrollo de las calculadoras: se programa el cálculo y la máquina hace el resto. Y es lo que hacemos aún hoy.

El fundamento de la máquina de Leibniz, la rueda escalonada, sirvió posteriormente para construir la primera calculadora práctica: el aritmómetro de Charles Thomas, de 1820. En esencia era la calculadora de Leibniz. pero no hasta esa fecha se consigue la suficiente precisión técnica como para construirla. Una variante posterior de la rueda escalonada de Leibniz, la rueda Odhner (1875), se popularizó en Estados Unidos, industrializándose la fabricación de máquinas calculadoras. Poco a poco se introdujeron nuevos sistemas de introducción de datos (el teclado, en 1884) y perfeccionamientos diversos en los sistemas (el impresor de datos, en 1875 por Barbour). Las máquinas mecánicas de calcular triunfaban.

2.- DE LAS CALCULADORAS MECÁNICAS A LOS ORDENADORES.

LA MÁQUINA DIFERENCIAL DE BABBAGE.

Hasta ahora hemos visto máquinas que permiten realizar operaciones aritmeticas básicas, tales como sumar, restar, multiplicar y dividir, mediante el concurso de un operador humano que ponga en marcha el mecanismo de cálculo. Estas máquinas son muy útiles (y lo han sido hasta el día de hoy) para hacer más llevadera la contabilidad con grandes columnas de sumas y algunas otras operaciones matemáticas sencillas.

El salto lo dio Charles Babbage (1792-1871). En 1822 construyó su máquina diferencial, un nuevo modelo de sumadora que permitía, utilizando el método de las diferencias, resolver polinomios de segundo grado. Era la primera máquina proyectada para hacer algo más que sumar y restar, aunque era lo que realmente hacía. Proporcionaba la solución a un problema matemático; y trabajando por aproximaciones representaba una manera de resolver problemas distintos.

Pero era un problema, y sólo uno, lo que la máquina diferencial de Bab­bage podía resolver. El siguiente paso era una máquina de propósito general, que permitiera introducir como datos tanto el problema como los datos del mismo propiamente dichos. El mismo Babbage diseñó sobre el papel una máquina analítica, que resolvería problemas de todo tipo, pues contemplaba la posibilidad de introducir el programa (y el problema a tratar con él) al mismo tiempo que los datos, realizándose las operaciones en el centro de proceso (llamado molino). Pero otra vez las deficiencias técnicas de la época impidieron hacer realizable la máquina analítica hasta la aparición de los ordenadores electrónicos.

3.- LAS CALCULADORAS ELECTROMECÁNICAS.

Los problemas fundamentales de las calculadoras mecánicas eran tres: la necesidad de un operador humano para el suministro mecánico de datos (introducir las tarjetas), la falta de flexibilidad en el programa (que venía impuesto por el diseño de la máquina) y el proceso de cálculo, que seguía siendo mecánico (la máquina tabuladora de Hollerith leía datos por procedimientos eléctricos, pero sumaba mediante elementos mecánicos). Las calculadoras electromecánicas solucionaron por primera vez estos problemas.

El fundamento de todo fue la utilización del código binario, que necesitaba solamente de dos elementos de cálculo (el 0 y el 1, el paso o la ausencia de corriente). A mediados del siglo XIX el matemático inglés George Boole (1815-1864) elaboró la teoría del álgebra de la lógica o álgebra booleana en 1847. El álgebra de Boole es una herramienta imprescindible para el establecimiento de decisiones lógicas; su plasmación en circuitos eléctricos la realizó Claude Shannon en 1938. Además, funciona perfectamente con un código binario (en el desarrollo lógico de la teoría, o no; en un circuito eléctrico, paso o ausencia de corriente; en código binario, 0 ó 1).

Para implementar el código binario, definitivamente asentado en los procesos de automatización del cálculo, en un sistema eléctrico se usaron los relés. El relé no es más que un interruptor, que se puede accionar por procedimientos magnéticos o electromagnéticos. Como todo interruptor no tiene más que dos posiciones: abierto o cerrado. Un buen sistema para soportar trabajo con código binario, donde el relé abierto no permite el paso de corriente y se hace equivaler al 0 binario, y el relé cerrado permite el paso de corriente, equivaliendo al 1 binario.

Con base los sistemas de relés se construyeron las primeras calculadoras electromecánicas. Leonardo Torres Quevedo dio a la luz su aritmómetro electromecánico, la primera calculadora del mundo a base de relés, que proporcionó la evidencia práctica del uso de los relés: rapidez de cálculo, posibilidad de introducir circuitos lógicos e incipiente memoria, aunque falló en la implementación del programa, que seguía dependiendo de las características físicas de la máquina. George Stibitz construyó en 1923 una sumadora de relés que funcionó en los laboratorios Bell, el Complex Calculator, con introducción de datos por medio de teclado; posteriormente fue mejorado con el Model 3, un verdadero prototipo de ordenador que solucionaba problemas de polinomios introducidos previamente mediante teclado o cinta perforada, tal y como pretendía Babbage con su máquina analítica.

Mientras en los Estados Unidos se seguían desarrollando calculadoras mecánicas para compilar tablas de tiro artillero, en Alemania, Konrad Zuse, tras construir en 1938 una calculadora completamente mecánica (la Z1) y mejorarla añadiendo 200 relés (la Z2, en 1939) fabricó en 1941 en el Instituto Experimental Alemán de Aeronáutica la primera calculadora programable de propósito general utilizando relés: la Z3, el antepasado más directo de los ordenadores electrónicos. Los programas se introducían mediante cinta perforada y los resultados se leían en un tablero; trabajaba en binario, disponía de memoria y hacía cálculos en coma flotante. Fue el primer “ordenador”, en el sentido que aceptaba variaciones de programa: ya no era necesario limitarse a las especificaciones físicas de la máquina, sino que el procedimiento de cálculo o programa era suministrado por los operadores. Zuse ideó incluso un lenguaje de programación, el Plankalkül.

La culminación de las calculadoras electromecánicas fue el Mark-1. Era un calculador gigantesco, desarrollado en 1944 por I.B.M. y el profesor Howard Aiken (1900-1973) de la Universidad de Harvard. Contenía tres millones de relés, medía 15 metros de largo por 2,5 de alto, sumaba dos cifras en 0,3 segundos, las multiplicaba en 4 segundos y las dividía en 12. Se le suministraba el programa por medio de cinta perforada y daba las respuestas en tarjeta perforada o imprimiendo en máquinas de escribir. Era todo lo más que se podía hacer con la tecnología de la época.

4.- LOS ORDENADORES ELECTRÓNICOS.

Las limitaciones de las calculadoras electromecánicas venían dadas por la lentitud (relativa, claro está) de las operaciones con relés. Al ser un elemento mecánico su velocidad de trabajo venía condicionada por la velocidad del interruptor que realmente eran. La sustitución de los relés por las válvulas de vacío solventó el problema, y abrió el paso a los ordenadores electrónicos.

LA PRIMERA GENERACIÓN.

La válvula de vacío o diodo, inventada en 1904 por J. A. Fleming, es en esencia un interruptor en el que el paso de corriente no se verifica por la unión de dos piezas metálicas sino por el paso o no de una corriente de electrones. Al desplazarse los electrones a una velocidad cercana a la de la luz (para lo que se hace el vacío dentro de la válvula) la velocidad de reacción de la válvula es aproximadamente de milésimas de segundo, considerablemente menor que la del relé, que no deja de ser un interruptor mecánico.

El primer ordenador a base de válvulas de vacío fue el ENIAC (Electronic Numerical Integrator and Calculator), construido entre 1936 y 1946 en la Universidad de Pensylvania, por John W. Mauchly y John P. Eckert; tenía 18.000 tubos de vacío, pesaba tres toneladas, consumía 150 Kw (que producían un calor insoportable) y ocupaba una planta entera de la Escuela Moore de Electrónica (180 m2). Tenía menos memoria que el Mark-1, pero hacía su trabajo de una semana en una hora. Era igualmente un calculador universal, pero el programa había que establecerlo cambiando circuitos y conexiones de las válvulas, lo que dadas las dimensiones suponía paseos considerables. Y si uno sólo de los 18.000 tubos de vacío se fundía (lo que ocurría con espantosa frecuencia), el sistema dejaba de funcionar hasta que se sustituyese. Se utilizó para compilar tablas de tiro artillero.

Pero fue el primer ordenador electrónico.

El problema del ENIAC era la dificultad de programación. Cualquier cambio en el programa debía reflejarse en las conexiones entre las válvulas de vacío. Los siguientes esfuerzos se encaminaron a facilitar la labor del programador.

John von Neumann (1903-1957), interesado en el proyecto de la bomba atómica, necesitaba un calculador rápido y de fácil programación. Gracias a su prestigio, la Universidad de Princeton construyó el EDVAC (Electronic Discrete Variable Automatic Computer), que fue terminado en 1949. Utilizaba lógica binaria y, lo más importante, estaba gobernado por programas introducidos mediante cinta perforada, con lo que se evitaba el continuo trasiego de conexiones. Semejantes al EDVAC fueron el Mark-II de la Universidad de Manchester y el BINAC de Eckret y Mauchly. A partir del UNIVAC (Universal Automatic Computer) de Eckret y Mauchly (un ordenador comercial con memoria y programas, distribuido por la Remington Rand Co.), los ordenadores se hacen lo suficientemente rápidos y versátiles como para entrar en el mercado. Es la primera generación de ordenadores electrónicos, caracterizada por grandes instalaciones, mucho cableado y consumo y poca potencia de cálculo

LA SEGUNDA GENERACIÓN.

El siguiente paso fue la miniaturización.

En 1948, Shocley, Bardeen y Brattain, de los Laboratorios Bell, inventan el transistor. En principio funciona de forma parecida a la válvula de vacío, solo que no se recalienta (ni se funde, por tanto), tiene un tiempo de reacción mucho menor (del orden de décimas de millonésima de segundo) y es mucho más pequeño (entre diez y veinte veces menor que la válvula). Se desarrollan ordenadores transistorizados y se introducen memorias externas de núcleos de ferrita y banda magnética. Aparecen los primeros lenguajes de programación y la competencia en el mercado comienza a ser considerable.

LA TERCERA GENERACIÓN.

Es la del circuito integrado.

El circuito integrado no es más que la mínima expresión del transistor. Se basa en las propiedades de los semiconductores, que funcionan como transistores, pero que tienen un tamaño pequeñísimo (15 ó 20 transistores en unos pocos milímetros cuadrados). El modelo 360 de I.B.M. ejemplifica el nacimiento de esta generación. Las velocidades de cálculo se disparan al nanosegundo (10 -9 segundos), las memorias externas al megabyte (2 13 posiciones de memoria) y se generalizan los periféricos variados: impresores, lectores de tarjetas, lectores ópticos, discos flexibles de almacenamiento... Nacen los lenguajes de alto nivel, de sintaxis fácilmente comprensible por el programador.

5.- CONCLUSIÓN.

Formalmente se distinguen otras dos generaciones de ordenadores, que basan su diferencia en el nivel de integración de los circuitos electrónicos. Hoy por hoy estaríamos inmersos en la quinta generación, de altísimo nivel de integración, velocidades de cálculo asombrosas, sistemas de almacenamiento de memoria muy masivos y sistemas de salida y entrada de datos espectaculares. Se investigan posibilidades de inteligencia artificial, reproducción de redes neuronales, comunicación directa de seres humanos con los procesadores.... El ordenador está profundamente imbricado en todos los procesos de la vida diaria: la educación, el ocio, el trabajo. Se está investigando en tecnología óptica, donde la velocidad de proceso sería la de la luz (300.000 kms./s), la más alta que el ser humano puede manejar.

El hombre ha desarrollado mecanismos para auxiliarse en la tarea puramente humana de pensar. Desde contar con las manos hasta los ordenadores actuales todo ha consistido en liberar a la mente humana de las tareas repetitivas y tediosas, avanzando progresivamente hasta la colaboración en las más habituales actividades diarias. El cálculo automático es hoy un hecho.

CRONOLOGÍA

ca. 1202

Leonardo Fibonacci escribe el Liber abaci. Se difunde la numeración arábiga en Europa.

1452-1519

Leonardo da Vinci. Diseñó una máquina sumadora, que no pudo ser construida.

1617

John Napier descubre los logaritmos e inventa las tablillas de multiplicar.

1621

William Oughtred inventa la regla de cálculo, basada en los logaritmos de Napier; es la primera calculadora analógica.

1623

William Schickard construye una máquina sumadora, probablemente la primera del mundo

1642

Blaise Pascal construye su máquina sumadora, la primera con fines comerciales.

1671

Gottfried Leibniz diseña la calculadora universal. No se construyó por falta de tecnología adecuada.

1709

Giovanni Poleni construye la máquina aritmética, que efectúa los cálculos por un mecanismo de pesas.

1722

Basilio Bouchon inventa la cinta de papel perforada sobre cilindro, aplicada al telar. Falcon, en 1728, lo perfecciona. Vaucanson, en 1805, mejora el sistema.

1805

Joseph Jacquard automatiza los telares mediante las cintas de papel perforado, que suministran los dibujos de las telas. Es el primer sistema automático de introducción de datos en una máquina.

1820

Charles Xavier Thomas consigue fabricar el aritmómetro, que no es más que la calculadora universal de Leibniz.

1822

Charles Babbage construye la máquina de diferencias, que soluciona polinomios de segundo grado.

1847

George Boole elabora la teoría algebraica lógica.

1852-1939

Leonardo Torres Quevedo. Su aritmómetro electromecá­nico soluciona ecuaciones mediante relés.

1875

Se patenta la rueda Odhner, industrializándose la producción de sumadoras. Barbour inventa el impresor de datos.

1884

Se introduce el teclado en las máquinas sumadoras.

1887

Hermann Hollerith construye su máquina tabuladora, el primer equipo automático de tratamiento de datos.

1904

J. A. Fleming inventa la válvula de vacio.

1923

George Stibitz construye el Complex Calculator, la primera sumadora de relés. Posteriormente, el Model 3, que resuelve polinomios introducidos con cinta perforada.

1941

Konrad Zuse construye el Z3, la primera calculadora electromecánica de propósito general.

1944

Howard Aiken e I.B.M. desarrollan el Mark-1, la última calculadora electromecánica.

1946

Mauchly y Eckert construyen el ENIAC, el primer ordenador electrónico.

1948

Shockley, Bardeen y Brattain inventan el transistor.

1949

Mauchly y Eckert construyen para la Remington Rand Co. el UNIVAC, el primer ordenador electrónico comercializable. John von Neumann consigue terminar el EDVAC, un ordenador electrónico con programación por cinta perforada.

1964

Aparece el ordenador transistorizado: el modelo 360 de I.B.M.

1981

I.B.M. saca al mercado el IBM/PC (Personal Computer), que inmediatamente se convierte en estándar para los ordenadores personales.

portatiles

1 .- Introducción

Los sistemas portátiles han introducido con mayor rapidez de lo esperado, los nuevos procesadores y tecnologías implantadas en los equipos de sobremesa. Procesadores de ultima generación , circutería de sonido incorporada y lectores de CD-ROM, están ya al mismo nivel, con mayor integración y menor consumo, que sus hermanos mayores. Esto hace que la elección entre un sistema de sobremesa y uno portátil no se base tanto en la potencia de proceso o en el equipamiento complementario, como en la valoración sobre el tipo de tareas a las que está destinado.

No hay que perder de vista que el ordenador, portátil o de sobremesa, es la máquina sobre la cual se ejecutan las aplicaciones del usuario. El tipo y ámbito en el que trabaja diariamente el usuario determinan hacia donde debe dirigirse la elección. La disponibilidad de, virtualmente, todas las prestaciones de un sobremesa en un ligero equipo dotado de autonomía, permiten ampliar el campo de aplicaciones de los portátiles. Esto ha conseguido que el numero de usuarios potenciales haya crecido y que el mercado de sistemas portátiles goce de una excelente salud, con un creciente numero de marca disputándose los favores de los compradores.

Los ordenadores de sobremesa dominaran todavía la informática de los años venideros, sobre todo gracias a su tremenda expansión en el mercado domestico, un campo en el cual los portátiles tardaran en introducirse. El coste, un factor muy sensible para los usuarios individuales, es el principal responsable de esta situación. Sin embargo, para muchos , la adquisición de un portátil también significa una economía, al tener un único equipo, que sirve tanto como para su empleo en casa como en el trabajo. Aunque la explosión del fenómeno Internet y el teletrabajo han acortado las distancias, la presencia humana sigue considerándose necesaria, lo que obliga a desplazarse para visitar clientes o acudir a un determinado sitio de trabajo y disponer allí de un sistema informático. Con la posibilidad de llevar bajo el brazo un equipo portátil con todo un potente equipo de aplicaciones instaladas y personalizadas.

El precio de los equipos portátiles ha descendido tanto como los de sobremesa, afectados por una feroz competencia, que gozan de una elevada difusión y por tanto de procesos masivos de fabricación. Cómo aquellos que se han visto beneficiados por la reducción de precio de los componentes informáticos, como procesadores, memoria, discos,... que ha generado la producción masiva en el mercado de sobremesa. Los sistemas portátiles utilizan básicamente las mismas tecnologías, pero requieren procesos de fabricación específicos que tengan en cuenta las particulares necesidades de un equipo portátil: tamaño y consumo. Y naturalmente no sobrecargar por ello el peso ni el volumen del equipo.

2 .- Mejora en prestaciones

Los portátiles mas recientes logran un rendimiento mas elevado que la pasada generación. Este hecho no se le debe a la utilización de procesadores mas rápidos y memoria DRAM de tipo EDO en muchos equipos, sino al empleo, casi generalizado, de memoria caché. En el pasado, los primeros sistemas Pentium, y los antiguos 80486, prescindían de esta memoria que, además de ocupar mayor espacio en la placa base, tenía un voraz consumo de energía frente al de la DRAM convencional.

Con las modernas aplicaciones que demandan un uso intensivo de caché secundaria como apoyo del Pentium es, o mas bien debería ser, obligatoria. La caída de rendimiento de los equipos que carecen de ella resultan tan fuertes que se asemejan mas a equipos con CPU del tipo 486 que a los Pentium. El usuario de informática móvil no desea que su potencia de proceso quede penalizada, máxime cuando tiene como punto de referencia los ordenadores de sobremesa.

En algún modelo, como el Satellite Tecra 400TC, en lugar de utilizar memoria SRAM caché como apoyo de la memoria dinámica, se ha optado por prescindir del caché y utilizar un tipo de memoria DRAM rápida, EDO sincronía, que logra un rendimiento excepcional. El sistema opera tan adecuadamente, que el nivel de prestaciones de este modelo queda bien situado frente a otros equipos con diferente tipo de memoria. Como contrapartida, las ampliaciones de memoria de este modelo resultan caras, lo que supone un importante handicap. Con la necesidad de adaptarse a los nuevos requisitos del sistema operativo Windows 95, omnipresente en casi todos los equipos, la configuración base de los portátiles arranca en 8 Mb de memoria base. Si bien con esta configuraciones posible trabajar razonablemente, al menos con una sola aplicación al tiempo, la configuración recomendada para funcional tranquilamente es de 16 Mb. El coste de la ampliación necesaria deberá ser tenida en cuenta, así como su disponibilidad.

Gracias al uso de caché, o técnicas que refuerzan adecuadamente la comunicación del procesador con la memoria, los ordenadores portátiles han acortado la barrera en prestaciones que les separaba de los modelos de sobremesa. Si bien en estos comienzan a utilizarse los Pentium a150 y 133 Mhz, el grueso esta formado por equipos a 100 y 120 Mhz, cada vez más de estos últimos, que son precisamente los mas utilizados en una buena parte de los portátiles.

En cuanto a procesadores Intel dispone del compacto encapsulado TCT ( Tape Carrier Packaging ), de tipo plástico y con un tamaño similar al de un sello de correos, para el Pentium a 133 Mhz. No habrá que esperar mucho para ver la introducción de portátiles que incluyan esta nueva CPU en su interior.

La creciente potencia no solo viene de la mano del procesador y memoria, caché y principal, sino que el resto de subsistemas se ha modernizado adecuadamente. Así, la arquitectura PCI para comunicarse con la sección de visualización o gestionar el disco duro, colocan las prestaciones a un nivel similar a los equipos de sobremesa. Los sistemas gráficos de 64 bits tampoco son una excepción entre los nuevos equipos. De hecho, algunos de los equipos portátiles proporcionan mejor rendimiento de vídeo que sus competidores sobremesa de gama media. La limitación en cuanto a la máxima resolución posible, debido a la salida en su pantalla LCD, no será un freno importante. Un buen numero de equipos incorporan pantallas LCD color con capacidad para mostrar 800x600 puntos, la resolución que se considera estándar para la mayor parte de las aplicaciones. Y en todo caso siempre se puede aclopar un monitor externo y alcanzar mejor definición o resolución cuando se trabaja en un puerto fijo.

3 .- COMO ES UN PORTATIL

3.1 .- MEMORIA

La estanderización de las memorias era la gran asignatura pendiente de los años anteriores, aunque hoy en día prácticamente resuelta.

Hasta hace poco(+ de un año), cada fabricante requería un módulo diferente y especial para la ampliación de la RAM, e incluso distinto para cada modelo de la misma marca. La gran diversidad de módulos de memoria, llevaba a unos precios de las ampliaciones que resultaban muy caros.

Anecdótico: Cuando la RAM en los ordenadores de sobremesa valía una 5000- 6000 pts / Mb ( hace un año ) se podía estimar la ampliación de 4Mb de RAM en portátiles a unas 33.000 pts, de 8 Mb 80.000 pts, 16 Mb 188.000 pts llegando a costar 216.000 pts para portátiles Tulip nb4/50.

Hoy en día los precios de las ampliaciones de memoria RAM han bajado considerablemente aunque sigan siendo caros comparados con los ordenadores de sobremesa.

Los precios de memoria son un dato a considerar seriamente si se planea ampliar la memoria inicial del ordenador. Para los equipos que incorporan de serie 8 Mb en su versión base notarán pronto la falta de memoria para que el sistema logre un buen rendimiento.( según el software que utilicen). Sin embargo para equipos que salgan en sus versiones base con 16 Mb de RAM podrá pasar un tiempo hasta que necesiten una ampliación.

Además del precio de la ampliación de memoria se une un gran problema que es el encontrar fácilmente disponibilidad de la misma, dado que el movimiento de este tipo de material es más escaso y por lo tanto el almacenaje de las piezas más reducido. Este problema hoy en día se ha resuelto aunque no por completo.

El módulo como candidato a memoria estándar entre los portátiles tiene una disposición similar a los populares módulos SIMM. Conocido bajo el nombre de módulo DIMM, se trata de una pequeña placa de tamaño más reducidos que el SIMM, con unas dimensiones de 59 x 25 mm y con 2 x 36 contactos eléctricos. Hay que resaltar que existen dos variantes de aspecto casi idéntico. Uno está destinados a los equipos que utilizan memoria RAM alimentada a 5 voltios, mientras que el otro utiliza una tensión de 3,3 voltios para los chips de memoria. La única diferencia entre ambos reside en la longitud de la ranura de orientación. Mientras en unos es de 8 mm, en los segundos es de tan sólo 4 mm. Este sistema de identificación está ideado para evitar la conexión de memorias 3,3 voltios en un sistema que las alimente a 5 voltios, superando su máxima tensión admisible. Por lo contrario los módulos de 5 voltios pueden ser insertados en equipos con alimentación de 3,3 voltios.

Todas las partes salen beneficiadas de la estandarización. Los usuarios pueden disponer de ampliaciones de memoria a mejores precios y de mayor número de fuentes.

Los fabricantes no necesitan dedicar su esfuerzo, ni su dinero, para crear y mantener un sistema de ampliación de memoria para cada modelo de portátil. La experiencia en los equipos de sobremesa han demostrado sobradamente las ventajas de la estandarización.

Los nuevos procesadores de la familia Intel los Pentium o los cyrix 5x86, se benefician de un gran incremento en prestaciones utilizando en trono a 256 Kb de rápida memoria caché secundaria. Como contrapartida, la memoria SRAM utilizada para la cache secundaria, consume mucho mas que la memoria DRAM, con el consiguiente perjuicio parta la autonomía y requiere mayor espacio en la placa base, a pesar de todo esto es una de las nuevas tendencias que se están poniendo en práctica en los nuevos portatiles.

Ergonomía.-

Estudio de las relaciones entre hombre, máquina y ambiente durante una determinada actividad laboral, cuya finalidad es proporcionar al diseñador de máquinas o ciclos de trabajo las indicaciones necesarias para la realización de medios y ambientes que protejan al individuo y valoren plenamente sus capacidades y aptitudes.

La ergonomía es básicamente una tecnología de aplicación práctica e interdisciplinaria, fundamentada en investigaciones científicas, que tiene como objetivo la optimización integral de Sistemas Hombres-Máquinas, los que estarán siempre compuestos por uno o más seres humanos cumpliendo una tarea cualquiera con ayuda de una o más "máquinas" (definimos con ese término genérico a todo tipo de herramientas, máquinas industriales propiamente dichas, vehículos, computadoras, electrodomésticos, etc.). Al decir optimización integral queremos significar la obtención de una estructura sistémica (y su correspondiente comportamiento dinámico), para cada conjunto interactuante de hombres y máquinas, que satisfaga simultánea y convenientemente a los siguientes tres criterios fundamentales:

* Participación: de los seres humanos en cuanto a creatividad tecnológica, gestión, remuneración, confort y roles psicosociales.

* Producción: en todo lo que hace a la eficacia y eficiencia productivas del Sistema Hombres-Máquinas (en síntesis: productividad y calidad).

* Protección: de los Subsistemas Hombre (seguridad industrial e higiene laboral), de los Subsistemas Máquina (siniestros, fallas, averías, etc.) y del entorno (seguridad colectiva, ecología, etc.).

NUEVAS TECNOLOGIAS

Con décadas de innovaciones potenciales por delante, los diseños microelectronicos convencionales dominarán el siglo próximo. Esta tendencia impulsa a los laboratorios a explorar una variedad de nuevas tecnologías que podrían ser útiles en el diseño de nuevas computadoras y unidades de procesamiento. En algunos casos estos avances contribuirán a obtener chips más diminutos, niveles inalcanzables a través de las técnicas convencionales litográficas. Entre las tecnologías que se investigan en el presente, de cara al siglo XXI, se encuentran las siguientes :

Cuántica de puntos y otras unidades de electrones simples la cuántica de puntos son “acuerdos moleculares “que habilitan a los investigadores a circunscribir los electrones individuales y monitorear sus movimientos. Estas unidades pueden, en teoría ser usadas como registro binarios en los cuales la presencia o ausencia de un solo electrón se utiliza para representar los ceros y unos de los bits. En una variante de este esquema, el rayo láser iluminado sobre los átomos podría producir el intercambio entre sus estados electrónicos mínimos de energía y los de excitación con el fin de activar el valor de bit. Una complicación de fabrica los transistores y cables extremadamente pequeños está dada cuando los efectos mecánicos comienzan a interrumpir su función. Los componentes lógicos mantienen sus valores I y O menos confiables porque la ubicación de los electrones Individuales se vuelve difícil de especificar. Pero aun esta propiedad puede ser mejorada : los investigadores del MIT (Instituto Tecnológico de Massachusetts) estudian en este momento, las posibilidades de desarrollar técnicas de computación cuántica, que ayudarían a los sistemas informáticos a cumplir comportamientos no convencionales.

Computación molecular: en lugar de fabricar componentes de silicio, se investiga el desarrollo de almacenamiento utilizando moléculas biológicas. Por ejemplo, se analiza el potencial computacional de moléculas relacionadas con “bacteriorhodopsin”, un pigmento que altera su configuración cuando reacciona a la luz. Una ventaja de este sistema molecular es que puede ser aplicado a una computadora óptica, en la que los flujos de fotones tomarían el lugar de los electrones. Otra posibilidad es que muchas de estas moléculas podrían ser sintetizadas por microorganismos, más que fabricados en plantas industriales. De acuerdo con algunas estimaciones, los biomoléculas activadas fotónicamente pueden vincularse en un sistema de memoria tridimensional que tendría una capacidad 300 veces mayor que los actuales CD-ROMs

Puertas lógicas reversibles: como la densidad de los componentes de los chips crece, la disipación del calor generado por los sistemas de microprocesamiento se volverá más dificultosa. Investigadores de Xerox e IBM están testeando las posibilidades de retornar a los capacitores a sus estados originales al final de los cálculos. Debido a que las puertas de acceso lógico podrían recapturar algo de la energía expulsada, generarían menos pérdidas de calor.

Aún no está claro de que manera se las ingeniará la industria informática para crear transistores más delgados y más rápidos en los años venideros. Por ejemplo, en la técnica fotolitográfica, la luz es empleada para transferir patrones de circuitos de una máscara o plantilla de cuarzo a un chip de silicio. Ahora la tecnología modela diseños de chips de alrededor de 0,35 micrones de ancho, pero achicar esta medida parece imposible mientras se utilice la luz; las ondas luminosas son muy anchas. Muchas compañías han invertido en la búsqueda de maneras de sustituir los más pequeños haces de luz por rayos X. De cualquier manera, los rayos X aún no han resultado como método para masificar la producción de los chips de última generación.

DVD (Digital Video Disc)

No es fácil encontrar, en el campo de la electrónica de consumo, un estándar capaz de poner de acuerdo a los principales fabricantes de CD-ROM, vídeos VHS, laserdiscs y equipos musicales. La tecnología DVD ha obrado el milagro, situándose en una posición de privilegio para convertirse en el estándar de almacenamiento digital del próximo milenio.

Introducción

Migrar de un sistema a otro, en cualquiera de los eslabones de la compleja cadena que da lugar al hardware de un ordenador, es uno de los procesos más complicados a los que un avance tecnológico debe enfrentarse.

En el caso de los compatibles PC, con cientos de millones de máquinas funcionando bajo miles de configuraciones distintas, en manos de millones de usuarios con distintos niveles económicos, es todavía más complejo.

A modo de ejemplo, tenemos el sistema de almacenamiento que todos conocemos con el nombre de CD-ROM y que, paradójicamente, si todas las previsiones se cumplen, será sustituido por las nuevas unidades DVD-ROM, que aquí vamos a tratar de analizar. Han sido necesarios más de 10 años, cinco desde que se produjo la espectacular bajada de precios de los lectores, para que el CD-ROM se haya convertido en un elemento imprescindible en todos los ordenadores. Ahora que casi todo el mundo se ha habituado a utilizar este derivado de los clásicos CD musicales, un nuevo formato amenaza con enterrarlo definitivamente. El proceso, por supuesto, será muy lento; tendrán que pasar unos cuantos años para que alcance el nivel de popularidad de los CD, pero pocos dudan que acabará convirtiéndose en el estándar digital del siglo XXI.

Al contrario que otros sistemas similares, como es el caso de los discos removibles, donde cada fabricante utiliza su propio estándar -con la dificultad que esto implica a la hora de implantarse en todos los ordenadores-, la tecnología DVD no sólo unifica aquellos criterios relacionados con el almacenamiento de datos informáticos, sino que va mucho más allá, abarcando todos los campos donde se utilice la imagen y el sonido.

Todavía es muy pronto para predecir el impacto que las siglas mágicas DVD provocarán en nuestras vidas. Pero, si las previsiones de sus creadores se cumplen, dentro de dos o tres años no existirán los televisores, altavoces, vídeos, laserdiscs, cadenas musicales, consolas, tarjetas gráficas, o lectores de CD-ROM, tal como hoy los conocemos.

Una primera aproximación

La especificación DVD -según algunos fabricantes, Digital Vídeo Disc, según otros, Digital Versatile Disc-, no es más que un nuevo intento por unificar todos los estándares óptico-digitales de almacenamiento, es decir, cualquier sistema de grabación que almacene imágenes o sonido. DVD abarca todos los campos actualmente existentes, por lo que, si llega a implantarse, un mismo disco DVD podrá utilizarse para almacenar películas, música, datos informáticos, e incluso los juegos de consolas.

La gran ventaja del DVD, en relación a los sistemas actuales, es su mayor velocidad de lectura -hasta 4 veces más que los reproductores CD tradicionales-, y su gran capacidad de almacenamiento, que varía entre los 4.7 y los 17 Gigas, es decir, el tamaño aproximado de 25 CD-ROM. Todo ello, en un disco DVD que, externamente, es exactamente igual que un CD tradicional. Esta elevada capacidad permite, no sólo almacenar gran cantidad de información, aplicable a todo tipo de enciclopedias, programas o bases de datos, sino también reproducir 133 minutos de vídeo con calidad de estudio, sonido Dolby Surround AC-3 5.1, y 8 pistas multilenguaje para reproducir el sonido en 8 idiomas, con subtítulos en 32 idiomas. Estos minutos pueden convertirse en varias horas, si se disminuye la calidad de la imagen hasta los límites actuales. Las más importantes compañías electrónicas, los más influyentes fabricantes de hardware y software, y las más sobresalientes compañías cinematográficas y musicales están apoyando fuertemente el proyecto.

No obstante, pese a todas estas características tan espectaculares, la gran baza de la tecnología DVD está todavía por desvelar: gracias a la compatibilidad con los sistemas actuales, los lectores DVD-ROM son capaces de leer los CD-ROM y CD musicales que actualmente existen, por lo que el cambio de sistema será mucho más llevadero, ya que podremos seguir utilizando los cientos de millones de discos digitales existentes en el mercado.

El software, presente y futuro

Gracias a su compatibilidad con los sistemas actuales, los lectores de DVD-ROM nacen con decenas de miles de títulos a sus espaldas, tanto en el apartado musical, como en el informático. Además, aprovechando que soporta el formato MPEG-1, también pueden utilizarse para ver las cientos de películas existentes en formato Vídeo-CD.

Lo más interesante de todo, se centra en comprobar sus posibilidades como sistema de almacenamiento independiente, es decir, utilizando discos DVD-ROM. De momento, los títulos comercializados no son excesivos, aunque se espera que una gran cantidad de DVD-ROM se publiquen a lo largo del año. En un principio, los títulos más abundantes serán las películas y las recopilaciones de programas. En el primer caso, ya se han puesto a la venta varios títulos (en EE.UU. y Japón), como “Blade Runner”, “Eraser”, “Batman Forever” o “Entrevista con el Vampiro”. Para primeros de marzo, han sido anunciados más de 100 títulos, que superarán los 500 a finales de año. En el caso de las aplicaciones en DVD-ROM, el proceso es algo más lento, pero casi la mitad de los distribuidores de software han anunciado que publicarán programas en formato DVD-ROM. Algunos títulos ya presentados son «Silent Steel», de Tsunami Media, y «PhoneDisc PowerFinger USA I», de Digital Directory. Este último es nada menos que la guía telefónica de Estados Unidos, en donde se guardan más de 100 millones de números de teléfonos, a los que se puede acceder por nombre, dirección, e incluso distancias. Por ejemplo, es posible localizar las tiendas de informática que se encuentran en un radio de 5 Km de un determinado lugar. El programa original ocupaba 6 CD-ROM, que ahora pueden agruparse en un sólo DVD-ROM con 3.7 Gigas, y sobra espacio para ampliar la base de datos de telefónica.

DVD-R y DVD-RAM

Los discos DVD-ROM no se pueden grabar, pero a finales de año esto va a cambiar, con la entrada en escena de las grabadoras DVD, en dos versiones diferentes. Las grabadoras DVD-R serán el equivalente a las grabadoras CD-R actuales, es decir, mecanismos “write once” que permiten escribir en un disco DVD en blanco una sola vez. Los discos dispondrán de una capacidad cercana a los 3 Gigas, aunque se acercarán a los 4.7, para equipararse al formato DVD-Vídeo. Así, las grabadoras DVD-RAM. son discos DVD que pueden borrarse y escribirse múltiples veces. Su capacidad es de 2,6 Gigas.

MPEG-2: EL NUEVO ESTÁNDAR DE VÍDEO

La tecnología DVD utiliza el formato MPEG-2 para reproducir vídeo digital. La primera consecuencia lógica de esta decisión, es que será necesario disponer de una tarjeta gráfica compatible MPEG-2 para visionar películas almacenadas en formato DVD, en un ordenador. El problema es que ningún ordenador actual, ni siquiera los Pentium Pro más potentes, son capaces de reproducir vídeo MPEG-2, y las tarjetas MPEG-2 son demasiado caras o están poco extendidas en el mercado.

Las placas gráficas actuales reproducen vídeo MPEG-1, ya sea mediante hardware o software, pero no pueden ir más allá. Antes de conocer las soluciones que los distintos fabricantes tienen pensado aportar, vamos a descubrir las características principales que encierra el sistema MPEG-2.

Es un hecho conocido por todos, que el almacenamiento digital de imágenes en movimiento necesita una gran cantidad de espacio. Por ejemplo, una sola película de hora y media de duración con unas mínimas garantías de calidad, bajo una resolución de 640x480 y color de 16 bits, puede utilizar varios CD-ROM. La única solución viable, si se quiere reducir este espacio a uno o dos CD, es comprimir el vídeo. Así nacieron los conocidos formatos de compresión AVI y QuickTime. No obstante, la compresión de vídeo trae consigo dos desventajas: la calidad de la imagen es mucho menor, y además se necesita un hardware relativamente elevado para descomprimir las imágenes en tiempo real, mientras se reproducen.

El estándar MPEG es otro más de estos sistemas de compresión, solo que mucho más avanzado. La calidad de imagen se acerca a la del vídeo no comprimido, pero se necesita un hardware muy potente -es decir, una tarjeta de vídeo muy rápida, y un procesador muy veloz-, para poder reproducirlo. Con la tecnología actual, es posible reproducir vídeo MPEG-1 mediante software, en un Pentium con una tarjeta medianamente rápida. Sin embargo, el nuevo protocolo MPEG-2, utilizado por los reproductores DVD-Vídeo, es mucho más exigente.

El formato MPEG-2 está basado en el protocolo ISO/IEC 13818. La especificación DVD toma sólo algunas de sus reglas, para reproducir vídeo de alta calidad, según el estándar NTCS (720x640), a 24 fps (cuadros por segundo).

En realidad, éste es el estándar DVD de máxima calidad, ya que la propia especificación es compatible AVI, QuickTime, MPEG-1 y Vídeo CD, en donde la resolución es más o menos la mitad, es decir, vendría a ser: 352x240.

Por lo tanto, para reproducir una película DVD en un ordenador, será necesario disponer, no sólo de un decodificador MPEG-2 para las imágenes, sino también un decodificador Dolby para el sonido.

Las soluciones previstas para solucionar esto, son muy variadas. Algunos fabricantes adaptarán sus tarjetas gráficas al formato MPEG-2. Precisamente, los nuevos procesadores MMX pueden jugar un papel esencial en este apartado, ya que la aceleración multimedia que aportan es ideal para este tipo de procesos. Otra solución consiste en comercializar placas independientes, que incorporen los chips necesarios para reproducir vídeo DVD. Finalmente, la propuesta más lógica apuesta por incluir los mencionados chips en los propios reproductores DVD-ROM, como ya han confirmado algunas empresas. Esto encarecerá un poco el precio de la unidad, pero asegurará la total compatibilidad con los miles de títulos cinematográficos que comenzarán a comercializarse en el segundo cuatrimestre de 1997.

ROBOTICA

- Son unas máquinas controladas por ordenador y programada para moverse, manipular objetos y realzar trabajos a la vez que interacciona con su entorno. Los robots son capaces de realizar tareas repetitivas de forma más rápida, barata y precisa que los seres humanos.

- El diseño de un manipulador robótico se inspira en el brazo humano. Las pinzas están diseñadas para imitar la función y estructura de la mano humana. Muchos robots están equipados con pinzas especializadas para agarrar dispositivos concretos.

- Las articulaciones de un brazo robótico suelen moverse mediante motores eléctricos. Una computadora calcula los ángulos de articulación necesarios para llevar la pinza a la posición deseada.

- En 1995 funcionaban unos 700.000 robots en el mundo. Más de 500.000 se empleaban en Japón, unos 120.000 en Europa Occidental y unos 60.000 en Estados Unidos. Muchas aplicaciones de los robots corresponden a tareas peligrosas o desagradables para los humanos. En los laboratorios médicos, los robots manejan materiales que conlleven posibles riesgos, como muestras de sangre u orina. En otros casos, los robots se emplean en tareas repetitivas en las que el rendimiento de una persona podría disminuir con el tiempo. Los robots pueden realizar estas operaciones repetitivas de alta precisión durante 24 horas al día.

- Uno de los principales usuarios de robots es la industria del automóvil. La empresa General Motors utiliza aproximadamente 16.000 robots para trabajos como soldadura, pintura, carga de máquinas, transferencia de piezas y montaje. El montaje industrial exige una mayor precisión que la soldadura o la pintura y emplea sistemas de sensores de bajo coste y computadoras potentes y baratas. Los robots se usan por ejemplo en el montaje de aparatos electrónicos, para montar microchips.

- Se emplean robots para ayudar a los cirujanos a instalar caderas artificiales, y ciertos robots especializados de altísima precisión pueden ayudar en operaciones quirúrgicas delicadas en los ojos. La investigación en telecirugía emplea robots controlados de forma remota por cirujanos expertos; estos robots podrían algún día efectuar operaciones en campos de batalla distantes.

- Los robots crean productos manufacturados de mayor calidad y menor coste. Sin embargo, también pueden provocar la pérdida de empleos, especialmente en cadenas de montaje industriales.

- Las máquinas automatizadas ayudarán cada vez más a los humanos en la fabricación de nuevos productos, el mantenimiento de las infraestructuras y el cuidado de hogares y empresas. Los robots podrán fabricar nuevas autopistas, construir estructuras para edificios, limpiar corrientes subterráneas o cortar el césped.

- Puede que los cambios más espectaculares en los robots del futuro provengan de su capacidad de razonamiento cada vez mayor. El campo de la inteligencia artificial está pasando rápidamente de los laboratorios universitarios a la aplicación práctica en la industria, y se están desarrollando máquinas capaces de realizar tareas cognitivas como la planificación estratégica o el aprendizaje por experiencia. El diagnóstico de fallos en aviones o satélites, el mando en un campo de batalla o el control de grandes fábricas correrán cada vez más a cargo de ordenadores inteligentes.

La llamada crisis del año 2000

Se trata del hecho de que en algunas computadoras, en particular en las de

modelos viejos, las fechas son almacenadas en tres campos de dos dígitos cada uno, lo cual impide distinguir entre las fechas del siglo XX y las del siglo XXI. Por si esto fuera poco, algunos programadores utilizaron en aquella época el 99 como un valor especial suponiendo que para 1999 ya existirían otras aplicaciones.

Los especialistas en informática consideran hoy en día que se trata del problema más grande al que se ha enfrentado la industria de la computación en sus 50 años de existencia. Por desgracia, muy pocas organizaciones están preparadas para encontrar una solución oportuna.

La dimensión real del problema

Cada cuatro años suele haber un pequeño ajuste en el calendario gregoriano utilizado hoy en día desde su implantación en 1582. Dicho ajuste es el que ha llevado a la existencia de un día adicional en febrero de cada cuatro años, o sea, al llamado año bisiesto. Muchos programadores de computadoras no tomaron en cuenta este hecho al definir sus fórmulas para el cálculo de fechas. No obstante, el ajuste de un día cada cuatro años no representa el mayor reto de los sistemas complejos: la llegada del año 2000 y los problemas que implica van mucho más allá.

Considere, por ejemplo, un sistema gubernamental de pagos que maneje cifras de 5 años hacia atrás. En el año 2001, al visualizar los pagos anteriores, los operadores esperarán obtener en su pantalla una lista de arriba hacia abajo con indicaciones acerca de los años 01, 00, 99, 98, 97, etc. Sin embargo, las listas clasificadas en forma descendente por fechas les mostrarán los datos correspondientes a los años 99, 98, 97... 01 y 00 en vez de lo originalmente deseado. El significado de los datos será totalmente alterado.

Entre las necesidades existentes debido a la llegada del año 2000 cabe mencionar los siguientes:

El rediseño de formas y de reportes en los cuales el campo de fecha no aparece completo o de manera adecuada.

La reindexación de aquellas bases de datos que utilizan la fecha como índice.

La reprogramación de sistemas de los que no existe el código fuente.

La elaboración de procedimientos especiales para el manejo de listas basadas en fechas, o para la recuperación de información existente en cintas de respaldo en las cuales el 99 aparece como separador o como indicador de terminación de una lista.

El rediseño de los sistemas de código de barras dado que hasta ahora ninguno de los dispositivos existentes para tal fin utiliza 4 dígitos para el manejo del año.

La reingeniería de casi todas las computadoras portátiles dado que no están preparadas para el cambio de fecha del 31 de diciembre de 1999 al 01 de enero de 2000 (porque el BIOS no soporta el año 2000).

Desgraciadamente, el problema causado por la crisis del 2000 abarca muchos más aspectos no necesariamente técnicos:

Por ejemplo, para calcular la edad de una persona nacida en 1960, la fórmula utilizada hasta ahora es 97-60=37, pero en el año 2000 dicha fórmula sería 00-60=?. En este caso la lógica implícita para calcular los años transcurridos puede fallar. El resultado puede ser un número negativo, o bien, un entero extremadamente grande. En ambos casos, el resultado puede dar lugar a la cancelación de tarjetas de crédito, a errores en el cálculo de pensiones, al pago indebido de intereses, a la obtención de saldos telefónicos erróneos, etc.

Han de ser verificados el 100% de los sistemas actuales

Las pruebas de cómputo en los mainframes y las bases de datos muy grandes implican simular el año 2000, pero son muy pocas las organizaciones con la capacidad de cómputo requerida para duplicar todos los sistemas, los archivos, los respaldos, etc. Además, la prueba de todos los sistemas obliga probablemente a trabajar los fines de semana.

Ha de ser debidamente presupuestada la estrategia a seguir

La manera más efectiva de evitar esta crisis consiste en cambiar el 100% del software por versiones listas para operar con fechas del año 2000. Este procedimiento sería de un costo excesivamente alto, en especial para programas cuyo código fuente ya es inaccesible.

En este contexto cabe señalar que el costo de corrección de una línea de código en COBOL fue estimado por Gartner Group entre $1.10 y $1.50 dólares, lo cual implica que el costo total de la solución a la crisis del 2000, tan solo en los Estados Unidos, es superior a $1500 millones de dólares.

En términos de desarrollo de aplicaciones, existirán problemas sólo si los campos tipo fecha no son debidamente utilizados. Estos problemas son ajenos a la herramienta de desarrollo pero dependen de cada programador. Por ejemplo, Microsoft Visual Basic está preparado para calcular correctamente fechas del próximo siglo, pero si no se utilizan las funciones internas de cálculo de fechas, o sea, se convierten las fechas en números seriales, o se utilizan campos enteros como fechas, las aplicaciones pueden ser incompatibles a la larga.

Existen otros problemas de menor importancia, como por ejemplo el hecho de que MS-DOS no ha de aceptar la fecha 00 y de que ha de obligar a la captura completa del “2000”, o bien de que ciertos programas tales como Microsoft Windows 3.1, despliegan incorrectamente las fechas de los archivos del año 2000 mostrándolos con caracteres no numéricos (basura). Este problema se solucionaría con el simple hecho de que ya todos los usuarios se actualicen a los nuevos sistemas operativos.

INTERNET

Internet, interconexión de redes informáticas que permite a las computadoras conectadas comunicarse directamente. El término suele referirse a una interconexión en particular, de carácter planetario y abierto al público, que conecta redes informáticas de organismos oficiales, educativos y empresariales. También existen sistemas de redes más pequeños llamados intranet, generalmente para el uso de una única organización.

La tecnología de Internet es una precursora de la llamada 'superautopista de la información', un objetivo teórico de las comunicaciones informáticas que permitiría proporcionar a colegios, bibliotecas, empresas y hogares acceso universal a una información de calidad que eduque, informe y entretenga. A principios de 1996 estaban conectadas a Internet más de 25 millones de computadoras en más de 180 países, y la cifra sigue en aumento.

Cómo funciona Internet

Internet es un conjunto de redes locales conectadas entre sí a través de un ordenador especial por cada red, conocido como gateway. Las interconexiones entre gateways se efectúan a través de diversas vías de comunicación, entre las que figuran líneas telefónicas, fibras ópticas y enlaces por radio. Pueden añadirse redes adicionales conectando nuevas puertas. La información que debe enviarse a una máquina remota se etiqueta con la dirección computerizada de dicha máquina.

Los distintos tipos de servicio proporcionados por Internet utilizan diferentes formatos de dirección (Dirección de Internet). Uno de los formatos se conoce como decimal con puntos, por ejemplo 123.45.67.89. Otro formato describe el nombre del ordenador de destino y otras informaciones para el encaminamiento, por ejemplo 'mayor.dia.fi.upm.es'. Las redes situadas fuera de Estados Unidos utilizan sufijos que indican el país, por ejemplo (.es) para España o (.ar) para Argentina. Dentro de Estados Unidos, el sufijo anterior especifica el tipo de organización a que pertenece la red informática en cuestión, que por ejemplo puede ser una institución educativa (.edu), un centro militar (.mil), una oficina del Gobierno (.gov) o una organización sin ánimo de lucro (.org).

Una vez direccionada, la información sale de su red de origen a través de la puerta. De allí es encaminada de puerta en puerta hasta que llega a la red local que contiene la máquina de destino. Internet no tiene un control central, es decir, ningún ordenador individual que dirija el flujo de información. Esto diferencia a Internet y a los sistemas de redes semejantes de otros tipos de servicios informáticos de red como CompuServe, America Online o Microsoft Network.

El Protocolo de Internet

El Protocolo de Internet (IP) es el soporte lógico básico empleado para controlar el sistema de redes. Este protocolo especifica cómo las computadoras de puerta encaminan la información desde el ordenador emisor hasta el ordenador receptor. Otro protocolo denominado Protocolo de Control de Transmisión (TCP) comprueba si la información ha llegado al ordenador de destino y, en caso contrario, hace que se vuelva a enviar. Véase TCP/IP.

Servicios de Internet

Los sistemas de redes como Internet permiten intercambiar información entre computadoras, y ya se han creado numerosos servicios que aprovechan esta función. Entre ellos figuran los siguientes: conectarse a un ordenador desde otro lugar (telnet); transferir ficheros entre una computadora local y una computadora remota (protocolo de transferencia de ficheros, o FTP) y leer e interpretar ficheros de ordenadores remotos (gopher). El servicio de Internet más reciente e importante es el protocolo de transferencia de hipertexto (http), un descendiente del servicio de gopher. El http puede leer e interpretar ficheros de una máquina remota: no sólo texto sino imágenes, sonidos o secuencias de vídeo. El http es el protocolo de transferencia de información que forma la base de la colección de información distribuida denominada World Wide Web.

La World Wide Web

World Wide Web (también conocida como Web o WWW) es una colección de ficheros, denominados lugares de Web o páginas de Web, que incluyen información en forma de textos, gráficos, sonidos y vídeos, además de vínculos con otros ficheros. Los ficheros son identificados por un localizador universal de recursos (URL, siglas en inglés) que especifica el protocolo de transferencia, la dirección de Internet de la máquina y el nombre del fichero. Por ejemplo, un URL podría ser http://www.encarta.es/msn.com. Los programas informáticos denominados exploradores —como Navigator, de Netscape, o Internet Explorer, de Microsoft— utilizan el protocolo http para recuperar esos ficheros. Continuamente se desarrollan nuevos tipos de ficheros para la WWW, que contienen por ejemplo animación o realidad virtual (VRML). Hasta hace poco había que programar especialmente los lectores para manejar cada nuevo tipo de archivo. Los nuevos lenguajes de programación (como Java, de Sun Microsystems) permiten que los exploradores puedan cargar programas de ayuda capaces de manipular esos nuevos tipos de información.

Historia

El Protocolo de Internet (IP) y el Protocolo de Control de Transmisión (TCP) fueron desarrollados inicialmente en 1973 por el informático estadounidense Vinton Cerf como parte de un proyecto dirigido por el ingeniero norteamericano Robert Kahn y patrocinado por la Agencia de Programas Avanzados de Investigación (ARPA, siglas en inglés) del Departamento Estadounidense de Defensa. Internet comenzó siendo una red informática de ARPA (llamada ARPAnet) que conectaba redes de ordenadores de varias universidades y laboratorios de investigación en Estados Unidos. World Wide Web se desarrolló en 1989 por el informático británico Timothy Berners-Lee para el Consejo Europeo de Investigación Nuclear (CERN, siglas en francés).

Impacto social

Aunque la interacción informática todavía está en su infancia, ha cambiado espectacularmente el mundo en que vivimos, eliminando las barreras del tiempo y la distancia y permitiendo a la gente compartir información y trabajar en colaboración. El avance hacia la 'superautopista de la información' continuará a un ritmo cada vez más rápido. El contenido disponible crecerá rápidamente, lo que hará más fácil encontrar cualquier información en Internet. Las nuevas aplicaciones permitirán realizar transacciones económicas de forma segura y proporcionarán nuevas oportunidades para el comercio. Las nuevas tecnologías aumentarán la velocidad de transferencia de información, lo que hará posible la transferencia directa de 'ocio a la carta'. Es posible que las actuales transmisiones de televisión generales se vean sustituidas por transmisiones específicas en las que cada hogar reciba una señal especialmente diseñada para los gustos de sus miembros, para que puedan ver lo que quieran en el momento que quieran.

El crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a la censura. El aumento de las páginas de Web que contenían textos y gráficos en los que se denigraba a una minoría, se fomentaba el racismo o se exponía material pornográfico llevó a pedir que los suministradores de Internet cumplieran voluntariamente unos determinados criterios. En 1996 se aprobó en Estados Unidos la Ley para la Decencia en las Comunicaciones, que convirtió en delito el que un suministrador de servicios transmitiera material indecente a través de Internet.

La decisión provocó inmediatamente una reacción indignada de usuarios, expertos del sector y grupos en favor de las libertades civiles, que se oponían a ese tipo de censuras. La ley fue impugnada y posteriormente suspendida en junio de 1996 por un comité de jueces federales. El comité describió Internet como una conversación planetaria continua que merecía la máxima protección frente a la injerencia gubernamental. Probablemente, la decisión del comité será recurrida ante el Tribunal Supremo de Estados Unidos.

La censura en Internet plantea muchas cuestiones. La mayoría de los servicios de la red no pueden vigilar y controlar constantemente lo que dice la gente en Internet a través de sus servidores. A la hora de tratar con información procedente de otros países surgen problemas legales; incluso aunque fuera posible un control supranacional, habría que determinar unos criterios mundiales de comportamiento y ética.