Informática como ciencia

Informática. Aplicaciones. Mundo laboral: ofimática. Telemática. Robótica. Hardware. Software. Sistema informático. Linus Torvalds

  • Enviado por: Rosa
  • Idioma: castellano
  • País: España España
  • 37 páginas

publicidad
cursos destacados
Crea juegos con HTML5
Crea juegos con HTML5
El CANVAS de HTML5 es una poderosa herramienta que nos permitirá, entre otras cosas, procesar imágenes,...
Ver más información

Apps y adaptación de pantallas iOS
Apps y adaptación de pantallas iOS
Crea aplicaciones universales que funcionen tanto en un iPhone como en un iPad aprovechando la mayor parte del...
Ver más información


¿QUÉ ES LA INFORMÁTICA?

Es la ciencia del tratamiento automático y racional de la información considerada como el soporte de los conocimientos y las comunicaciones.

La informática, en verdad, no es una ciencia por sí misma, sino una disciplina que se basa en diversas ciencias y técnicas: matemáticas, lógica, física, electrónica, etc. La búsqueda de la automatización del proceso de cálculo, que está en el origen de la informática, es una larga historia. Cuando existieron un conjunto de técnicas indispensables, esta automatización fue realizable y, de una forma más general, fue posible el tratamiento automático de la información había nacido la informática.

APLICACIONES DE LA INFORMÁTICA EN LA ENSEÑANZA.-

Las primeras aplicaciones del ordenador a la didáctica se realizaron en Estados Unidos a finales de los años 50. Además de los propios programas desarrollados por los fabricantes para adiestrar en el empleo de estas máquinas, algunas universidades y escuelas realizaron innumerables experiencias para informar sobre temas concretos y evaluar los progresos realizados. Las limitaciones eran muchas, las más destacadas son el alto coste y la escasa flexibilidad.

En los 60 se empezaron a experimentar centros de estudios para la Enseñanza Asistida por Ordenador (EAO), de acuerdo con las técnicas de la educación programada por Skiner y Crowder.

Francia fue la primera nación europea en introducir el ordenador como instrumento didáctico en la enseñanza.

En Inglaterra, desde 1973, existe el programa Nacional Develpoment Programme in Computer Assisted Learning que abarca desde los niveles superiores a los iniciales.

En Alemania las escuelas reciben ayudas locales o estatales para potenciar la enseñanza de la informática técnica.

En España, solamente a partir de los 80, se ha empezado a introducir la enseñanza programada por el ordenador. La 1ª Universidad que utilizó la informática para la didáctica es la Universidad Nacional de Educación a Distancia (UNED).

Creación.

El desarrollo de las facultades creativas y de las técnicas de creación puede potenciarse con relativa facilidad con el uso de la informática. Por ejemplo:

La composición de documentos, redacciones, cartas comerciales, etc., resulta más instructiva con la ayuda de los procesadores de textos.

La consulta de datos, será mucho más cómoda si se accede a archivos o bases de datos.

La simulación de teorías, fórmulas, etc., es más fácil con la utilización de las hojas de cálculos.

La representación de funciones, maquinaria, etc., resulta más rápida con la utilización de gráficos.

Comunicación.

En la época de las comunicaciones la informática es una herramienta más. Presenta las siguientes ventajas:

Las asignaturas que utilizan el ordenador son mejor acogidas por los alumnos.

La informática motiva al alumno.

Se comunican los conceptos con más facilidad.

La información cultural es más accesible.

La forma de trabajo del ordenador, individualizada, puede mejorar la adaptación a ritmos de trabajos.

IMPLICACIONES DE LA INFORMÁTICA EN EL MUNDO LABORAL.-

El ordenador libera al hombre de las labores rutinarias, pero existe una razón más poderosa para su rápida implantación en el mundo laboral su productividad.

OFIMÁTICA.

La parte de la informática que se dedica a resolver los problemas de automatización de las oficinas se conoce con el nombre de ofimática.

Los p rimeros pasos se realizaron utilizando configuraciones centralizadas, un ordenador daba servicio a varias terminales, que sólo servían para introducir datos o tareas muy concretas. En la actualidad se está generalizando el uso de la información distribuida, es decir, los terminales también tienen capacidad de proceso, son los llamdados terminales “inteligentes”.

La automatización de las oficinas se ha implantado debido a las siguientes razones:

Se utiliza diariamente una gran cantidad de documentación.

Se necesita controlar tanto las tareas realizadas como las pendientes de efectuar.

La obligación de creciente de realizar formularios legales.

La documentación queda recogida en un espacio menor.

Las modificaciones y cálculos son más sencillos.

La necesidad de agilizar la gestión

La aparición de aplicaciones ofimáticas específicas.

TELEMÁTICA.

El término más usado para designar la unión de entre las telecomunicaciones y la informática es el de telemática.

En principio se trataba de usar las telecomunicaciones para transmitir informaciones. Aparecieron, simultáneamente a su uso, los protocolos de comunicaciones, es decir, aquellos requisitos imprescindibles para poder emitir y recibir los datos de una manera fiable.

Las compañías de telecomunicaciones empezaron a desarrollar sistemas de transmisión especiales y distintos a los destinados a las comunicaciones orales. De hecho, automatizaron sus líneas con ordenadores especiales de comunicaciones y empezaron a utilizar otros medios de transmisión, como los cables coaxiales.

Existe diferentes criterios para clasificar la forma de comunicación, pero podemos citar 2 conceptos extendidos:

Comunicación en línea (on-line), cuando las terminales están conectadas directamente al ordenador.

Comunicación en tiempo real, cuando las respuestas del ordenador se realizan con la rapidez suficiente para adecuarse a esa necesidad.

Las comunicaciones mediante fibra óptica y satélites son ya una realidad. Existen aplicaciones, como el videotexto, el correo electrónico y el fax, totalmente desarrolladas, y otras, como la teleconferencia, a punto de implantarse.

ROBÓTICA.

Una de las ramas más importantes derivadas de la informática y de la automática/electrónica es la robótica.

Las necesidades de aumentar la calidad de los productos y mejorar la productividad, nos está llevando inexorablemente hacia la utilización de robots controlados por ordenadores.

El nombre que deberíamos utilizar, en lugar de robot, sería el de autómata programable.

Se considera que existen tres generaciones de autómatas:

La primera se limita a la realización de tareas repetitivas y simples, especialmente aquellas que supongan peligro para la vida humana.

En la segunda se les dota de sensores a los robots, lo que les permite reconocer y sostener piezas.

La tercera es la actual, que está en pleno desarrollo, y pretende que los autómatas sean capaces de tomar decisiones.

En cuanto a su funcionamiento, existen 2 tipos principales:

Los servocontrolados, que pueden ponerse en funcionamiento detenerse en cualquier instante.

Los que pasan de una tarea a otra tarea de acuerdo con las operaciones que se les han encargado, pero no es fácil detenerlos.

lafacu.com no se responsabiliza por el uso que otros o terceros, puedan darle a esta información.

HARDWARE

El Hardware es el equipo utilizado para el funcionamiento de una computadora. El hardware se refiere a los componentes materiales de un sistema informático. La función de estos componentes suele dividirse en tres categorías principales: entrada, salida y almacenamiento. Los componentes de esas categorías están conectados a través de un conjunto de cables o circuitos llamado bus con la unidad central de proceso (CPU) del ordenador, el microprocesador que controla la computadora y le proporciona capacidad de cálculo.

Componentes hardware de un ordenador:

Microprocesador

EL Microprocesador es un circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo. Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles o aviones. En 1995 se produjeron unos 4.000 millones de microprocesadores en todo el mundo.

El microprocesador es un tipo de circuito súmamente integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos electrónicos complejos formados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material conocido como semiconductor. Los microprocesadores modernos incorporan hasta 10 millones de transistores (que actúan como amplificadores electrónicos, osciladores o, más a menudo, como conmutadores), además de otros componentes como resistencias, diodos, condensadores y conexiones, todo ello en una superficie comparable a la de un sello postal.

Un microprocesador consta de varias secciones diferentes. La unidad aritmético-lógica (ALU, siglas en inglés) efectúa cálculos con números y toma decisiones lógicas; los registros son zonas de memoria especiales para almacenar información temporalmente; la unidad de control descodifica los programas; los buses transportan información digital a través del chip y de la computadora; la memoria local se emplea para los cómputos realizados en el mismo chip. Los microprocesadores más complejos contienen a menudo otras secciones; por ejemplo, secciones de memoria especializada denominadas memoria cache, que sirven para acelerar el acceso a los dispositivos externos de almacenamiento de datos. Los microprocesadores modernos funcionan con una anchura de bus de 64 bits (un bit es un dígito binario, una unidad de información que puede ser un uno o un cero): esto significa que pueden transmitirse simultáneamente 64 bits de datos.

Un cristal oscilante situado en el ordenador proporciona una señal de sincronización, o señal de reloj, para coordinar todas las actividades del microprocesador. La velocidad de reloj de los microprocesadores más avanzados es de unos 300 megahercios (MHz) —unos 300 millones de ciclos por segundo—, lo que permite ejecutar unos 1.000 millones de instrucciones cada segundo.

Memoria de computadora

Como el microprocesador no es capaz por sí solo de albergar la gran cantidad de memoria necesaria para almacenar instrucciones y datos de programa (por ejemplo, el texto de un programa de tratamiento de texto), pueden emplearse transistores como elementos de memoria en combinación con el microprocesador. Para proporcionar la memoria necesaria se emplean otros circuitos integrados llamados chips de memoria de acceso aleatorio (RAM, siglas en inglés), que contienen grandes cantidades de transistores. Existen diversos tipos de memoria de acceso aleatorio. La RAM estática (SRAM) conserva la información mientras esté conectada la tensión de alimentación, y suele emplearse como memoria cache porque funciona a gran velocidad. Otro tipo de memoria, la RAM dinámica (DRAM), es más lenta que la SRAM y debe recibir electricidad periódicamente para no borrarse. La DRAM resulta más económica que la SRAM y se emplea como elemento principal de memoria en la mayoría de las computadoras.

Microcontrolador

Un microprocesador no es un ordenador completo. No contiene grandes cantidades de memoria ni es capaz de comunicarse con dispositivos de entrada —como un teclado, un joystick o un ratón— o dispositivos de salida como un monitor o una impresora. Un tipo diferente de circuito integrado llamado microcontrolador es de hecho una computadora completa situada en un único chip, que contiene todos los elementos del microprocesador básico además de otras funciones especializadas. Los microcontroladores se emplean en videojuegos, reproductores de vídeo, automóviles y otras máquinas.

Semiconductores

Todos los circuitos integrados se fabrican con semiconductores, sustancias cuya capacidad de conducir la electricidad es intermedia entre la de un conductor y la de un no conductor o aislante. El silicio es el material semiconductor más habitual. Como la conductividad eléctrica de un semiconductor puede variar según la tensión aplicada al mismo, los transistores fabricados con semiconductores actúan como minúsculos conmutadores que abren y cierran el paso de corriente en sólo unos pocos nanosegundos (milmillonésimas de segundo). Esto permite que un ordenador pueda realizar millones de instrucciones sencillas cada segundo y ejecutar rápidamente tareas complejas.

El bloque básico de la mayoría de los dispositivos semiconductores es el diodo, una unión de materiales de tipo negativo (tipo n) y positivo (tipo p). Los términos "tipo n" y "tipo p" se refieren a materiales semiconductores que han sido dopados, es decir, cuyas propiedades eléctricas han sido alteradas mediante la adición controlada de pequeñísimas concentraciones de impurezas como boro o fósforo. En un diodo, la corriente eléctrica sólo fluye en un sentido a través de la unión: desde el material de tipo p hasta el material de tipo n, y sólo cuando el material de tipo p está a una tensión superior que el de tipo n. La tensión que debe aplicarse al diodo para crear esa condición se denomina tensión de polarización directa. La tensión opuesta que hace que no pase corriente se denomina tensión de polarización inversa. Un circuito integrado contiene millones de uniones p-n, cada una de las cuales cumple una finalidad específica dentro de los millones de elementos electrónicos de circuito. La colocación y polarización correctas de las regiones de tipo p y tipo n hacen que la corriente eléctrica fluya por los trayectos adecuados y garantizan el buen funcionamiento de todo el chip.

Transistores

El transistor empleado más comúnmente en la industria microelectrónica se denomina transistor de efecto de campo de metal-óxido-semiconductor (MOSFET, siglas en inglés). Contiene dos regiones de tipo n, llamadas fuente y drenaje, con una región de tipo p entre ambas, llamada canal. Encima del canal se encuentra una capa delgada de dióxido de silicio, no conductor, sobre la cual va otra capa llamada puerta. Para que los electrones fluyan desde la fuente hasta el drenaje, es necesario aplicar una tensión a la puerta (tensión de polarización directa). Esto hace que la puerta actúe como un conmutador de control, conectando y desconectando el MOSFET y creando una puerta lógica que transmite unos y ceros a través del microprocesador.

La Memoria son los circuitos que permiten almacenar y recuperar la información. En un sentido más amplio, puede referirse también a sistemas externos de almacenamiento, como las unidades de disco o de cinta. Por lo general se refiere sólo al semiconductor rápido de almacenaje (RAM) conectado directamente al procesador.

-Memoria de acceso aleatorio o RAM es la memoria basada en semiconductores que puede ser leída y escrita por el microprocesador u otros dispositivos de hardware. Es un acrónimo del inglés Random Access Memory. Se puede acceder a las posiciones de almacenamiento en cualquier orden.

-Memoria de sólo lectura o ROM es la memoria basada en semiconductores que contiene instrucciones o datos que se pueden leer pero no modificar. Para crear un chip ROM, el diseñador facilita a un fabricante de semiconductores la información o las instrucciones que se van a almacenar. El fabricante produce entonces uno o más chips que contienen esas instrucciones o datos. Como crear chips ROM implica un proceso de fabricación, esta creación es viable económicamente sólo si se producen grandes cantidades de chips. Los diseños experimentales o los pequeños volúmenes son más asequibles usando PROM o EPROM. El término ROM se suele referir a cualquier dispositivo de sólo lectura, incluyendo PROM y EPROM.

La BIOS acrónimo de Basic Input/Output System (Sistema Básico de Entrada/Salida), un conjunto de rutinas que trabajan estrechamente con el hardware de un ordenador o computadora para soportar la transferencia de información entre los elementos del sistema, como la memoria, los discos y el monitor. En los IBM y compatibles, el BIOS, o ROM BIOS, está incorporado en la memoria de sólo lectura (ROM) de la máquina. Aunque es fundamental para el funcionamiento, el BIOS es invisible a los usuarios de los equipos; los programadores sí pueden acceder a él.

Hardware de entrada

El hardware de entrada consta de dispositivos externos —esto es,

componentes situados fuera de la CPU de la computadora— que proporcionan información e instrucciones. Un lápiz óptico es un puntero con un extremo fotosensible que se emplea para dibujar directamente sobre la pantalla, o para seleccionar información en la pantalla pulsando un botón en el lápiz óptico o presionando el lápiz contra la superficie de la pantalla.

El lápiz contiene sensores ópticos que identifican la parte de la pantalla por la que se está pasando. Un mouse, o ratón, es un dispositivo apuntador diseñado para ser agarrado con una mano. Cuenta en su parte inferior con un dispositivo detector (generalmente una bola) que permite al usuario controlar el movimiento de un cursor en la pantalla deslizando el mouse por una superficie plana. Para seleccionar objetos o elegir instrucciones en la pantalla, el usuario pulsa un botón del mouse. Un joystick es un dispositivo formado por una palanca que se mueve en varias direcciones y dirige un cursor u otro objeto gráfico por la pantalla de la computadora. Un teclado es un dispositivo parecido a una máquina de escribir, que permite al usuario introducir textos e instrucciones. Algunos teclados tienen teclas de función especiales o dispositivos apuntadores integrados, como trackballs (bolas para mover el cursor) o zonas sensibles al tacto que permiten que los movimientos de los dedos del usuario dirijan un cursor en la pantalla.

Un digitalizador óptico emplea dispositivos fotosensibles para convertir imágenes (por ejemplo, una fotografía o un texto) en señales electrónicas que puedan ser manipuladas por la máquina. Por ejemplo, es posible digitalizar una fotografía, introducirla en una computadora e integrarla en un documento de texto creado en dicha computadora. Los dos digitalizadores más comunes son el digitalizador de campo plano (similar a una fotocopiadora de oficina) y el digitalizador manual, que se pasa manualmente sobre la imagen que se quiere procesar. Un micrófono es un dispositivo para convertir sonidos en señales que puedan ser almacenadas, manipuladas y reproducidas por el ordenador. Un módulo de reconocimiento de voz es un dispositivo que convierte palabras habladas en información que el ordenador puede reconocer y procesar.

Un módem es un dispositivo que conecta una computadora con una línea telefónica y permite intercambiar información con otro ordenador a través de dicha línea. Todos los ordenadores que envían o reciben información deben estar conectados a un módem. El módem del aparato emisor convierte la información enviada en una señal analógica que se transmite por las líneas telefónicas hasta el módem receptor, que a su vez convierte esta señal en información electrónica para el ordenador receptor.

El Lápiz óptico es un dispositivo señalador en el que el usuario sostiene sobre la pantalla un lápiz que está conectado al ordenador o computadora y que permite seleccionar elementos u opciones en la pantalla (el equivalente a un clic del ratón), bien presionando un botón en un lateral del lápiz óptico o presionando éste contra la superficie de la pantalla. El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, como por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo puede cansar al usuario.

El Módem es un equipo utilizado para la comunicación de computadoras a traves de líneas análogicas de transmisión de datos. El módem convierte las señales digitales del emisor en otras analógicas susceptibles de ser enviadas por teléfono. Cuando la señal llega a su destino, otro módem se encarga de reconstruir la señal digital primitiva, de cuyo proceso se encarga la computadora receptora. En el caso de que ambos módems puedan estar transmitiendo datos simultáneamente, se dice que operan en modo full-duplex; si sólo puede transmitir uno de ellos, el modo de operación se denomina half-duplex.

Para convertir una señal digital en otra analógica, el módem genera una onda portadora y la modula en función de la señal digital. El tipo de modulación depende de la aplicación y de la velocidad de transmisión del módem. Los módems de alta velocidad, por ejemplo, utilizan una combinación de modulación en amplitud y de modulación en fase, en la que la fase de la portadora se varía para codificar la información digital. El proceso de recepción de la señal analógica y su reconversión en digital se denomina demodulación. La palabra módem es una contracción de las dos funciones básicas: modulación y demodulación.

Los primeros módems eran muy aparatosos y sólo podían transmitir datos a unos 100 bits por segundo. Los más utilizados en la actualidad en los ordenadores personales transmiten la información a más de 33 kilobits por segundo. Pueden incluir funciones de fax y de contestador automático de voz.

El Módem también es un periférico de salida.

Hardware de salida

El hardware de salida consta de dispositivos externos que transfieren información de la CPU de la computadora al usuario informático. La pantalla convierte la información generada por el ordenador en información visual. Las pantallas suelen adoptar una de las siguientes formas: un monitor de rayos catódicos o una pantalla de cristal líquido (LCD, siglas en inglés). En el monitor de rayos catódicos, semejante a un televisor, la información procedente de la CPU se representa empleando un haz de electrones que barre una superficie fosforescente que emite luz y genera imágenes. Las pantallas LCD son más planas y más pequeñas que los monitores de rayos catódicos, y se emplean frecuentemente en ordenadores portátiles.

La Impresora periférico para ordenador o computadora que traslada el texto o la imagen generada por computadora a papel u otro medio, por ejemplo transparencias. Las impresoras se pueden dividir en categorías siguiendo diversos criterios. La distinción más común se hace entre las que son de impacto y las que no lo son. Las impresoras de impacto se dividen en impresoras matriciales e impresoras de margarita. Las que no son de impacto abarcan todos los demás tipos de mecanismos de impresión, incluyendo las impresoras térmicas, de chorro de tinta e impresoras láser.

Otros posibles criterios para la clasificación de impresoras son los siguientes: tecnología de impresión, formación de los caracteres, método de transmisión, método de impresión y capacidad de impresión.

Tecnología de impresión: en el campo de las microcomputadoras destacan las impresoras matriciales, las de chorro de tinta, las láser, las térmicas y, aunque algo obsoletas, las impresoras de margarita. Las impresoras matriciales pueden subdividirse según el número de agujas que contiene su cabezal de impresión: 9, 18, 24.

Formación de los caracteres: utilización de caracteres totalmente formados con trazo continuo (por ejemplo, los producidos por una impresora de margarita) frente a los caracteres matriciales compuestos por patrones de puntos independientes (como los que producen las impresoras estándar matriciales, de chorro de tinta y térmicas). Aunque las impresoras láser son técnicamente impresoras matriciales, la nitidez de la impresión y el tamaño muy reducido de los puntos, impresos con una elevada densidad, permite considerar que los trazos de sus caracteres son continuos.

-Impresora matricial, cualquier impresora que imprime caracteres compuestos por puntos empleando un cabezal de impresión formado por agujas accionadas electromagnéticamente. Los parámetros principales de calidad de impresión de una impresora matricial son el número de puntos de la matriz de agujas y su velocidad. Por lo general, las impresoras matriciales se clasifican por el número de agujas del cabezal de impresión, normalmente 9 o 24.

-Impresora láser, impresora electrofotográfica que utiliza la misma tecnología que las fotocopiadoras. Para dibujar la imagen de la página deseada se utilizan un rayo láser dirigido y un espejo giratorio, que actúan sobre un tambor fotosensible. La imagen se fija en el tambor en forma de carga electrostática que atrae y retiene el tóner. Se enrolla una hoja de papel cargada electrostáticamente alrededor del tambor, de forma que el tóner depositado se queda pegado al papel. A continuación se calienta el papel para que el tóner se funda sobre su superficie. Por último, se elimina la carga eléctrica del tambor y se recoge el tóner sobrante. Para hacer varias copias de una misma imagen, se omite este último paso y se repiten sólo la aplicación del tóner y el tratamiento del papel.

Una desventaja de las impresoras láser es que son menos versátiles que las matriciales, que trabajan con distintos tipos de papel. Por ello suelen obtenerse mejores resultados si se utilizan impresoras matriciales o de margarita para la impresión de formularios autocopiativos o en papel ancho.

-Impresora de líneas, en informática, cualquier impresora que imprima línea por línea, en oposición a las que imprimen carácter por carácter (como ocurre con impresoras matriciales estándar) o bien página por página (como ocurre con las impresoras láser). Son dispositivos de alta velocidad que a menudo se usan con grandes sistemas, minicomputadoras o equipos conectados en red, pero no con sistemas utilizados por un solo usuario. Entre los distintos tipos de impresoras de líneas se encuentran las impresoras de cadena y las de banda. La abreviatura LPT significaba originalmente 'line printer', o impresora de líneas; en microcomputadoras se usa a menudo la misma abreviatura para referirse al puerto o puertos paralelos de la computadora.

Método de transmisión: paralelo (transmisión byte a byte) frente a serie (transmisión bit a bit). Estas categorías se refieren al medio utilizado para enviar los datos a la impresora, más que a diferencias mecánicas. Muchas impresoras están disponibles tanto en versiones paralelo o serie, y algunas incorporan ambas opciones, lo que aumenta la flexibilidad a la hora de instalarlas.

Método de impresión: carácter a carácter, línea a línea o página a página. Las impresoras de caracteres son las matriciales, las de chorro de tinta, las térmicas y las de margarita. Las impresoras de líneas se subdividen en impresoras de cinta, de cadena y de tambor, y se utilizan frecuentemente en grandes instalaciones o redes informáticas. Entre las impresoras de páginas se encuentran las electrofotográficas, como las impresoras láser.

Capacidad de impresión: sólo texto frente a texto y gráficos. La mayoría de las impresoras de margarita y de bola sólo pueden imprimir textos, si bien existen impresoras matriciales y láser que sólo trabajan con caracteres. Estas impresoras sólo pueden reproducir caracteres previamente grabados, ya sea en relieve o en forma de mapa de caracteres interno. Las impresoras de textos y gráficos, entre las que se encuentran las matriciales, las de chorro de tinta y las láser reproducen todo tipo de imágenes dibujándolas como patrones de puntos.

Hardware de almacenamiento

El hardware de almacenamiento sirve para almacenar permanentemente información y programas que el ordenador deba recuperar en algún momento. Los dos tipos principales de dispositivos de almacenamiento son las unidades de disco y la memoria. Existen varios tipos de discos: duros, flexibles, magneto-ópticos y compactos. Las unidades de disco duro almacenan información en partículas magnéticas integradas en un disco. Las unidades de disco duro, que suelen ser una parte permanente de la computadora, pueden almacenar grandes cantidades de información y recuperarla muy rápidamente. Las unidades de disco flexible también almacenan información en partículas magnéticas integradas en discos intercambiables, que de hecho pueden ser flexibles o rígidos. Los discos flexibles almacenan menos información que un disco duro, y la recuperación de la misma es muchísimo más lenta. Las unidades de disco magneto-óptico almacenan la información en discos intercambiables sensibles a la luz láser y a los campos magnéticos. Pueden almacenar tanta información como un disco duro, pero la velocidad de recuperación de la misma es algo menor. Las unidades de disco compacto, o CD-ROM, almacenan información en las cavidades grabadas en la superficie de un disco de material reflectante. La información almacenada en un CD-ROM no puede borrarse ni sustituirse por otra información. Los CD-ROM pueden almacenar aproximadamente la misma información que un disco duro, pero la velocidad de recuperación de información es menor.

La memoria está formada por chips que almacenan información que la CPU necesita recuperar rápidamente. La memoria de acceso aleatorio (RAM, siglas en inglés) se emplea para almacenar la información e instrucciones que hacen funcionar los programas de la computadora. Generalmente, los programas se transfieren desde una unidad de disco a la RAM. La RAM también se conoce como memoria volátil, porque la información contenida en los chips de memoria se pierde cuando se desconecta el ordenador. La memoria de lectura exclusiva (ROM, siglas en inglés) contiene información y software cruciales que deben estar permanentemente disponibles para el funcionamiento de la computadora, por ejemplo el sistema operativo, que dirige las acciones de la máquina desde el arranque hasta la desconexión. La ROM se denomina memoria no volátil porque los chips de memoria ROM no pierden su información cuando se desconecta el ordenador.

Algunos dispositivos se utilizan para varios fines diferentes. Por ejemplo, los discos flexibles también pueden emplearse como dispositivos de entrada si contienen información que el usuario informático desea utilizar y procesar. También pueden utilizarse como dispositivos de salida si el usuario quiere almacenar en ellos los resultados de su computadora.

El disco es en informática una pieza redonda y plana de plástico flexible (disquete) o de metal rígido (disco duro) revestida con un material magnético que puede ser influido eléctricamente para contener información grabada en forma digital (binaria). En el caso de un disquete, la cabeza de lectura y escritura roza la superficie del disco, mientras que en un disco duro las cabezas nunca llegan a tocar la superficie.

El disco compacto o CD es un sistema de almacenamiento de información en el que la superficie del disco está recubierta de un material que refleja la luz. La grabación de los datos se realiza creando agujeros microscópicos que dispersan la luz (pits) alternándolos con zonas que sí la reflejan (lands). Se utiliza un rayo láser y un fotodiodo para leer esta información. Su capacidad de almacenamiento es de unos 600 Mb de información (equivalente a unos 70 minutos de sonido grabado).

Los principales estándares utilizados para almacenar la información en este tipo de discos son el CD-ROM, CD-R o WORM, CD-DA

Conexiones del hardware

Para funcionar, el hardware necesita unas conexiones materiales que permitan a los componentes comunicarse entre sí e interaccionar. Un bus constituye un sistema común interconectado, compuesto por un grupo de cables o circuitos que coordina y transporta información entre las partes internas de la computadora. El bus de una computadora consta de dos canales: uno que la CPU emplea para localizar datos, llamado bus de direcciones, y otro que se utiliza para enviar datos a una dirección determinada, llamado bus de datos. Un bus se caracteriza por dos propiedades: la cantidad de información que puede manipular simultáneamente (la llamada 'anchura de bus') y la rapidez con que puede transferir dichos datos.

Una conexión en serie es un cable o grupo de cables utilizado para transferir información entre la CPU y un dispositivo externo como un mouse, un teclado, un módem, un digitalizador y algunos tipos de impresora. Este tipo de conexión sólo transfiere un dato de cada vez, por lo que resulta lento. La ventaja de una conexión en serie es que resulta eficaz a distancias largas.

Una conexión en paralelo utiliza varios grupos de cables para transferir simultáneamente más de un bloque de información. La mayoría de los digitalizadores e impresoras emplean este tipo de conexión. Las conexiones en paralelo son mucho más rápidas que las conexiones en serie, pero están limitadas a distancias menores de 3 m entre la CPU y el dispositivo externo.

DEFINICIÓN DE SOFTWARE

Software, programas de computadoras. Son las instrucciones responsables de que el hardware (la máquina) realice su tarea. Como concepto general, el software puede dividirse en varias categorías basadas en el tipo de trabajo realizado. Las dos categorías primarias de software son

software del sistema, son los sistemas operativos, que controlan los trabajos del ordenador o computadora, y el software de aplicación, que dirige las distintas tareas para las que se utilizan las computadoras. Por lo tanto, el software del sistema procesa tareas tan esenciales, aunque a menudo invisibles, como el mantenimiento de los archivos del disco y la administración de la pantalla, mientras que el software de aplicación lleva a cabo tareas de tratamiento de textos, gestión de bases de datos y similares.

Constituyen dos categorías separadas el software de red, que permite comunicarse a grupos de usuarios, y el software de lenguaje utilizado para escribir programas (véase Lenguaje de programación).

Además de estas categorías basadas en tareas, varios tipos de software se describen basándose en su método de distribución. Entre estos se encuentran los así llamados “programas enlatados”, el software desarrollado por compañías y vendido principalmente por distribuidores, el freeware y software de dominio público, que se ofrece sin costo alguno (ejemplo: Linux), el shareware, que es similar al freeware, pero suele conllevar una pequeña tasa a pagar por los usuarios que lo utilicen profesionalmente y, por último, el infame vapourware, que es software que no llega a presentarse o que aparece mucho después de lo prometido.

En resumen, el soporte lógico o software, en cambio, es el conjunto de instrucciones que un ordenador emplea para manipular datos: por ejemplo, un procesador de textos o un videojuego. Estos programas suelen almacenarse y transferirse a la CPU a través del hardware de la computadora. El software también rige la forma en que se utiliza el hardware, como por ejemplo la forma de recuperar información de un dispositivo de almacenamiento. La interacción entre el hardware de entrada y de salida es controlada por un software llamado BIOS (siglas en inglés de 'sistema básico de entrada / salida').

Aunque, técnicamente, los microprocesadores todavía se consideran

hardware, partes de su función también están asociadas con el software.

Como los microprocesadores tienen tanto aspectos de hardware como de software, a veces se les aplica el término intermedio de microprogramación, o firmware.

DEFINICIÓN DE DATOS

Los datos son los objetos de información sobre los que actúa un programa. Un dato puede ser un simple carácter como 'a', un valor entero tal como 35, un número real tal como 2.345 o una cadena tal como "algoritmia".

A nivel máquina los datos se representan internamente como una secuencia de bits (dígitos 0 y 1). Los lenguajes de alto nivel evitan estos manejos internos mediante el concepto de tipo de dato. En la mayoría de los lenguajes de programación los tipos de datos simples o primitivos se pueden clasificar como:

Enteros: (dato numérico sin componente decimal y puede ser positivo o

negativo).

Reales: (dato numérico con componente decimal y puede ser positivo

o negativo).

Carácter: (un sólo carácter)

Booleanos: (verdadero o falso)

DEFINICIÓN DE PROGRAMA

El conjunto de instrucciones y datos que recibe la máquina, para aceptar, almacenar, ejecutar y conseguir unos resultados, se denomina programa.

Para la elaboración de un programa se suelen seguir tres fases:

Análisis del problema. Debe estudiarse en profundidad el problema que hay que resolver y el ámbito al que ha de aplicarse.

Construcción de su algoritmo. Un algoritmo debe representarla secuencia de pasos que deben seguir para resolver el problema.

Codificación. Las instrucciones deben introducirse en la máquina en un “lenguaje” que ésta pueda admitir. Los lenguajes pueden agruparse en tres categorias:

Máquina, que consiste en una serie de combinaciones binarias o bits.

Bajo nivel, es un lenguaje en el que se utilizan códigos simbólicos para representar combinaciones binarias.

Alto nivel, son más cercanos a los lenguajes humanos y emplean códigos. No pueden ser ejecutados por el ordenador, por lo que necesita traducciones o interpretaciones denominadas compilaciones.

Otra definición de Programa: Instrucciones que varían según el lenguaje que se utiliza, pero cuyo fin es el de controlar las acciones que tiene que llevar a cabo el ordenador y sus periféricos.

SISTEMA INFORMÁTICO

Se debe considerar un sistema de computación e información como el conjunto de componentes físicos (hardware), lógicos (software), de comunicación (bien redes de cualquier tipo o tipo Internet) y medios humanos (lo que ahora llaman orgware), todo ello unido permite el tratamiento de la información.

Aunque con tener los componentes físicos y lógicos ya lo consideramos sistema informático, no tiene por qué haber comunicación, ya que una única estación puede formar un sistema informático.

Aunque un sistema de información, según la definición anterior, es practicamente, un sistema informático, he aquí otra definición:

Se denomina sistema informático al conjunto de elementos necesarios para la realización y utilización de aplicaciones informáticas, entendiendo por aplicaciones informáticas a la agrupación de programas de ordenador cuyo fin es la ejecución de un trabajo.

Elementos constitutivos de un sistema informático.

Son tres, parte física, parte lógica y personal informático.

La parte física la constituyen todos los elementos materiales que se emplean en el tratamiento automático de la informaciones decir el HARDWARE. La parte lógica la constituyen el conjunto de órdenes que controlan el trabajo que realiza el ordenador, en general el SOFTWARE. El personal informático son las personas encargadas de controlar y manejar las máquinas, es decir no sólo el usuario.

Ejemplo gráfico de un sistema informático:

Informática como ciencia

HISTORIA DE LA INFORMATICA

Máquina diferencial de Babbage

Considerada por muchos como predecesora directa de los modernos dispositivos de cálculo, la máquina diferencial era capaz de calcular tablas matemáticas. Este corte transversal muestra una pequeña parte de la ingeniosa máquina diseñada por el matemático británico Charles Babbage en la década de 1820. Si hubiera contado con la financiación adecuada, la idea que Babbage tuvo más tarde de construir la máquina analítica, hubiese llegado a ser una auténtica computadora programable. Las circunstancias quisieron que ninguna de las máquinas pudieran construirse durante su vida, aunque esta posibilidad estaba dentro de la capacidad tecnológica de la época. En 1991, un equipo del Museo de las Ciencias de Londres consiguió construir una máquina diferencial Nº 2 totalmente funcional, siguiendo los dibujos y especificaciones de Babbage.

LA HISTORIA DE LA INFORMATICA

Generalidades en la historia de los ordenadores

La base fundamental de la evolución de los ordenadores digitales ha sido el desarrollo de los componentes que forman su memoria y unidades de cálculo.

Los ordenadores digitales, que son normalmente de uso general, trabajan directamente con los datos numéricos, representándolos por medidas de variables discretas, como son los impulsos eléctricos, los dientes de una rueda dentada, etc.

Los ordenadores analógicos, dedicados a problemas específicos, trabajan con los números, transformándolos mediante escalas en medidas de variables continuas, como son longitudes, corrientes, fuerzas magnéticas, etc.

Para aprovechar la rapidez del ordenador analógico y la precisión del digital, según los cálculos requieran una u otra característica, se han construido ordenadores «híbridos» de los dos tipos anteriores.

Con este criterio se habla de cinco generaciones, hasta el momento presente, en la historia del ordenador.

-Primera generación:

Se la suele situar cronológicamente entre 1950 y 1960. Es la etapa de las empresas iniciales del mundo informático, Remington Road (UNIVAC) e IBM, que no venden sino que alquilan los ordenadores, tales son los elevados costes que comportan. Es la generación de las válvulas de vacío, con un soporte de programas muy rudimentarios escritos en código máquina.

En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.

Esta generación abarco la década de los cincuenta, como dijimos anteriormente. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:

· Estas máquinas estaban construidas por medio de tubos de vacío.

· Eran programadas en lenguaje de máquina.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).

En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos.

En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines).

Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.

Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.

Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.

-Segunda generación:

La invención del transistor por W. Shockley va a marcar la diferencia con la primera generación; a principios de 1960 salen al mercado los primeros ordenadores transistorizados. En esta generación, que cubre de 1960 a 1964, además de la sustitución de las válvulas de vacío por transistores, tiene lugar la ampliación de las memorias internas, la generalización del concepto de arquitectura modificable, se usan periféricos de gran masa de memoria como los tambores y discos magnéticos y se reduce el tamaño de los ordenadores. Aparecen los lenguajes ensambladores que traducen las instrucciones del código máquina, llegando a generar ya lenguajes de alto nivel como FORTRAN, COBOL y ALGOL.

Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.

Las características de la segunda generación son las siguientes:

· Están construidas con circuitos de transistores.

· Se programan en nuevos lenguajes llamados lenguajes de alto nivel.

En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas “programar” (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, “corriendo” el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran.

Además, para no perder el “programa” resultante había que “guardarlo” (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario.

El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema “constante” es que ninguna solución para el uso de los programas es “constante”. Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC.

Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.

La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.

-Tercera generación:

Abarca aproximadamente la década 1964-1974; se progresa considerablemente en la reducción de tamaño y aumento de la velocidad de cálculo, mediante la implementación de diferentes tecnologías de integración de transistores y otros circuitos de estado sólido. Se avanza mucho en software, desarrollando más lenguajes de alto nivel (PL1, BASIC, RPG, APL) y sistemas operativos, se inicia la programación estructurada, se construyen potentes compiladores e intérpretes, se generaliza el uso en las empresas de paquetes de software, bibliotecas de programas y bases de datos; aparecen las técnicas de tiempo compartido y la multiprogramación. Se generalizan los periféricos en la arquitectura de los ordenadores, dotando a los sistemas informáticos de una gran modularidad; se hace uso del teleproceso, de discos flexibles y de lectoras ópticas.

En este momento es cuando se estructura el mercado de ordenadores constituyéndose las compañías que llegan hasta nuestros días: IBM, Control Data, Nixdorf, Philips, ICL, Bull, Bourroughs (hoy Unisys), NCR, Siemens, Fujitsu, etc.

Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3

Las características de esta generación fueron las siguientes:

· Su fabricación electrónica esta basada en circuitos integrados.

· Su manejo es por medio de los lenguajes de control de los sistemas operativos.

La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).

El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.

En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.

En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.

A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.

A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compaía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.

-Cuarta generación:

Mediante las técnicas de integración a gran escala se produce la revolución del microprocesador; el tamaño de los ordenadores se reduce a una décima parte con respecto a los de la anterior generación, se alcanzan velocidades multiplicadas por factores de 10, 50 y hasta 100, y se llegan a grandes masas de memoria en reducidísimos tamaños; todo ello gracias a la tecnología LSI (gran escala de integración).

En Silicon Valley, INTEL Corporation produce el primer microprocesador, es decir, un ”chip”, una pieza única de tamaño muy reducido que contiene miles de componentes electrónicos y que pueden realizar cualquier tarea lógica constituyéndose en la unidad central de proceso de un ordenador; inmediatamente después salen al mercado los microprocesadores Z-80, 6800 de Motorola y otros.

Basándose en los microprocesadores, aparecieron los ordenadores de uso personal: en el número de enero de 1975 de la revista «Popular Electronics» aparecía la descripción de un ordenador que podía comprarse sin armar por 395 $ o que podía obtenerse armado por 650 $; se llamaba «Altair 8800» y estaba basado en el microprocesador 8080 fabricado por la empresa Intel. Su diseñador y constructor era Edward Roberts que fundó una pequeña compañía instalada en un garaje de una casa de Alburquerque, Nuevo México. Roberts se quedó sorprendido del éxito pues sólo esperaba vender unos cientos de Altair y recibió miles de peticiones que no podía atender.

Otro éxito espectacular en la historia de los negocios en los EE.UU. es la empresa Apple. Poco después de la aparición de Altair dos amigos apasionados por la electrónica, Stephen Wozniak y Steven Jobs, de 25 y 20 años respectivamente, fundaban Apple Computers Company con el exiguo presupuesto que provenía de la venta de un coche y de una calculadora programable y de un pequeño crédito; fabricaron un ordenador del que vendieron unas 175 unidades a unos 500 $ cada una, a pesar de que era un aparato de muy difícil uso pues no tenía teclado ni terminales. En 1977 lanzaron el modelo Apple II que constituyó un rotundo éxito; a finales de 1983 alcanzaron un volumen de ventas de mil millones de dólares.

En 1981, IBM lanzaba con mucho retraso y mucha cautela, un ordenador personal, el PC (Personal Computer), del cual ese año vendieron ya 35 000 unidades y en 1983, 800 000, situándose en el primer lugar de las ventas de microordenadores para empresa.

En estos últimos años han aparecido continuamente nuevas máquinas y casi todas las grandes empresas de material electrónico, material de oficina o calculadoras, americanas, europeas o japonesas están tratando de hacerse un hueco en este floreciente pero difícil mercado (muchas empresas de Silicon Valley y otros parques tecnológicos han quebrado por la dura competencia en el sector de las tecnologías de vanguardia).

Al mismo tiempo que se producía este gran desarrollo de los PC's, se profundizaba en la investigación de los grandes ordenadores y de los superordenadores, como el CRAY-1, diseñado por Seymour R. Cray, que tiene una memoria interna superior a los 8 megabytes y realiza 200 . 106 operaciones por segundo; el CRAY llega a manejar en ampliaciones de memoria hasta 20 gigabytes. Otros superordenadores son el FALCOM, japonés y el Numerical Aerodinamic Simulation Facility.

-Quinta generación:

Hoy día existen múltiples proyectos de investigación y experiencias ya realizadas o en curso de realización en el terreno de la Inteligencia Artificial (IA) y de los Sistemas Expertos.

Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada “revolución informática”.

En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.

En 1981 se vendieron 80 000 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.

Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).

No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.

Japón lanzó en 1983 el llamado “programa de la quinta generación de computadoras”, con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera, características:

· Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.

· Manejo de lenguaje natural y sistemas de inteligencia artificial.

El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.

EVOLUCIÓN FUTURA

Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.

Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.

Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir, hasta cierto punto, las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes. Las computadoras moleculares podrían llegar a resolver problemas complicados mucho más rápidamente que las actuales supercomputadoras y consumir mucha menos energía.

Una noticia al respecto publicada el 22/11/2001 es la siguiente:

Crean un ordenador minúsculo con moléculas de ADN y enzimas naturales Un grupo de científicos, dirigidos por investigadores del Instituto Weizzmann de Ciencias de Israel, ha empleado moléculas biológicas para crear un ordenador enano en una probeta de laboratorio, según publica esta semana la última edición de la revista "Nature". El 'nanoordenador' biológico --cuyo funcionamiento es parecido al de una célula humana y contiene ADN y enzimas naturales--, es tan pequeño que un billón de ordenadores del mismo tamaño pueden coexistir y computar en paralelo en una décima parte de un milímetro.


Otro de los campos de futuro de la informática es la telefonía móvil.

En el siguiente artículo se presenta un nuevo teléfono con cámara digital.

Fecha Noticia: 22/11/2001

Nokia presenta teléfono con cámara digital El Nokia 7650 incluye una cámara digital integrada con resolución VGA, captura y envío de imágenes, un álbum de fotos para almacenar fotografías y una pantalla a color de 176x208. El nuevo terminal incluye conexiones GPRS y HSCSD, WAP, Bluetooth y conectividad por infrarrojos, correo electrónico y MIDP Java.

Impacto social

Aunque la interacción informática todavía está en su infancia, ha cambiado espectacularmente el mundo en que vivimos, eliminando las barreras del tiempo y la distancia y permitiendo a la gente compartir información y trabajar en colaboración. El avance hacia la 'superautopista de la información' continuará a un ritmo cada vez más rápido. El contenido disponible crecerá rápidamente, lo que hará más fácil encontrar cualquier información en Internet. Las nuevas aplicaciones permitirán realizar transacciones económicas de forma segura y proporcionarán nuevas oportunidades para el comercio. Las nuevas tecnologías aumentarán la velocidad de transferencia de información, lo que hará posible la transferencia directa de 'ocio a la carta'. Es posible que las actuales transmisiones de televisión generales se vean sustituidas por transmisiones específicas en las que cada hogar reciba una señal especialmente diseñada para los gustos de sus miembros, para que puedan ver lo que quieran en el momento que quieran, por lo que el entretenimiento y ocio van a ser otros campos inportantes en el futuro de la informática. (ejm: videojuegos)

El crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a la censura. El aumento de las páginas de Web que contenían textos y gráficos en los que se denigraba a una minoría, se fomentaba el racismo o se exponía material pornográfico llevó a pedir que los suministradores de Internet cumplieran voluntariamente unos determinados criterios. En 1996 se aprobó en Estados Unidos la Ley para la Decencia en las Comunicaciones, que convirtió en delito el que un suministrador de servicios transmitiera material indecente a través de Internet. La decisión provocó inmediatamente una reacción indignada de usuarios, expertos del sector y grupos en favor de las libertades civiles, que se oponían a ese tipo de censuras. La ley fue impugnada y posteriormente suspendida en junio de 1996 por un comité de jueces federales. El comité describió Internet como una conversación planetaria continua que merecía la máxima protección frente a la injerencia gubernamental. Probablemente, la decisión del comité será recurrida ante el Tribunal Supremo de Estados Unidos.

Futuro de los Sistemas Operativos

Futuro Próximo

· Principal tendencia:

Los sistemas operativos siguen evolucionando. La principal tendencia de los sistemas operativos en cuanto a organización de trabajo es convertirse en sistemas operativos distribuidos.

Los sistemas operativos distribuidos están diseñados para su uso en un grupo de computadoras conectadas pero independientes que comparten recursos. En un sistema operativo distribuido, un proceso puede ejecutarse en cualquier computadora de la red (normalmente, una computadora inactiva en ese momento) para aumentar el rendimiento de ese proceso. En los sistemas distribuidos, todas las funciones básicas de un sistema operativo, como mantener los sistemas de archivos, garantizar un comportamiento razonable y recuperar datos en caso de fallos parciales, resultan más complejas.

No hay que confundir un Sistema Operativo de Red con un Sistema Operativo Distribuido. En un Sistema Operativo de Red las computadoras están interconectadas por medios de comunicación: software y hardware. En este tipo de red los usuarios saben donde están ejecutando su trabajo y guardando su información. En cambio en los Sistemas Operativos Distribuidos existe un software que distribuye las tareas de los usuarios sobre una red de computadoras y para los usuarios es transparente donde realizan sus tareas y guardan su información.

· El Sistema Operativo del Mañana:

Se ha progresado mucho en el desarrollo de los sistemas operativos. Estos progresos han sido paralelos a la aparición de nuevas tecnologías y de nuevos algoritmos para las tareas de los sistemas operativos.

Actualmente, hay solamente dos paradigmas fundamentales del sistema operativo: el intérprete de la línea de comando (UNIX, DOS), y la interfaz gráfica (Macintosh OS, OS/2, Windows 95). Mientras que el último es claramente más intuitivo y preferido por la mayoría de los usuarios, la industria debe ahora tomar otra medida hacia el sistema operativo ideal. La generación siguiente de sistemas operativos utilizará las nuevas herramientas desarrolladas tales como programación orientada a objetos (OOP), y nueva tecnología de hardware (DRAM's y los microprocesadores densos y baratos), para crear un ambiente que beneficie a los programadores (con modularidad y la abstracción crecientes) así como a los usuarios (proporcionándoles una interna, constante y gráficamente orientada interfaz). Los sistemas operativos futuros también se adaptarán fácilmente a las preferencias cambiantes del usuario y a las tecnologías futuras (tales como sistemas de realidad virtual).

· Principios en el desarrollo de Sistemas Operativos Futuros:

Existen cuatro principios dominantes que deben regir en el diseño de sistemas operativos futuros:

1.- Abstracción

El principio de la abstracción es que un nivel del ambiente de software no debe necesitar " saber " los detalles sobre la implementación en otros niveles. Por ejemplo, un Programador no debe requerir saber qué clase de procesador será usado cuando se ejecute su programa, y un usuario de correo-electrónico no debe requerir de conocimientos de los protocolos de red.

2. Robustez y gestión de errores

Los sistemas operativos futuros deben ser extremadamente robustos. Sus metas:

1) Ninguna acción del usuario debe hacer que el sistema comporte en una extraña o ilógica manera

2) Debe ser imposible que cualquier programa interrumpa el funcionamiento de otros programas, o de la máquina en su totalidad. Es decir sin importar las acciones y las decisiones del usuario y del programador, la computadora nunca debe "colapsarse ". Además, cualquier acontecimiento inesperado se debe manjar de una manera práctica. Los problemas que el sistema operativo no puede solucionar se deben señalar al usuario de una manera no-secreta (tales como un "cuadro de diálogo"), y se deben explicar de una manera no técnica (utilizar un lenguage dependiendo del módulo de programación).

3) El sistema debe enumerar claramente las opciones de las cuales el usuario debe elegir.

3.- Estandarización

Actualmente, hay numerosos sistemas operativos y sistemas de hardware que se comportan de varias maneras. Por lo tanto, la comunicación entre las máquinas de diferente arquitectura es difícil, y esta situación es confusa para cualquier usuario que procure cambiarse de una plataforma a otra. Esta confusión da lugar a un costo significativo debido a la capacitación y al tiempo perdido durante la transición y fase de aprendizaje.

Un sistema operativo bien diseñado debe ser estandardizado de una manera tal que se adapte y siga siendo útil indefinidamente. Debe crecer en a la par con la tecnología de cómputo, la visualización, y tecnologías de interacción, y preferencias del usuario. La naturaleza modular del sistema operativo del mañana será tal que piezas del sistema serán continuamente modificadas y puestas al día reflejar estos cambios. Para que estas características sean posibles, el sistema requerirá: 1) un conjunto muy bien definido de los estándares públicos disponibles (para la comunicación entre las capas y los objetos), 2) que este conjunto de estándares se desarrolle con un cierto plazo de tiempo pero que siga siendo claro y conciso, y 3) que los estándares no cambien tan rápidamente como para causar problemas de compatibilidad o altos costos de cambio de hardware.

4.- Diseño para facilidad de empleo y desarrollo de software

La mayoría de los sistemas operativos actuales fueron diseñados para ser fáciles de poner en ejecución. En contraste, los sistemas operativos de mañana serán diseñados para el uso fácil y el desarrollo fácil. El diseño será hecho con poco disminuciones en cuanto a su facilidad de implementación con excepción de su modularidad y estandardización inherentes. Debido a estos buenos principios del diseño, el sistema operativo del mañana no será difícilmente de implementar. Estas mismas cualidades facilitarán el trabajo de los programadores también, en cuanto a la mayoría de los proyectos de desarrollo necesitarán solamente ensamblar objetos de alto nivel. Esos módulos que deben escribir para sí mismos serán reutilizables y fácilmente adaptables a las necesidades de cada programador.

¿Qué es Rhapsody?

Es un sistema diseñado para ser el sistema operativo del futuro: rápido, moderno, altamente estable:

· Un poderoso entorno con multitareas, memoria protegida con integradas capacidades para el simétrico multiprocesamiento.

· Las ventajas del Mac OS junto con la integrada y madura tecnología de comunicaciones y una profunda integración de Java.

· La tecnología de QuickTime Media Layer será optimizada para Rhapsody, proveyendo a los usuarios con un rico y ventajoso entorno para la creación y reproducción de multimedia.

· Rhapsody combina la larga tradición de facilidad de uso y el real "plug and play" establecida por Apple, y el entorno kernel de NeXT. Preservará el familiar "míralo y siéntelo" de la actual interfase Mac OS.

· Un particular interés para eficientizar entornos de grandes corporativos, Rhapsody tendrá la tecnología de NeXT: "Objetos Orientados" y el desarrollo de herramientas para incrementar la productividad en aplicaciones.

· La parte medular de la arquitectura de Rhapsody es ser nativo al procesador PowerPC. Diseñado para usarse en la mayoría de aplicaciones del Mac OS también la mayoría de las extensiones del sistema trabajarán sin modificaciones. Esta compatibilidad será proveída en una implementación del Mac OS, que incluyen los procesadores 68K y los Power PC, no será una "emulación" para las 68K según ingenieros de Apple, se integrará un nuevo código que aprovechará al poderoso procesador PowerPC desarrollado por IBM, Motorola y Apple, que se encuentra ya en su cuarta generación a velocidades de 300 y 350 Mhz.

El proyecto integrado a Rhapsody referido como "Yellow Box" será enriquecido en las tecnologías lideres de Apple: QuickTime y ColorSync. Es importante resaltar que "Yellow Box" no será limitado a las aplicaciones PowerPC de Macintosh, sino que podrá tener como fuente aplicaciones en el standard de PC corriendo Windows.

Otro de los desarrollos de Rhapsody es un poderoso entorno de aplicaciones de "objetos orientados" iniciado por NeXT (la tecnología de objetos orientados es trabajar por unas llamadas "partes" que consiste en usar varios documentos de varias aplicaciones en uno solo, sin necesidad de tener la aplicación en que fueron creados).

Los ingenieros de Apple tienen planeado integrar estrechamente a Java en Rhapsody - con las librerías de Java y la Java Virtual Machine (VM) dando a Apple el liderazgo en el desarrollo de Java. Una moderna implementación de Mac, microkernel, desarrollado por la Universidad Carnegie Mellon es una nueva generación de entrada y salida de dispositivos (IO), administrador de archivos, intercambio entre aplicaciones y redes. Apple desarrolla un nuevo dispositivo que sustituirá al actual SCSI: el WireFire que transfiere 4MB por segundo.

Con la llegada de los nuevos Sistemas Operativos el hardware se aprovechará al máximo y se reducirá esa brecha tan grande de rapidez que existe entre el hardware y el software que lo controla. Con estos Sistemas Operativos se llegará a concretar lo que se llama la quinta generación de computadoras, la cual pretende multiplicar la velocidad, disponer procesamientos paralelos, diseñar una arquitectura de hardware-software muy superior y utilizar el lenguaje natural.

La renovación que aportarán los sistemas operativos es múltiple. Ya no viene determinada únicamente por la introducción de cambios material o de hardware, sino por la combinación de novedades en el material y en la programación.

El tipo de trabajo propio que realizarán el hardware y software de la quinta generación no solo en el tratamiento de datos, sino en la adquisición de información y, a partir de los materiales y estructuras de que dispone, en la elaboración de conocimientos, es decir, en la elaboración inteligente del saber. Es decir se anuncia el aprovechamiento de la computadora para adquirir conocimientos artificialmente, a través de las máquinas. A partir de esto, estas ya no solo aportarán fuerza o habilidad, sino que también proveerán al hombre de un conocimiento del mundo.

PERSONAJE: LINUS TORVALDS.

Linus Torvalds, el programador que vino del frío:


Linus Torvalds nació un (seguro que frío) 28 de diciembre de

1969 en Finlandia sin saber que iba a plantar la semilla de una revolución informática.

Se puede decir que nació hacker: ya en su primera adolescencia se entretenía programando en ensamblador un Commodore (una vieja computadora que aún cuenta con adeptos). El lenguaje ensamblador es como el Miura de la programación. Era cosa de pocos años que acabara estudiando en la Universidad de Tecnología de Helsinki.

En la primavera del 91, mientras estaba en la universidad, este finlandés de 21 años empezó a trabajar en el desarrollo de un kernel basado en el sistema operativo propietario UNIX para computadoras con microprocesadores de Intel. Una vez creado, lo puso a disposición del público a través de un servidor FTP de la universidad finlandesa.

Linux era el nick de Linus en la universidad, para evitar que le acusaran de egocéntrico, quiso llamar a su creación Freax (free+freak+x), pero el gestor del servidor decidió que le gustaba más el nombre de trabajo de su amigo y decidió usar Linux. El resto ya es historia.

Ahora tocan dos pequeñas lecciones, una diferenciación de términos importante. La palabra Linux se refiere técnicamente sólo al kernel o núcleo del sistema operativo: la parte que se carga primero y que permanece en la memoria principal (Main Memory), por lo que es importante que sea lo más pequeña posible, y que provee a la otras partes y aplicaciones del sistema operativo de diferentes servicios esenciales como la gestión de la memoria o el almacenamiento en disco.

Pero de nada sirve un kernel si no forma parte de un sistema operativo completo, y de poco vale un sistema operativo si no cuenta con nuevas aplicaciones y sobre todo nuevos drivers, una pieza de software imprescindible para poder emplear los periféricos (teclados, ratones, tarjetas de sonido...).

Linus pronto se sumó a la filosofía del proyecto GNU (GNU is Not Unix) de la Free Software Foundation, convirtiendo Linux en un producto de licencia GPL (Licencia Pública General), y consiguiendo que numerosos desarrollos ya existentes le arroparan y que muchos programadores generaran otros nuevos.

Es decir, lo que Linus desarrolló fue el corazón de los actuales sistemas operativos open source, que actualmente también se conocen por extensión con el nombre de Linux, pero que son obra del trabajo conjunto de miles de desarrolladores de todo el mundo.

Conviene señalar que, auque la aportación de Linus ha sido trascendental, este joven finlandés no ha hecho más que seguir los pasos y continuar las innovaciones y la filosofía de los que estuvieron antes que él.

Por ejemplo, Linus dio a luz a su kernel a raíz del OS MINIX, un sistema operativo basado en UNIX y extremadamente limitado, que escribió Andrew Tanenbaum, un profesor de informática alemán y especialista en diseño de sistemas operativos, en 1987 para ayudar a sus alumnos a entender un poco los entresijos de UNIX.

Cuando decidió que su creación se acogiera a la Licencia Pública General, estaba sumándose a la filosofía libertaria del software impulsada en los 80 por Richard Stallman, máximo responsable de GNU y defensor a ultranza del Free Software.

Remontándose algo más en el tiempo, también habría que recordar a Ken Thompson, Dennis Ritchie y Bill Joy, los programadores que desarrollaron UNIX en 1969 (el mismo año que vino Linus al mundo), en los míticos laboratorios de AT&T (AT&T's Bell Labs).

Una vez logrado su objetivo, Linus hizo público el código fuente a través de la GNU General Public License (GPL) e instó a todo el mundo a participar en el desarrollo de este sistema operativo y de diferentes aplicaciones para conseguir su verdadero reto: conseguir que toda la gente que lo desease pudiera tener una relación directa, con control y libertad absolutos, sobre sus computadoras.

Esta fue la proeza que convirtió a Linus Torvalds en una figura pública y en un estandarte viviente para muchos programadores: creer que los sistemas operativos debían ser completamente accesibles y gratis, y poner la primera piedra, la más trascendental, para conseguirlo. Pero él siempre ha afirmado vehementemente que todo vino rodado, que no pretendía hacer lo que hizo. De hecho, Linus no quería crear un kernel, sino solventar un problema que le ocupaba por entonces: conseguir un programa que le diera acceso a los grupos de noticias Usenet.

Linus es para los programadores lo que Búfalo Bill o Billy el Niño para los pistoleros: el mejor entre iguales y un ejemplo a seguir. Un individuo capaz de resolver en pocas semanas problemas que requerían meses a un equipo entero de profesionales. Si no se tuerce en los muchos años que le quedan por delante (no hay que olvidar que apenas tiene 30 años), es indudable que se convertirá en un ser legendario en la historia de la informática.

Eso sí, a menos que cambien mucho las cosas, Linus nunca estará en la lista de los hombres más ricos del mundo. Es un programador, un hacker, e indudablemente un hombre muy brillante, pero no es un directivo. Durante años trabajó en la universidad de Helsinki, dedicando todo el tiempo que podía a Linux, y desde 1996 trabaja como ingeniero de software en Transmeta, una compañía californiana creada en 1995 y participada en gran parte por el cofundador de Microsoft Paul Allen y la fundación George Soros. Su proyecto es el Crusoe, un secreto muy bien guardado durante meses que se desveló el pasado enero: un versátil microprocesador extremadamente compatible y de muy bajo consumo.

Informática como ciencia

Linus, bajo el logo de Crusoe, junto a otros ingenieros de Transmeta

Linus combina su trabajo en Transmeta con el desarrollo de nuevas versiones del kernel secundado por un equipo de selectos lugartenientes. El año 2001 ha alumbrado la versión 2.4 de Linux.

Ni la universidad, ni su trabajo en Transmeta, por muy bien remunerado que esté, le dan el dinero suficiente como para codearse con Bill Gates y Lary Ellison en la lista de la revista Fortune. Tampoco parece preocuparle, él mismo ha reconocido en ocasiones que, aunque aprecia tener dinero, no es su principal meta en la vida.

Actualmente el finlandés más famoso del mundo vive en Santa Clara, California con su mujer y sus tres hijas: Patricia Miranda, Daniela y Amanda. ¿Y qué aficiones tiene que no tengan nada que ver con las computadoras? Pues parece que el discreto y pragmático Linus disfruta bebiendo cerveza Guiness con los amigos y practicando el tiro (sí, con pistolas) de vez en cuando.

Por último, y por si alguien desea contactar con él, su correo electrónico es: torvalds@transmeta.com

MÁS DE LINUS:

Linus Torvalds es un joven programador finlandés de 28 años que ha inventado un sistema operativo -las tripas que permiten que un ordenador funcione- que está revolucionando la industria. La prestigiosa revista económica estadounidense Forbes dedica su portada a Torvalds y a otros rebeldes del software.

Hace siete años, el finlandés desarrolló un nuevo sistema operativo. Anunció su hallazgo por Internet, avisando de que era totalmente gratuito. Otros programadores propusieron mejoras en el sistema y se las enviaron al extravagante personaje.

Había nacido el programa Linux, totalmente disponible para cualquiera que lo deseara; totalmente adaptable a las necesidades de cada usuario en particular; y totalmente democrático. Siete años después, el Linux ha crecido exponencialmente, lo mismo que el número de usuarios.

Torvalds escribió 50.000 líneas de este código. Hoy son al menos un millón, aportadas por infinidad de amantes voluntarios de la programación. A la mayoría de ellos Torvalds ni siquiera los conoce físicamente.

Como publicaba recientemente el diario francés Libération, un grupo de expertos -informal, por supuesto- se ocupa de acoplar los añadidos considerados dignos de ser integrados en el conjunto, evitando las versiones divergentes. Y todas estas aportaciones pasan automáticamente a disposición de los usuarios del Linux.

¿Y cuánto se paga a estos programadores? Lo mismo que a Torvalds, cero pesetas. Lo hacen, como el pionero, por amor al arte, por "ganarse el reconocimiento de tus colegas. Esto es fundamental para cualquier ser humano", Torvalds dixit.

Este método cooperativo de funcionamiento permite, además, que el Linux esté continuamente avanzando, actualizándose a tiempo real. No hay que esperar de uno a tres años para poder acceder a la nueva versión, como ocurre con el sistema Windows de Microsoft.

Hay quien se puede preguntar si el Linux no es más que un producto mediocre, creado por un aluvión desordenado y disperso de aficionados. En definitiva, sin futuro, de peor calidad que estándares comerciales como el Windows.

Informática como ciencia
Informática como ciencia
Torvalds resolvía estas dudas en una entrevista reciente: "No puedo decir que me guste Microsoft. Creo que hacen sistemas operativos realmente malos".

Viniendo de quien viene, podría tacharse el mensaje de parcial si no estuviera avalado por los expertos, que describen el Linux como un sistema elegante y bien concebido, a mil leguas del de su competidor.

El citado reportaje publicado por Forbes comienza describiendo a Torvalds como miembro de una banda de rebeldes que piensa que "los secretos del software deberían ser tan libres como el aire que respiramos". La revista desaconseja la venta de acciones de Microsoft por el momento, pero también que no se subestime a aquéllos.

La “pinza”:

Y es que se da la paradoja de que Bill Gates es víctima de una pinza: por un lado, las autoridades estadounidenses lo acusan de monopolista e intentan desbancar a Microsoft de su posición de privilegio en el mercado; por otro, el sofware libre, el freeware de Torvalds y compañía, amenaza con reducir a cenizas ese supuesto monopolio o, como mínimo, con recortar considerablemente la rentabilidad del gigante. Hoy ya son siete millones los usuarios de Linux.

El artista frente al negociante:

La página de Linus Torvalds en Internet es un canto al surrealismo.

El texto es un despropósito lleno de ironía, y acompañándolo aparecen dos fotografías de Patricia Miranda Torvalds, su hija, y una reproducción del logotipo de Linux: un pingüino.

A Torvalds no le gusta madrugar. Tiene una barriga incipiente y es la antítesis de Bill Gates. Nada de palacios, nada de grandes coches, ni hablar de aviones privados.

Hace poco más de un año, una vez concluidos los estudios, abandonó su país natal acompañado de su familia y sus dos gatos y cruzó el charco. ¿Destino? Silicon Valley; más concretamente, lo contrató la empresa Transmeta, dedicada al desarrollo de una nueva generación de ratones para los PC multimedia. Según declaró al diario Libération: "El dinero no me ha traído aquí, sino la mentalidad, propicia a la creación y a la innovación. Y, además, el clima".

Un detalle: Paul Allen, cofundador junto con Bill Gates de Microsoft, tiene una participación en Transmeta.

1

33