Informática: vertientes de aplicación

Historia de la Inofrmática. Ofimática. Aplicaciones educativas

  • Enviado por: Pablo Cabrera Calandria
  • Idioma: castellano
  • País: España España
  • 10 páginas

publicidad
publicidad

¿Qué es la informática?

Es la ciencia del tratamiento automático y racional de la información considerada como el soporte de los conocimientos y las comunicaciones.

Introducción.-

La informática no es una ciencia por sí misma, sino una disciplina que se basa en diversas ciencias y técnicas: matemáticas, lógica, física, electrónica, etc. La búsqueda de la automatización del proceso de cálculo, que está en el origen de la informática, es una larga historia. Cuando existieron un conjunto de técnicas indispensables, esta automatización fue realizable y, de una forma más general, fue posible el tratamiento automático de la información había nacido la informática.

Las primeras generaciones informáticas.-

Los antecedentes de los ordenadores digitales se encuentran en todas las máquinas y, especialmente, en los calculadores, que son aquellos aparatos destinados a realizar operaciones con variables discretas, basada en la lógica binaria, y de propósito particular.

En los años 20 y 30 se construyeron máquinas analógicas, que realizan operaciones por analogía a una determinada ley física y que trabajan con variables continuas. Las más conocidas son un simulador de circuitos, construidos por General Electric, y el analizador diferencial de Vanner Bush; son los antecedentes de los ordenadores analógicos.

En 1940, George Stibitz, constructor de un sumador binario, hace funcionar en Estados Unidos el Complex Calculator, que opera en binario y dispone de una entrada de datos conectada al teletipo. En la misma época, en Alemania, Konrad Zuse en 1941, denominado Z3; destruido en los bombardeos aliados en 1944. Era más rápido y de menor tamaño que su equivalente, y posterior, el Mark I de Howard Aiken. A pesar de todo, Zuse siguió trabajando en una versión electrónica y en 1945 terminó el Z4, un verdadero ordenador electrónico.

A partir de 1939 Howard Aiken y un equipo de colaboradores desarrollan un ambicioso proyecto, gracias a la subvención económica de IBM, que desemboca en la construcción en 1944 del MarkI o Automatic Sequence Controlled Calaculator (ASSC). Este calculador automático de secuencia controlada, constaba de unas 750.000 ruedas y más de 800 km. de cables; invertía 0,3 segundos en una suma o en una resta, 5 segundos en una multiplicación y 10 en una división. En el mundo Anglosajón al Mark I se le considera el primer ordenador electromecánico; le siguieron otros modelos más evolucionados denominados Mark II, III y IV.

En Estados Unidos, en la Universidad de Pensilvania, pusieron a punto en 1946 el primer calculador digital de propósito general; es decir, lo que actualmente conocemos como computador u ordenador digital. Se le conoce con el nombre de ENIAC (Electronic Numerical Integrator And Calculator) y fue diseñado por Joohn Presper Eckert y John W. Mauchly para resolver cálculos relativos a problemas militares de trayectorias en lanzamiento de proyectiles. Calculaba unas 500 veces más rápido que las máquinas anteriores, pero empleaba unos 18.000 tubos de vacío, ocupaba 140 m2 y gastaba unos 175 KW.

Con la incorporación de las teorías de Johannes von Newman, que propuso almacenar los programas, se experimentó un impulso que culminó en la construcción de nuevas máquinas en Reino Unido y Estados Unidos.

A partir de entonces, los progresos se sucedieron de forma ininterrumpida hasta la consecución del UNIVAC (Universal Automatic Computer), surgiendo en 1951 el primer ordenador comercial: el UNIVAC 1. Disponía de un procesador síncrono, memoria de mercurio y soportes de cinta magnéticas.

Un poco más tarde aparece el IBM 701, ordenador científico, que disponía de memoria electrostática y soporte de tambores y cintas magnéticas. Su predecesor fue el 704, que tenía memoria de núcleos magnéticos (ferritas) y operaba en un lenguaje creado para él: el FORTRAN.

Un cambio sustancial se produjo en 1958, que algunos llaman segunda generación, al sustituirse los tubos de vacío por transistores y la implantación definitiva de las memorias de ferritas. Las ventajas son múltiples: menor tamaño, precio y consumo, duración prácticamente ilimitada y velocidad operativa medida en microsegundos.

La tercera generación surge a partir de 1965, basada en la incorporación de los circuitos integrados, que son microcircuitos capaces de realizar las funciones de cientos de transistores. Las dimensiones de los ordenadores disminuyen, la velocidad de proceso se empieza a medir en manosegundos, aumenta la fiabilidad y poseen mayor flexibilidad para adaptar nuevas técnicas.

Con esta generación se desarrollan periféricos más efectivos, terminales remotos, adaptadores industriales y sistemas operativos más potentes. Se desarrollan otros lenguajes de programación, llamados universales, como el COBOL ANS, PL/1 BASIC y PASCAL.

A partir de 1970, la clasificación en generaciones es diferente según el criterio que sigamos. Lo que si está claro que en estas fechas aparecen los denominados miniordenadores, que incorporan circuitos integrados a media escala, de una potencia comparable a muchos de los llamados de tercera generación.

La aparición de los circuitos integrados a gran escala, dio paso a la construcción del microprocesador . Los primeros funcionaban con 4 bits (1971) e integraban unos 2.300 transistores; rápidamente se pasó a los de 8 bits (1974) y se integraban hasta 8.000 transistores. Posteriormente aparecieron los microprocesadores de circuitos integrados VLSI (Very Large Scale Integration).

El empleo de microprocesadores da lugar a los microordenadores en 1978, que originan una verdadera revolución por la generalización de su uso. A partir de 1980 ha aparecido un inmenso grupo de microordenadores personales (PC) que utilizan microprocesadores de 16 y 32 bits.

Otra necesidad paralela es la presencia de superordenadores, que a partir de los años setenta empiezan a resolver proyectos muy específicos y que trabajan con varios procesadores.

APLICACIONES DE LA INFORMÁTICA EN LA ENSEÑANZA.-

Las primeras aplicaciones del ordenador a la didáctica se realizaron en Estados Unidos a finales de los años 50. Además de los propios programas desarrollados por los fabricantes para adiestrar en el empleo de estas máquinas, algunas universidades y escuelas realizaron innumerables experiencias para informar sobre temas concretos y evaluar los progresos realizados. Las limitaciones eran muchas, las más destacadas son el alto coste y la escasa flexibilidad.

En los 60 se empezaron a experimentar centros de estudios para la Enseñanza Asistida por Ordenador (EAO), de acuerdo con las técnicas de la educación programada por Skiner y Crowder.

Francia fue l primera nación europea en introducir el ordenador como instrumento didáctico en la enseñanza.

En Inglaterra, desde 1973, existe el programa Nacional Develpoment Programme in Computer Assisted Learning que abarca desde los niveles superiores a los iniciales.

En Alemania las escuelas reciben ayudas locales o estatales para potenciar la enseñanza de la informática técnica.

En España, solamente a partir de los 80, se ha empezado a introducir la enseñanza programada por el ordenador. La 1ª Universidad que utilizó la informática para la didáctica es la Universidad Nacional de Educación a Distancia (UNED).

  • Creación.

El desarrollo de las facultades creativas y de las técnicas de creación puede potenciarse con relativa facilidad con el uso de la informática. Por ejemplo:

  • La composición de documentos, redacciones, cartas comerciales, etc., resulta más instructiva con la ayuda de los procesadores de textos.

  • La consulta de datos, será mucho más cómoda si se accede a archivos o bases de datos.

  • La simulación de teorías, fórmulas, etc., es más fácil con la utilización de las hojas de cálculos.

  • La representación de funciones, maquinaria, etc., resulta más rápida con la utilización de gráficos.

  • Comunicación.

En la época de las comunicaciones la informática es una herramienta más. Presenta las siguientes ventajas:

  • Las asignaturas que utilizan el ordenador son mejor acogidas por los alumnos.

  • La informática motiva al alumno.

  • Se comunican los conceptos con más facilidad.

  • La información cultural es más accesible.

  • La forma de trabajo del ordenador, individualizada, puede mejorar la adaptación a ritmos de trabajos.

IMPLICACIONES DE LA INFORMÁTICA EN EL MUNDO LABORAL.-

El ordenador libera al hombre de las labores rutinarias, pero existe una razón más poderosa para su rápida implantación en el mundo laboral su productividad.

  • OFIMÁTICA.

  • La parte de la informática que se dedica a resolver los problemas de automatización de las oficinas se conoce con el nombre de ofimática.

    Los primeros pasos se realizaron utilizando configuraciones centralizadas, un ordenador daba servicio a varias terminales, que sólo servían para introducir datos o tareas muy concretas. En la actualidad se está generalizando el uso de la información distribuida, es decir, los terminales también tienen capacidad de proceso, son los llamdados terminales <<inteligentes>>.

    La automatización de las oficinas se ha implantado debido a las siguientes razones:

    • Se utiliza diariamente una gran cantidad de documentación.

    • Se necesita controlar tanto las tareas realizadas como las pendientes de efectuar.

    • La obligación de creciente de realizar formularios legales.

    • La documentación queda recogida en un espacio menor.

    • Las modificaciones y cálculos son más sencillos.

    • La necesidad de agilizar la gestión

    • La aparición de aplicaciones ofimáticas específicas.

  • TELEMÁTICA.

  • El término más usado para designar la unión de entre las telecomunicaciones y la informática es el de telemática.

    En principio se trataba de usar las telecomunicaciones para transmitir informaciones. Aparecieron, simultáneamente a su uso, los protocolos de comunicaciones, es decir, aquellos requisitos imprescindibles para poder emitir y recibir los datos de una manera fiable.

    Las compañías de telecomunicaciones empezaron a desarrollar sistemas de transmisión especiales y distintos a los destinados a las comunicaciones orales. De hecho, automatizaron sus líneas con ordenadores especiales de comunicaciones y empezaron a utilizar otros medios de transmisión, como los cables coaxiales.

    Existe diferentes criterios para clasificar la forma de comunicación, pero podemos citar 2 conceptos extendidos:

    • Comunicación en línea (on-line), cuando las terminales están conectadas directamente al ordenador.

    • Comunicación en tiempo real, cuando las respuestas del ordenador se realizan con la rapidez suficiente para adecuarse a esa necesidad.

    Las comunicaciones mediante fibra óptica y satélites son ya una realidad. Existen aplicaciones, como el videotexto, el correo electrónico y el fax, totalmente desarrolladas, y otras, como la teleconferencia, a punto de implantarse.

  • PROGRAMACIÓN Y ANÁLASIS.

  • El conjunto de instrucciones que recibe la máquina, para aceptar, almacenar, ejecutar y conseguir unos resultados, se denomina programa.

    Para la elaboración de un programa se suelen seguir tres fases:

  • Análisis del problema. Debe estudiarse en profundidad el problema que hay que resolver y el ámbito al que ha de aplicarse.

  • Informática: vertientes de aplicación
    Construcción de su algoritmo. Un algoritmo debe representarla secuencia de pasos que deben seguir para resolver el problema.

  • Codificación. Las instrucciones deben introducirse en la máquina en un <<lenguaje>> que ésta pueda admitir. Los lenguajes pueden agruparse en tres categorias:

    • Máquina, que consiste en una serie de combinaciones binarias o bits.

    • Bajo nivel, es un lenguaje en el que se utilizan códigos simbólicos para representar combinaciones binarias.

    • Alto nivel, son más cercanos a los lenguajes humanos y emplean códigos. No pueden ser ejecutados por el ordenador, por lo que necesita traducciones o interpretaciones denominadas compilaciones.

    El análisis, o diseños de proyectos, es el primer paso que se debe ejecutar para convertir un problema complejo en respuestas automatizadas. Se dividen en 3 fases:

    • Estudio previo, consiste en analizar el proyecto.

    • Análisis funcional, busca las soluciones más adecuadas a cada aplicación. También recibe el nombre de diseño lógico.

    • Análisis orgánico, estudia las herramientas para conseguir cubrir las necesidades del usuario. También recibe el nombre de diseño técnico.

  • ROBÓTICA.

  • Una de las ramas más importantes derivadas de la informática y de la automática/electrónica es la robótica.

    Las necesidades de aumentar la calidad de los productos y mejorar la productividad, nos está llevando inexorablemente hacia la utilización de robots controlados por ordenadores.

    El nombre que deberíamos utilizar, en lugar de robot, sería el de autómata programable.

    Se considera que existen tres generaciones de autómatas:

    • La primera se limita a la realización de tareas repetitivas y simples, especialmente aquellas que supongan peligro para la vida humana.

    • En la segunda se les dota de sensores a los robots, lo que les permite reconocer y sostener piezas.

    • La tercera es la actual, que está en pleno desarrollo, y pretende que los autómatas sean capaces de tomar decisiones.

    En cuanto a su funcionamiento, existen 2 tipos principales:

    • Los servocontrolados, que pueden ponerse en funcionamiento detenerse en cualquier instante.

    • Los que pasan de una tarea a otra tarea de acuerdo con las operaciones que se les han encargado, pero no es fácil detenerlos.

    10