Desarrollo de aplicaciones informáticas


Informática


La Informática

La informática es la disciplina que estudia el tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales. También es definida como el procesamiento de información en forma automática. Para ello los sistemas informáticos deben realizar las siguientes tareas básicas:

  • Entrada: Captación de información.

  • Procesamiento o tratamiento de dicha información.

  • Salida: Transmisión de resultados.

(Estas tres tareas básicas en conjunto son lo que se conoce como algoritmo)

El vocablo Informática proveniente del francés informatique, acuñado por el ingeniero Philippe Dreyfus en 1962, acrónimo de las palabras information y automatique. En lo que hoy conocemos como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de comunicación.

La informática se aplica a diversidad areas, como por ejemplo: gestión de negocio, almacenamiento de información, monitorización y control de procesos, robots industriales, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, etc.

En la informática convergen los fundamentos de las ciencias de la computación, la programación y las metodologías para el desarrollo de software, la arquitectura de computadores, las redes de datos como Internet, la inteligencia artificial, así como determinados temas de electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas.

Historia de la Informática

El origen de las máquinas de calcular está dado por el ábaco chino, éste era una tablilla dividida en columnas en la cual la primera, contando desde la derecha, correspondía a las unidades, la siguiente a la de las decenas, y así sucesivamente. A través de sus movimientos se podía realizar operaciones de adición y sustracción.

Otro de los hechos importantes en la evolución de la informática lo situamos en el siglo XVII, donde el científico francés Blas Pascal inventó una máquina calculadora. Ésta sólo servía para hacer sumas y restas, pero este dispositivo sirvió como base para que el alemán Leibnitz, en el siglo XVIII, desarrollara una máquina que, además de realizar operaciones de adición y sustracción, podía efectuar operaciones de producto y cociente. Ya en el siglo XIX se comercializaron las primeras máquinas de calcular. En este siglo el matemático inglés Babbage desarrolló lo que se llamó "Máquina Analítica", la cual podía realizar cualquier operación matemática. Además disponía de una memoria que podía almacenar 1000 números de 50 cifras y hasta podía usar funciones auxiliares, sinembargo seguía teniendo la limitación de ser mecánica.

Recién en el primer tercio del siglo XX, con el desarrollo de la electrónica, se empiezan a solucionar los problemas técnicos que acarreaban estas máquinas, reemplazándose los sistemas de engranaje y varillas por impulsos eléctricos, estableciéndose que cuando hay un paso de corriente eléctrica será representado con un *1* y cuando no haya un paso de corriente eléctrica se representaría con un *0*.

Con el desarrollo de la segunda guerra mundial se construye el primer ordenador, el cual fue llamado Mark I y su funcionamiento se basaba en interruptores mecánicos.

En 1944 se construyó el primer ordenador con fines prácticos que se denominó Eniac.

En 1951 son desarrollados el Univac I y el Univac II (se puede decir que es el punto de partida en el surgimiento de los verdaderos ordenadores, que serán de acceso común a la gente).

Generaciones de las computadoras

PRIMERA GENERACIÓN (1951 a 1958)

Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.

Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.

Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañias privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.

SEGUNDA GENERACIÓN (1959-1964)

Transistor Compatibilidad Limitada

El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.

Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de os mas grandes avances en cuanto a portabilidad de programas entre diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.

 La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH.

Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporation con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).

TERCERA GENERACIÓN (1964-1971)

Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora.

Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.

El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras.

Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.

La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos.

IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de

30000, al grado que IBM llegó a conocerse como sinónimo de computación.

También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips).

Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables.

Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).

Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70.

CUARTA GENERACIÓN (1971 a 1981)

Microprocesador , Chips de memoria, Microminiaturización

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)

En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.

Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.

Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet.

Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).

Las principales tecnologías que dominan este mercado son:

IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente.

Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús.

QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)

Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.

Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.

Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.

Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.

El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.

También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.

Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.

 El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).

Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.

'Informática'

El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.

  El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones.  Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. 

SEXTA GENERACIÓN 1990 HASTA LA FECHA

Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.

Hardware y sus periféricos:

Hardware

Hardware es un neologismo proveniente del inglés[1] definido por la RAE como el conjunto de elementos materiales que conforman una computadora [2] , sin embargo, es usual que sea utilizado en una forma más amplia, generalmente para describir componentes físicos de una tecnología, así el hardware puede ser de un equipo militar importante, un equipo electrónico, un equipo informático o un robot. En informática también se aplica a los periféricos de una computadora tales como el disco duro, CD-ROM, disquetera (floppy), etc... En dicho conjunto se incluyen los dispositivos electrónicos y electromecánicos, circuitos, cables, armarios o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado.

El hardware se refiere a todos los componentes físicos (que se pueden tocar), en el caso de una computadora personal serían los discos, unidades de disco, monitor, teclado, la placa base, el microprocesador, étc. En cambio, el software es intangible, existe como información, ideas, conceptos, símbolos, pero no ocupa un espacio físico, se podría decir que no tiene sustancia. Una buena metáfora sería un libro: las páginas y la tinta son el hardware, mientras que las palabras, oraciones, párrafos y el significado del texto (información) son el software. Una computadora sin software sería tan inútil como un libro con páginas en blanco.

Periféricos de entrada (E)

Son los que permiten al usuario que ingrese información desde el exterior. Entre ellos podemos encontrar: teclado, mouse o ratón, escáner, SAI (Sistema de Alimentación Ininterrumpida), micrófono, cámara web , lectores de código de barras, Joystick, etc.

Periféricos de salida (S)

Son los que muestran al usuario el resultado de las operaciones realizadas por el PC. En este grupo podemos encontrar: monitor, impresora, altavoces, etc.

Periféricos de entrada/salida (E/S)

Son los dispositivos que pueden aportar simultáneamente información exterior al PC y al usuario. Así encontramos como dispositivos/periféricos/unidades de Entrada/Salida las tarjetas de red, los módems, las unidades de almacenamiento (discos duros, disquetes, floppy, discos ZIP o las memorias, (USB, flash, etc.)

Unidad Central de Procesamiento

Es la computadora real, la "inteligencia" de un sistema de computación. La CPU, o procesador, es el componente que interpreta instrucciones y procesa datos. Es el elemento fundamental, el cerebro de la computadora. Su papel sería equiparable al de un director de orquesta, cuyo cometido es que el resto de componentes funcionen correctamente y de manera coordinada. Las unidades centrales de proceso no sólo están presentes en los ordenadores personales, sino en todo tipo de dispositivos que incorporan una cierta "inteligencia" electrónica como pueden ser: televisores, automóviles, calculadores, aviones, teléfonos móviles, juguetes y muchos más.

Memoria RAM

Del inglés Random Access Memory, que significa memoria de acceso aleatorio, aludiendo a la capacidad que ofrece este dispositivo para almacenar y/o extraer información de él (Lectura/Escritura) en cualquier punto o dirección del mismo y en cualquier momento (no secuencial).

Son los dispositivos que permiten el almacenamiento temporal de información para que la Unidad de Procesamiento pueda ser capaz de ejecutar sus programas.

Hardware Gráfico

El hardware gráfico lo constituyen las tarjetas gráficas. Poseen su propia Unidad de Proceso (GPU) y memoria.

¿Qué es un ordenador?

El ordenador es una potente máquina con la que podemos escribir, jugar, dibujar, calcular, realizar multitud de actividades, y además acceder a Internet.

Con un ordenador podemos, por ejemplo, comunicarnos con personas en cualquier lugar del mundo.

La computadora, computador u ordenador es un sistema digital con tecnología microelectrónica, capaz de procesar datos a partir de un grupo.

Aparato informático capaz de procesar información, ya sea para archivarla o transmitirla. Necesita aplicaciones o programas para poder funcionar. (Se dice Computador en gran parte de Latinoamérica).

Instrumento de tortura. El primer ordenador fue inventado por el científico británico Roger Duffy Billingsly. Se cuenta que en un complot para derrocar a Adolf Hitler, Duffy se hizo pasar por aliado de los alemanes y ofreció su invento como regalo al dictador.

Una computadora (del latín computare -calcular-), también denominada como ordenador o computador, es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, sorprendente rapidez, y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una múltiple variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador.

Computadoras analógicas:

LAS COMPUTADORAS ANALOGICAS. Son maquinas destinadas al control del proceso y a la simulación. en la actualidad se encuentran instaladas en cadena de fabricación y en mercados, como el de la automatización entre otros.

Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el Hardware).

Computadoras digitales:

COMPUTADORAS DIGITALES. Maneja señales eléctricas de tipo digital. Se programa por medio de lenguajes de programación y su utilización contiene cualquier tipo de trabajos; por tanto, configuran el grupo de computadoras de tipo general. En la actualidad, mas de 95 por 100 de las computadoras son de este tipo.

Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos valores posibles: `1' ó `0'. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar físicamente la máquina.

Computadoras electrónicas:

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró la primera computadora digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en la `computadora' Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba la computadora de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse a la computadora.

A finales de la década de 1950 el uso del transistor en las computadoras marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

Dispositivos periféricos

Periféricos de entrada

Son los que introducen datos externos a la computadora para su posterior tratamiento por parte de la CPU. Estos datos pueden provenir de distintas fuentes, siendo la principal un ser humano. Los periféricos de entrada más habituales son:

  • Teclado

  • Mouse

  • Cámara web

  • Escáner

  • Micrófono

  • Conversor Analógico digital

  • Escáner de código de barras

  • Joystick

  • Tableta digitalizadora

  • Pantalla táctil

Periféricos de salida

Son los que reciben información que es procesada por el CPU y la reproducen para que sea perceptible para el usuario. Ej.: Monitor.

  • Monitor

  • Impresoras

  • Altavoces

  • Auriculares

  • Fax

  • Pantalla táctil

Periféricos de almacenamiento

Se encargan de guardar o salvar los datos de los que hace uso la CPU para que ésta pueda hacer uso de ellos una vez que han sido eliminados de la memoria principal, ya que ésta se borra cada vez que se apaga la computadora. Pueden ser internos, como un disco duro, o extraíbles, como un CD. Los más comunes son:

  • Disco duro

  • Grabadora y/o lector de CD

  • Grabadora y/o lector de DVD

  • Grabadora y/o lector de Blu-ray

  • Grabadora y/o lector de HD DVD

  • Memoria Flash

  • Cintas magnéticas

  • Tarjetas perforadas

  • Memoria portátil

  • Disquete

Periféricos de comunicación

Su función es permitir o facilitar la interacción entre dos o más computadoras, o entre una computadora y otro periférico externo a la computadora. Entre ellos se encuentran los siguientes:

  • Fax-Módem

  • Tarjeta de red

  • Tarjeta Wireless

  • Tarjeta Bluetooth

  • Controladores de puertos (serie, paralelo, infrarrojo, etc.)

  • Hub USB

  • Tarjeta WXD

Dispositivos de entrada

TECLADO

Un teclado alfanumérico se utiliza principalmente como un dispositivo para introducir texto. El teclado es un dispositivo eficaz para introducir datos no gráficos como rótulos de imágenes asociados con un despliegue de gráficas. Los teclados también pueden ofrecerse con características que facilitan la entrada de coordenadas de la pantalla, selecciones de menús o funciones de gráficas.

MOUSE

Es un dispositivo electrónico que nos permite dar instrucciones a nuestra computadora a través de un cursor que aparece en la pantalla y haciendo clic para que se lleve a cabo una acción determinada. A medida que el mouse rueda sobre el escritorio, en correspondencia, el cursor (puntero) en la pantalla hace lo mismo. Tal procedimiento permitirá controlar, apuntar, sostener y manipular varios objetos gráficos(y de texto) en un programa.

Al igual que el teclado, el Mouse es el elemento periférico que más se utiliza en una PC(aunque en dado caso, se puede prescindir de él). Los “ratones” han sido los elementos que más variaciones han sufrido en su diseño. Es difícil ver dos modelos y diseños de ratones iguales, incluso siendo del mismo fabricante.

SCANNERS

Es una unidad de ingreso de información. Permite la introducción de imágenes gráficas al computador mediante un sistema de matrices de puntos, como resultado de un barrido óptico del documento. La información se almacena en archivos en forma de mapas de bits (bit maps), o en otros formatos más eficientes como JPEG o GIF.

Existen scanners que codifican la información gráfica en blanco y negro, y a colores. Así mismo existen scanners de plataforma plana fija(cama plana) con apariencia muy similar a una fotocopiadora, y scanners de barrido manual.

Los scanners de cama plana pueden verificar una página entera a la vez, mientras que los portátiles solo pueden revisar franjas de alrededor de 4 pulgadas. Reconocen imágenes, textos y códigos de barras, convirtiéndolos en código digital (ASCII o EBCDIC).

Cámara que se conecta al ordenador y le transmite las imágenes que capta, pudiendo ser modificada y retocada, o volverla a tomar en caso de que este mal. Una cámara digital permite tomar fotos que se pueden visualizar e imprimir utilizando una computadora.

La mayoría incluyen una pantalla tipo visualizador de cristal líquido (LCD), que puede utilizar para tener una vista preliminar y visualizar la fotografías.

Incluyen un cable que permite conectar la cámara a un puerto. Permitiendo transferir las fotografías.

JOYSTICK

Dispositivo señalador muy conocido, utilizado mayoritariamente para juegos de ordenador o computadora, pero que también se emplea para otras tareas. Un joystick o palanca de juegos tiene normalmente una base de plástico redonda o rectangular, a la que está acoplada una palanca vertical. Los botones de control se localizan sobre la base y algunas veces en la parte superior de la palanca, que puede moverse en todas direcciones para controlar el movimiento de un objeto en la pantalla. Los botones activan diversos elementos de software, generalmente produciendo un efecto en la pantalla. Un joystick es normalmente un dispositivo señalador relativo, que mueve un objeto en la pantalla cuando la palanca se mueve con respecto al centro y que detiene el movimiento cuando se suelta. En aplicaciones industriales de control, el joystick puede ser también un dispositivo señalador absoluto, en el que con cada posición de la palanca se marca una localización específica en la pantalla.

Otros

Lápiz Óptico

Dispositivo señalador que permite sostener sobre la pantalla un lápiz que está conectado al ordenador y con el que es posible seleccionar elementos u opciones (el equivalente a un clic de mouse o ratón), bien presionando un botón en un lateral del lápiz óptico o presionando éste contra la superficie de la pantalla.
El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla.

Tarjetas perforadas

 Ficha de papel manila de 80 columnas, de unos 7,5 cm (3 pulgadas) de ancho por 18 cm (7 pulgadas) de largo, en la que podían introducirse 80 columnas de datos en forma de orificios practicados por una máquina perforadora. Estos orificios correspondían a números, letras y otros caracteres que podía leer un ordenador equipada con lector de tarjetas perforadas.

Pantalla Táctil

Pantalla diseñada o modificada para reconocer la situación de una presión en su superficie. Al tocar la pantalla, el usuario puede hacer una selección o mover el cursor. El tipo de pantalla táctil más sencillo está compuesto de una red de líneas sensibles, que determinan la situación de una presión mediante la unión de los contactos verticales y horizontales.

Las pantallas táctiles de infrarrojos se usan a menudo en entornos sucios, donde la suciedad podría interferir en el modo de operación de otros tipos de pantallas táctiles. La popularidad de las pantallas táctiles entre los usuarios se ha visto limitada porque es necesario mantener las manos en el aire para señalar la pantalla, lo que sería demasiado incómodo en largos periodos de tiempo. Además no ofrece gran precisión al tener que señalar ciertos elementos en programas de alta resolución. Las pantallas táctiles, sin embargo, son enormemente populares en aplicaciones como los puestos de información porque ofrecen una forma de señalar que no requiere ningún hardware móvil y porque presionar la pantalla es algo intuitivo.

Lector de código de barras

Dispositivo que mediante un haz de láser lee dibujos formados por barras y espacios paralelos, que codifica información mediante anchuras relativas de estos elementos. Los códigos de barras representan datos en una forma legible por el ordenador, y son uno de los medios más eficientes para la captación automática de datos.

Dispositivos de almacenamiento

Se encargan de guardar o salvar los datos de los que hace uso la CPU para que ésta pueda hacer uso de ellos una vez que han sido eliminados de la memoria principal, ya que ésta se borra cada vez que se apaga la computadora. Pueden ser internos, como un disco duro, o extraíbles, como un CD. Los más comunes son:

  • Disco duro

  • Grabadora y/o lector de CD

  • Grabadora y/o lector de DVD

  • Grabadora y/o lector de Blu-ray

  • Grabadora y/o lector de HD DVD

  • Memoria Flash

  • Cintas magnéticas

  • Tarjetas perforadas

  • Memoria portátil

  • Disquete

Disco duro

Se llama disco duro, disco solido o disco rígido (en inglés hard disk, abreviado con frecuencia HD o HDD) al dispositivo encargado de almacenar información de forma permanente en una computadora.

Los discos duros generalmente utilizan un sistema de grabación magnética digital. En este tipo de disco encontramos dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares a la hora de comunicar un disco duro con la computadora. Los más utilizados son Integrated Drive Electronics (IDE), SCSI, y SATA, este último estandarizado en el año 2004.

Disco compacto

El disco compacto (conocido popularmente como CD, por las siglas en inglés de Compact Disc) es un soporte digital óptico utilizado para almacenar cualquier tipo de información (audio, vídeo, documentos y otros datos). En español o castellano, se puede escribir «cedé» o, como propone la Real Academia Española, «cederrón» (CD-ROM).

DVD

El DVD (también conocido como "Digital Versatile Disc" o "Disco Versátil Digital", debido a su popular uso en películas algunos lo llaman Disco de Video Digital) es un formato de almacenamiento óptico que puede ser usado para guardar datos, incluyendo películas con alta calidad de vídeo y audio. Se asemeja a los discos compactos en cuanto a sus dimensiones físicas (diámetro de 12 u 8 centímetros), pero están codificados en un formato distinto y a una densidad mucho mayor. A diferencia de los CD, todos los DVD deben guardar los datos utilizando un sistema de archivos denominado UDF (Universal Disk Format), el cual es una extensión del estándar ISO 9660, usado para CD de datos. El DVD Forum (un consorcio formado por todas las organizaciones que han participado en la elaboración del formato) se encarga de mantener al día sus especificaciones técnicas.

Blu-ray

Blu-ray (también conocido como Blu-ray Disc o BD) es un formato de disco óptico de nueva generación de 12 cm de diámetro (igual que el CD y el DVD) para vídeo de alta definición y almacenamiento de datos de alta densidad. Su capacidad de almacenamiento actualmente llega a 50 GB a doble capa y a 25 GB a una capa.

Este formato se impuso a su competidor, el HD DVD, en la guerra de formatos iniciada para convertirse en el estándar sucesor del DVD, como en su día ocurrió entre el VHS y el Betamax. Después de la caida de muchos apoyos de HD-DVD Toshiba decidió cesar de fabricar más reproductores y las investigaciones para mejorar su formato

HD DVD

HD DVD (High Density Digital Versatile Disc) es un formato de almacenamiento óptico desarrollado como un estándar para el DVD de alta definición por las empresas Toshiba, Microsoft y NEC, así como por varias productoras de cine. Puede almacenar hasta 30 GB.

Este formato acabó por no imponerse a su inmediato competidor, el Blu-ray, por convertirse en el estándar sucesor del DVD. Después de la caida de muchos apoyos de HD-DVD Toshiba decidió cesar de fabricar más reproductores y continuar con las investigaciones para mejorar su formato.

Memoria flash

La memoria flash es una forma evolucionada de la memoria EEPROM que permite que múltiples posiciones de memoria sean escritas o borradas en una misma operación de programación mediante impulsos eléctricos, frente a las anteriores que sólo permite escribir o borrar una única celda cada vez. Por ello, flash permite funcionar a velocidades muy superiores cuando los sistemas emplean lectura y escritura en diferentes puntos de esta memoria al mismo tiempo.

Cinta magnética

La cinta magnética es un tipo de soporte de almacenamiento de información que se graba en pistas sobre una banda de un material magnético, generalmente óxido de hierro o algún cromato. El tipo de información que se puede almacenar en las cintas magnéticas es variado, como vídeo, audio y datos.

Tarjeta perforada

Banda perforada utilizada para guardar y entregar la información a un autómata.

La tarjeta perforada es una cartulina con unas determinaciones que pueden o no estar perforadas, lo que supone un código binario. Fueron los primeros medios que servian para para ingresar información e instrucciones a un computador en los años 1960 y 1970. Fueron inventadas por Herman Hollerith (1860-1929) en 1889.

Memoria USB

'Informática'

Una memoria USB (de Universal Serial Bus, en inglés pendrive o USB flash drive) es un pequeño dispositivo de almacenamiento que utiliza memoria flash para guardar la información sin necesidad de baterías (pilas). Estas memorias son resistentes a los rasguños y al polvo que han afectado a las formas previas de almacenamiento portátil, como los CD y los disquetes.

Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de datos más utilizado, desplazando en este uso a los tradicionales disquetes, y a los CDs. Se pueden encontrar en el mercado fácilmente memorias de 1, 2, 4, 8 GB o más (esto supone, como mínimo el equivalente a unos 1000 disquetes) . Su gran popularidad le ha supuesto infinidad de denominaciones populares relacionadas con su pequeño tamaño y las diversas formas de presentación, sin que ninguna haya podido destacar entre todas ellas: pincho, mechero, llavero, llave o las de los embalajes originales en inglés pendrive, flash drive o memory stick.

Disquete

Un disquete de 3,5" pulgadas, fuera de su carcasa

Un disco flexible o disquete es un dispositivo de almacenamiento de datos formado por una pieza circular de material magnético, fina y flexible (de ahí su denominación) encerrada en una carcasa de plástico cuadrada o rectangular. Los disquetes se leen y se escriben mediante una disquetera (o FDD, del inglés Floppy Disk Drive).

ESTRUCTURA INTERNA DE UNA COMPUTADORA/CPU

TARJETAS DE INTERFACES

TARJETA DE video

Es una placa electrónica que permite visualizar el trabajo que sé esta realizando en el equipo a través de un monitor. Se caracteriza porque tiene un conector hembra de color celeste o negro de 5, 12 ó 15 Pines distribuido en tres filas  (DB 12, DB15). Estas tarjetas por lo general tienen memoria propia que por lo general pueden ser de 256 Kbytes para algunas ISA a 64 Mbytes para algunas AGP. Pueden utilizar las tecnologías ISA, EISA; PCI y AGP ó venir integrado en la tarjeta madre.

ü      TARJETA DE SONIDO

Permite crear audio en el equipo a través de unas cornetas. Se caracteriza por la presencia de tres (3) conectores redondos con las siglas OUT, MIC, IN ó AUX y un conector para conectar joystick de 15 pines distribuido en 2 filas.

ü      MODEM

Este dispositivo permite a la computadora utilizar las líneas telefónicas para conectarse a Internet, efectuar y atender llamadas telefónicas. La velocidad de los MODEM puede variar desde 14.000 Kbps hasta 115.000 Kbps. Se caracterizan por la presencia de dos conectores hembras de 4 Pines cada uno con las siglas PHONE Y LINE o figuras mnemotécnicas. En LINE se conecta la línea telefónica y en Phone una extensión de teléfono o el teléfono principal. Los MODEM  pueden ser Internos si son tarjetas ISA, EISA, AMR o PCI, ó externos si se conectan en el puerto serial COMM 2.

ü      TARJETA DE RED

Esta tarjeta permite a la computadora conectarse con otras PC para compartir y utilizar programas y recursos de otro equipo. Se utilizan en Cybercafe, Intranet y para la comunicación de 2 o más equipos entre sí en general. Pueden trabajar a velocidades que van desde los 10 Mbits hasta los 100 Mbits. Actualmente se reconocen por la presencia de un conector parecido al del MODEM pero tiene 8 pines. Las tarjetas de red antiguas traían otro conector adicional para cable coaxial pero esto ya esta en desuso por el nivel de ruido que se produce en dicho tipo de cable.

ü      TARJETAS USB

Es un dispositivo de uso universal donde se puede conectar cámaras digitales, escáner, impresoras, webcam y cualquier otro dispositivos que se haya fabricado para la tecnología USB. Se identifican porque sus conectores son aplanados.

ü      PUERTOS DE COMUNICACIONES

Son dispositivos electrónicos que permiten crear una interfaz física entre la PC y otros dispositivos periféricos como Mouse, Impresoras, cámaras, Scanners, etc.

·        Puerto COMM 1: En este puerto se suele conectar el Mouse.

·        Puerto COMM 2: Aquí se conectan dispositivos como quemadores de PIC, Modem externos, etc.

·        Puerto COMM 3 o 4: Por lo General son virtuales en el sistema y se le asigna este puerto a una tarjeta de MODEM.

·        Puerto LPT1,2....: En estos puertos se conectan Impresoras y/o escáneres. Poseen 25 pines hembras (DB25). Se dan en tres modos de operación a saber.

-     SPP: Siglas de Puerto Paralelo Simple, es unidireccional y son utilizados por impresoras de matriz de punto.

-     EPP: Siglas de Puerto Paralelo Mejorado, es bidireccional y es utilizado por impresoras Epson.

-     ECP: Siglas de Controlador de Puerto Mejorado, es bidireccional y es utilizado por impresoras HP. La trasmisión de datos es mejor y es el mas rápido de todos.

·        Puertos USB: Este puerto es opcional en algunas tarjetas madres integradas y tienen la misma funciones  de las tarjetas USB.

·        Puerto PS/2: En este puerto se conecta por lo general un mouse de tecnología PS/2 o teclado PS/2.

Software y sistemas operativos:

Definición:

Se denomina software (palabra proveniente del inglés, pronunciada "sóft-uer"), programas, equipamiento lógico o soporte lógico a todos los componentes intangibles de una computadora, es decir, al conjunto de programas y procedimientos necesarios para hacer posible la realización de una tarea específica, en contraposición a los componentes físicos del sistema (hardware). Esto incluye aplicaciones informáticas tales como un procesador de textos, que permite al usuario realizar una tarea, y software de sistema como un sistema operativo, que permite al resto de programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el resto de aplicaciones.

Probablemente la definición más formal de software es la atribuida a la IEEE en su estándar 729: «la suma total de los programas de cómputo, procedimientos, reglas documentación y datos asociados que forman parte de las operaciones de un sistema de cómputo» [1] . Bajo esta definición, el concepto de software va más allá de los programas de cómputo en sus distintas formas: código fuente, binario o ejecutable, además de su documentación: es decir, todo lo intangible.

El término «software» fue usado por primera vez en este sentido por John W. Tukey en 1957. En las ciencias de la computación y la ingeniería de software, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones de la memoria de un dispositivo para controlar cálculos fue inventado por Charles Babbage como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por vez primera por Alan Turing en su ensayo de 1936, Los números computables, con una aplicación al problema de decisión.

Un sistema operativo es un software de sistema, es decir, un conjunto de programas de computadora destinado a permitir una administración eficaz de sus recursos. Comienza a trabajar cuando se enciende el computador, y gestiona el hardware de la máquina desde los niveles más básicos, permitiendo también la interacción con el usuario.

Un sistema operativo se puede encontrar normalmente en la mayoría de los aparatos electrónicos que utilicen microprocesadores para funcionar, ya que gracias a éstos podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles, reproductores de DVD, autoradios, computadoras, etc.).

Usuarios:

En sentido general, un usuario es un conjunto de permisos y de recursos (o dispositivos) a los cuales se tiene acceso. Es decir, un usuario puede ser tanto una persona como una máquina, un programa, etc.

Usuario final:

El usuario final de un producto informático (bien sea hardware o software), es la persona a la que va destinada dicho producto una vez que ha superado las fases de desarrollo correspondientes.

Normalmente, el software se desarrolla pensando en la comodidad del usuario final, y por esto se presta especial interés y esfuerzo en conseguir una interfaz de usuario lo más clara y sencilla posible.

Usuario registrado:

Se denomina así a la persona que tiene derechos especiales en algún servicio de Internet por acreditarse en el mismo mediante un identificador y una clave de acceso, obtenidos con previo registro en el servicio, de manera gratuita o de pago. Normalmente, un usuario registrado tiene asignada una cuenta propia que mantiene información personalizada del usuario en el servidor, (como puede ser dirección de e-mail y espacio correspondiente). También puede dar acceso a ciertos contenidos no accesibles al público en general, como por ejemplo un usuario registrado en un periódico on-line con acceso por suscripción.

Usuario anónimo:

Es usuario anónimo en informática aquel que navega en sitios web (o usa cualquier servicio de la red) sin autenticarse como usuario registrado. En algunos servicios en Internet se dispone de un modo de uso como usuario registrado y otro como usuario anónimo; normalmente, el usuario registrado goza de mayores privilegios.

El anonimato en Internet es uno de sus puntos fuertes, a la vez que motivo habitual de discusión. A los usuarios les gusta sentirse libres para expresarse, mientras que ciertos organismos quisieran un mayor control de todo el movimiento por la red para actuar con más eficacia contra la delincuencia online.

Usuario "beta tester"

En el proceso de desarrollo de software, existe un usuario intermedio entre el desarrollador y el usuario final que se encarga de comprobar y testear que el programa hace lo que tiene que hacer, reportando errores al programador/desarrollador, y es en gran medida responsable de que el programa llegue al usuario final sin errores.(prácticamente realiza la función de un sistema operativo)

Información:

En sentido general, la información es un conjunto organizado de datos, que constituyen un mensaje sobre un determinado ente o fenómeno. De esta manera, si por ejemplo organizamos datos sobre un país, tales como: número de habitantes, densidad de población, nombre del presidente, etc. y escribimos por ejemplo, el capítulo de un libro, podemos decir que ese capítulo constituye información sobre ese país. Cuando tenemos que resolver un determinado problema o tenemos que tomar una decisión, empleamos diversas fuentes de información (como podría ser el capítulo mencionado de este libro imaginario), y construimos lo que en general se denomina conocimiento o información organizada que permite la resolución de problemas o la toma de decisiones (ver apartado sobre conocimiento).

Según otro punto de vista, la información es un fenómeno que proporciona significado o sentido a las cosas, e indica mediante códigos y conjuntos de datos, los modelos del pensamiento humano. La información por tanto, procesa y genera el conocimiento humano. Aunque muchos seres vivos se comunican transmitiendo información para su supervivencia, la diferencia de los seres humanos radica en su capacidad de generar y perfeccionar tanto códigos como símbolos con significados que conformaron lenguajes comunes útiles para la convivencia en sociedad, a partir del establecimiento de sistemas de señales y lenguajes para la comunicación.

Los datos se perciben mediante los sentidos, éstos los integran y generan la información necesaria para producir el conocimiento que es el que finalmente permite tomar decisiones para realizar las acciones cotidianas que aseguran la existencia social. La sabiduría consiste en juzgar correctamente cuando, cómo, donde y con qué objetivo emplear el conocimiento adquirido.

El ser humano ha logrado simbolizar los datos en forma representativa (lenguaje) para posibilitar el conocimiento de algo concreto y creó las formas de almacenar y utilizar el conocimiento representado.

Existe una relación indisoluble entre los datos, la información, el conocimiento, el pensamiento y el lenguaje, por lo que una mejor comprensión de los conceptos sobre información redundará en un aumento del conocimiento, ampliando así las posibilidades del pensamiento humano, que también emplea el lenguaje -oral, escrito, gesticular, etc.-, y un sistema de señales y símbolos interrelacionados.

PROGRAMA

Un programa, o también llamado programa informático, programa de computación o programa de ordenador, es simplemente un conjunto de instrucciones para una computadora[1] . Las computadoras necesitan de los programas para funcionar, y un programa no hace nada a menos que sus instrucciones sean ejecutadas por el procesador[2] . Un programa se puede referir tanto a un programa ejecutable como a su código fuente, el cual es transformado en un ejecutable cuando es compilado.

Generalmente el código fuente de los programas es escrito por profesionales conocidos como programadores. El código fuente es escrito en un lenguaje de programación que sigue uno de los siguientes dos paradigmas: imperativo o declarativo. El código fuente puede ser convertido en una imagen ejecutable por un compilador. Cuando se pide que el programa sea ejecutado, el procesador ejecuta el programa instrucción por instrucción, hasta que el programa termina.

De acuerdo a sus funciones, los programas pueden ser clasificados en software de sistema y software de aplicación. Pueden ejecutarse muchos programas de forma simultánea en una misma computadora, a lo cual se le llama multitarea.

Sistema operativo:

Es un software de sistema, es decir, un conjunto de programas de computadora destinado a permitir una administración eficaz de sus recursos. Comienza a trabajar cuando se enciende el computador, y gestiona el hardware de la máquina desde los niveles más básicos, permitiendo también la interacción con el usuario.

Un sistema operativo se puede encontrar normalmente en la mayoría de los aparatos electrónicos que utilicen microprocesadores para funcionar, ya que gracias a éstos podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles, reproductores de DVD, autoradios, computadoras, etc.).

Principales funciones del sistema operativo:

Los sistemas operativos, en su condición de capa software que posibilitan y simplifica el manejo de la computadora, desempeñan una serie de funciones básicas esenciales para la gestión del equipo. Entre las más destacables, cada una ejercida por un componente interno (módulo en núcleos monolíticos y servidor en micronúcleos), podemos reseñar las siguientes:

  • Proporcionar comodidad en el uso de un computador.

  • Gestionar de manera eficiente los recursos del equipo, ejecutando servicios para los procesos (programas)

  • Brindar una interfaz al usuario, ejecutando instrucciones (comandos).

  • Permitir que los cambios debidos al desarrollo del propio SO se puedan realizar sin interferir con los servicios que ya se prestaban (evolutividad).

Un sistema operativo desempeña 5 funciones básicas en la operación de un sistema informático: suministro de interfaz al usuario, administración de recursos, administración de archivos, administración de tareas y servicio de soporte y utilidades.

Interfaces del usuario

Es la parte del sistema operativo que permite comunicarse con él de tal manera que se puedan cargar programas, acceder archivos y realizar otras tareas. Existen tres tipos básicos de interfaces: las que se basan en comandos, las que utilizan menús y las interfaces gráficas de usuario.

Administración de recursos

Sirven para administrar los recursos de hardware y de redes de un sistema informativo, como el CPU, memoria, dispositivos de almacenamiento secundario y periféricos de entrada y de salida.

Administración de archivos

Un sistema de información contiene programas de administración de archivos que controlan la creación, borrado y acceso de archivos de datos y de programas. También implica mantener el registro de la ubicación física de los archivos en los discos magnéticos y en otros dispositivos de almacenamiento secundarios.

Administración de tareas

Los programas de administración de tareas de un sistema operativo administran la realización de las tareas informáticas de los usuarios finales. Los programas controlan que áreas tiene acceso al CPU y por cuánto tiempo. Las funciones de administración de tareas pueden distribuir una parte específica del tiempo del CPU para una tarea en particular, e interrumpir al CPU en cualquier momento para sustituirla con una tarea de mayor prioridad.

Servicio de soporte

Los servicios de soporte de cada sistema operativo dependerán de la implementación particular de éste con la que estemos trabajando. Entre las más conocidas se pueden destacar las implementaciones de Unix, desarrolladas por diferentes empresas de software, los sistemas operativos de Apple Inc., como Mac OS X para las computadoras de Apple, los sistemas operativos de Microsoft, y las implementaciones de software libre, como Linux o BSD producidas por empresas, universidades, administraciones públicas, organizaciones sin fines de lucro y/o comunidades de desarrollo.

Estos servicios de soporte suelen consistir en:

  • Actualización de versiones.

  • Mejoras de seguridad.

  • Inclusión de alguna nueva utilidad (un nuevo entorno gráfico, un asistente para administrar alguna determinada función, ...).

  • Controladores para manejar nuevos periféricos (este servicio debe coordinarse a veces con el fabricante del hardware).

  • Corrección de errores de software.

  • Otros.

No todas las utilidades de administración o servicios forman parte del sistema operativo, además de éste, hay otros tipos importantes de software de administración de sistemas, como los sistemas de administración de base de datos o los programas de administración de redes. El soporte de estos productos deberá proporcionarlo el fabricante correspondiente (que no tiene porque ser el mismo que el del sistema operativo).

Bibliografía:

  • http://www.ee.ryerson.ca:8080/~elf/abacus/history.html

  • http://ei.cs.vt.edu/~history/Babbage.html

  • http://www.ibm.com/ibm/history/story/

  • http://www.terra.es/personal/flromera/cientifis.htm

  • http://es.wikipedia.org/wiki/Computer_software

  • http://es.wikipedia.org/wiki/Usuario

  • http://es.wikipedia.org/wiki/Informaci%C3%B3n

  • http://es.wikipedia.org/wiki/Programa_%28computaci%C3%B3n%29

  • http://es.wikipedia.org/wiki/Sistema_operativo#Funciones_b.C3.A1sicas




  • Descargar
    Enviado por:Héctor Leonel Aguilón
    Idioma: castellano
    País: Guatemala

    Te va a interesar