Ordenadores

Informática. Generaciones de ordenador. Componentes CPU (Central Process Unit) Placa base. Microprocesador. Memoria RAM (Random Access Memory) ROM (Read Only Memory) Disco duro. Disquetera. Periféricos

  • Enviado por: D Cool s
  • Idioma: castellano
  • País: España España
  • 51 páginas
publicidad
publicidad

Índice.

  • Introducción Pág. 1

  • Reseña histórica Pág. 2

  • Generaciones del ordenador (PC) Pág. 4

  • Primera generación Pág. 4

  • Segunda generación Pág. 5

  • Tercera generación Pág. 7

  • Cuarta generación Pág. 8

  • Quinta generación Pág. 10

  • Evolución futura Pág. 15

  • Componentes de ordenador Pág. 18

  • Unidad central (CPU) Pág. 19

  • Caja o chasis del ordenador Pág. 19

  • Fuente de alimentación Pág. 20

  • Placa base Pág. 20

  • Microprocesador Pág. 29

  • Memoria RAM Pág. 32

  • Memoria ROM Pág. 36

  • Disco duro (HDD) Pág. 37

  • Disquetera (FDD) Pág. 39

  • Unidades ópticas Pág. 40

  • Tarjeta grafica Pág. 41

  • Tarjeta de sonido Pág. 42

  • Tarjeta de TV y Radio Pág. 43

  • Tarjeta de red Pág. 43

  • MODEM Pág. 44

  • Periféricos Pág. 45

  • Monitor Pág. 45

  • Teclado Pág. 46

  • Ratón Pág. 46

  • Impresora Pág. 47

  • Escáner Pág. 48

  • MODEM externo Pág. 48

  • 1. INTRODUCCION

    A lo largo de la historia, el hombre ha necesitado continuamente transmitir y tratar información, por ello no ha parado de crear maquinas y métodos para procesarla. Con este fin, surge la informática como una ciencia encargada del estudio y desarrollo de estas maquinas y métodos.

    La informática nace de la idea de ayudar al hombre en los trabajos rutinarios y repetitivos, generalmente de cálculo y gestión.

    Una de las definiciones más comúnmente aceptadas en la actualidad es la siguiente: INFORMATICA es la ciencia que estudia el tratamiento automático y racional de la información. Entre las principales funciones de la informática destacan las siguientes:

    • El desarrollo de nuevas máquinas.

    • El desarrollo de nuevos métodos de trabajo.

    • La construcción de aplicaciones informáticas.

    • Mejorar los métodos y aplicaciones existentes.

    El término se creó en Francia en 1962, y procede de la contracción de las palabras: Información automática. En los países de habla hispana se reconoció aproximadamente en 1968.

    Desde el punto de vista informático, el elemento físico utilizado para el tratamiento de los datos y obtención de la información es la computadora.

    Computadora (ordenador) es una máquina compuesta de elementos físicos de tipo electrónico, capaz de realizar una gran variedad de trabajos a gran velocidad y con gran precisión siempre que se le den las instrucciones adecuadas.

    El conjunto de órdenes que se dan a una computadora para realizar un proceso determinado se denomina programa. Al conjunto de uno o varios programas que realizan un determinado trabajo completo se le denomina aplicación informática.

    El término sistema informático se utiliza para nombrar al conjunto de elementos necesarios para la realización de aplicaciones.

    La información es el elemento a tratar, y se define como todo aquello que permite adquirir cualquier tipo de conocimiento; por tanto, existirá información cuando se da a conocer algo que se desconoce.

    Los datos, una vez procesados (ordenados, sumados, clasificados,...), constituyen información útil.

    Para que una información sea tratada es necesario transmitirla, y para que exista transmisión de información son necesarios tres elementos:

    • El emisor que da origen a la información.

    • El medio que permita la transmisión.

    • El receptor que recibe la información.

    El conjunto de operaciones que se realizan sobre una cierta información se denomina tratamiento de la información.

    Se denomina algoritmo o proceso al conjunto de operaciones necesarias para transformar los datos iniciales en los resultados que se desean obtener en determinado trabajo.

    El algoritmo de resolución de un problema, se determina en su fase de análisis, previa a la automatización.

    La informática se sustenta sobre tres pilares básicos:

    • El elemento físico (hardware)

    • El elemento lógico (software)

    • El elemento humano

    Actualmente se utiliza el término fireware para denominar cierta parte del software que traen las computadoras pregrabadas desde su fabricación y que puede estar en memorias de tipo ROM (memorias de solo lectura) o incorporado en su circuitería.

    La base fundamental de la evolución de los ordenadores digitales ha sido el desarrollo de los componentes que forman su memoria y unidades de cálculo.

    2. RESEÑA HISTORICA

    El desarrollo de la informática se inicio después de la segunda guerra mundial. No obstante, se habían realizado en épocas anteriores investigaciones relacionadas con el tratamiento automático de la información y el inglés Charles Babbage (1792- 1871) unos 50 años antes de los trabajos de Hollerith propuso una maquina a la que le había dado el nombre de “Maquina analítica”. Babbage eran un hombre excéntrico y del mal carácter que paso gran parte de su vida trabajando en vano para completar su increíblemente compleja máquina.

    El sueño de Babbage, que para muchos de sus contemporáneos era “la locura de Babbage”, hubiera incluido una entrada por tarjetas perforadas, una unidad de memoria, o almacén, una unidad aritmética, o molino, la impresión automática de salida, el control secuencial por programa y una exactitud de 20 cifras. En pocas palabras, Babbage había diseñado un prototipo de computadora que estaba adelantada 100 años a su época.

    Lady Augusta Ada Lovelace, hija de Lord Byron, el poeta, ayudó a Babbage. Ella era una brillante matemática y corrigió algunos errores en el trabajo de Babbage e inventó formas novedosas de enfocar el diseño de programas empleando tarjetas perforadas. Por estos descubrimientos muchos la consideran la primera programadora de computadoras. Al morir Babbage, el desarrollo de las computadoras se detuvo hasta 1937; las tarjetas perforadas dominaron el mundo del proceso de datos. El norteamericano Hermann Hollerith (1860-1929) construyó en 1885 las primeras maquinas que funcionaban con tarjetas perforadas y el sistema empleado fue perfeccionado por su compatriota Legrand Powers y por el ingeniero noruego Frederick Bull (1882-1925).

    En 1937, Howard Aiken, profesor de Harvard, se fijo la meta de construir una maquina calculadora automática que combinara la tecnología eléctrica y mecánica con las técnicas de las tarjetas perforadas de Hollerith. Con la ayuda de estudiantes de postgrado e ingenieros de la IBM, el proyecto se completó en 1944. El aparato terminado se denomino la computadora digital MARK 1. Las operaciones internas se controlaban automáticamente con relevadores electromagnéticos, y los contadores aritméticos eran mecánicos; así la MARK 1 era una computadora electromecánica. En muchos aspectos era el sueño de Babbage hecho realidad. Esta maquina medieval actualmente se exhibe en la universidad de Harvard.

    El primer prototipo de computadora electrónica se concibió en el invierno de 1937-1938 por el doctor John Vincent Atanasoff, profesor de física y matemáticas en Iowa State College. Como ninguna de las calculadoras disponibles en ese entonces era adecuada para sus necesidades, Atanasoff decidió construir la suya. Empleando conceptos de diseño que cristalizaron en su mente a altas horas de una noche de invierno en un bar a la orilla de la carretera en Illinois, Atanasoff formó un equipo con Clifford Berry, su asistente de postgrado, y comenzó a construir la primera computadora electrónica. La llamaron “computadora Atanasoff-Berry”, o ABC. La ABC empleaba bulbos al vacío para almacenar datos y efectuar operaciones aritméticas y lógicas.

    Durante 1940 y 1941 Atanasoff y Berry se reunieron con John W. Mauchly y le mostraron su trabajo. Mauchly, que trabajaba en la School of Electrical Engineering de la Universidad de Pennsylvania, comenzó a pensar en la forma de construir una computadora de aplicación general. (La ABC se diseño con el objetivo específico de resolver sistemas de ecuaciones simultáneas.) Mauchly formó un equipo con J. Presper Eckert, estudiante de postgrado de ingeniería en la Moore School, para organizar la construcción de ENIAC a principios de la década de 1940.

    ENIAC fue la primera computadora electrónica de aplicación general que entro en funcionamiento. Financiada por el ejército de los Estados Unidos, se construyó en la Moore School como proyecto secreto durante la guerra (al ejército le interesaba la preparación rápida de tablas de trayectorias de proyectiles). También se utilizaron bulbos al vacío (contenía unas 18.000 válvulas de vació) en ENIAC. Aunque pesaba 30 toneladas y ocupaba el espacio de una casa de tres recamaras, ENIAC podría hacer 300 multiplicaciones por segundo, lo que hacia 300 veces mas rápida que cualquier otro dispositivo de la época. Las instrucciones de operación de ENIAC no se almacenan internamente mas bien se introducían por medio de tableros de clavijas e interruptores localizados en el exterior. El ejército utilizó la ENIAC hasta 1955 y después se colocó en el Smithsonian Institucion.

    La primera maquina dotada de memoria fue la llamada EDVAC, realizada en la Universidad de Princeton. Ésta era capaz de registrar, conservar y restituir datos en un momento determinado, gracias a un descubrimiento del matemático norteamericano John von Newmann (1903-1957). A la misma época corresponde el ordenador denominado EDASC, que empezó a funcionar en el año 1947 en la Universidad de Cambridge (Massachusetts).

    Los países europeos también contribuyeron de modo notable al desarrollo de la informática. El alemán Konrad Zuse, consiguió poner en funcionamiento las maquinas Z3 y Z4 antes de concluir la guerra, y el francés François Raymond diseño una calculadora automática en 1949. A partir de entonces empezó la comercialización de este tipo de maquinas con las calculadoras de tarjetas perforadas IBM 604 y BULL Gamma 3, con los grandes ordenadores que reciben los nombres de UNIVAC 1 e IBM 701 y con otros mas de tamaño medio, como el IBM 650 y el BULL Gamma de tambor. Todos ellos contenían tubos de vacío, pero, en 1960, estos se sustituyeron por transistores. El uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

    A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.

    En 1965, el modelo IBM 360, sumamente perfeccionado y capaz de resolver los problemas mas complicados, señala el principio de lo que recibe el nombre de tercera generación de ordenadores. Éstos son a la vez numéricos y alfanuméricos, es decir, procesan lo mismo letras que cifras y se prestan tanto al calculo científico como al tratamiento de la gestión.

    3. GENERACIONES DEL ORDNADOR (PC)

    • Primera generación (1939-1957)

    El inicio de la primera generación viene dado por la construcción del Z3 de Konrad Zuse, pero invento que provocó mayor impacto y con el que se considera el inicio de ésta primera generación el Atanasoff-Berry Computer o ABC.

    El ABC fue construido por el profesor de física John Vincent Atanasoff y su ayudante Clifford Berry. Éste ordenador estaba compuesto de tubos al vacío, condensadores para el almacenamiento de la memoria y un sistema lógico para su operatividad. Esta computadora fue usada para resolver ecuaciones matemáticas sencillas. Fue el primer ordenador electrónico digital, aunque sin buenos resultados y nunca fue mejorado. Sus inventores jamás lo patentaron y surgieron problemas sobre la propiedad intelectual del mismo en los cuales participó IBM.

    En 1944 apareció el Mark I, que es el primer ordenador construido por la IBM a gran escala, desarrollado en cooperación con la Universidad de Harvard.

    La Calculadora Automática de Control Secuencial del Mark I es la primera máquina capaz de ejecutar largas operaciones en forma automática. Medía 15 metros de largo, 2'40 metros de altura y pesaba 5 toneladas.

    El Mark I usaba relés electromecánicos para resolver problemas de suma en menos de un segundo, 6 segundos para multiplicación y el doble de tiempo para la división. Mucho más lento que una calculadora de bolsillo del presente.

    En 1946 apareció el ENIAC (Electronic Numerical Integrator and Computer), que se convirtió en uno de los ordenadores más famosos de la época. Fue empleado por el ejército exclusivamente para cálculos balísticos o para saber la trayectoria de los misiles.

    Fue construido en la Universidad de Pensylvania por John Mauchly y J. Preper Eckert. Medía 2'40 metros de ancho y 30 metros de largo y pesaba 80 toneladas. El ENIAC podía resolver 5000 sumas y 360 multiplicaciones por segundo, pero su programación era mala y debía cambiársele de tubos constantemente.

    En 1949 fue creada la EDVAC (Electronic Discrete Variable Automatic Computer), que era una computadora construida en la Universidad de Manchester y fue el primer equipo con capacidad de almacenamiento de memoria e hizo desechar a los otros equipos que tenían que ser intercambiados o reconfigurados cada vez que se usaban. Con la EDVAC se logró tener el programa almacenado en la computadora gracias a que el EDVAC tenía una mayor capacidad de almacenamiento de memoria.

    La memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, de tal modo que un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los ceros (0) y unos (1).

    En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos.

    En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines).

    Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.

    Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.

    La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.

    Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.

    • Segunda generación (1939-1957)

    Hasta aquel momento el avance había sido relativamente lento debido a que los ordenadores no sólo eran caros, sino que exigían mucho espacio y abundancia de medios para diseñarlos y fabricarlos. La aparición del transistor, que es un dispositivo en estado sólido capaz de adoptar la forma de pequeños paralelepípedos, hizo cambiar la situación en gran medida.

    El transistor surgió en los laboratorios de Bell Telephone en 1948, y se introdujo en los ordenadores en 1958. Las nuevas máquinas fueron más pequeñas y además aumentaron su velocidad de proceso (la velocidad se medía en microsegundos 10-6); sus circuitos eran más sencillos; las memorias se construían con ferrita, lo que permitía reducir el tamaño de la máquina y aumentar su rapidez y capacidad.

    Con el ordenador de esta generación se desarrollaron también almacenamientos secundarios con grandes capacidades, impresoras de alta velocidad y, en general, dispositivos de alta velocidad de transmisión (cintas magnéticas).

    Aparecieron técnicas matemáticas enfocadas a la resolución de problemas haciendo uso del ordenador y los métodos de recuperación de la información se innovaron. Por todo ello, alrededor del ordenador surgió una nueva ciencia: la Informática.

    Además de la sustitución de las válvulas de vacío por transistores, tiene lugar la ampliación de las memorias internas, la generalización del concepto de arquitectura modificable, se usan periféricos de gran masa de memoria como los tambores y discos magnéticos y se reduce el tamaño de los ordenadores. Aparecen los lenguajes ensambladores que traducen las instrucciones del código máquina, llegando a generar ya lenguajes de alto nivel como FORTRAN, COBOL y ALGOL.

    Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.

    Las características de la segunda generación son:

    - Están construidas con circuitos de transistores.

    - Se programan en nuevos lenguajes llamados lenguajes de alto nivel.

    En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

    Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas “programar” (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, “corriendo” el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran.

    Además, para no perder el “programa” resultante había que “guardarlo” (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El software empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario.

    El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema “constante” es que ninguna solución para el uso de los programas es “constante”. Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC.

    Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.

    La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.

    • Tercera generación (1964-1971)

    Esta generación está marcada por la creación del circuito integrado en 1958, los circuitos integrados son del tamaño de los transistores y contienen decenas o centenas de componentes elementales interconectados entre sí. Esto supuso reducir aún más el tamaño de los ordenadores, incrementando el tiempo medio de averías de la unidad central.

    Se progresa considerablemente en la reducción de tamaño y aumento de la velocidad de cálculo, mediante la implementación de diferentes tecnologías de integración de transistores y otros circuitos de estado sólido. Se avanza mucho en software, desarrollando más lenguajes de alto nivel (PL1, BASIC, RPG, APL) y sistemas operativos, se inicia la programación estructurada, se construyen potentes compiladores e intérpretes, se generaliza el uso en las empresas de paquetes de software, bibliotecas de programas y bases de datos; aparecen las técnicas de tiempo compartido y la multiprogramación. Se generalizan los periféricos en la arquitectura de los ordenadores, dotando a los sistemas informáticos de una gran modularidad; se hace uso del teleproceso, de discos flexibles y de lectoras ópticas.

    En este momento es cuando se estructura el mercado de ordenadores constituyéndose las compañías que llegan hasta nuestros días: IBM, Control Data, Nixdorf, Philips, ICL, Bull, Bourroughs (hoy Unisys), NCR, Siemens, Fujitsu, etc.

    Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.

    Las características de esta generación fueron las siguientes:

    - Su fabricación electrónica esta basada en circuitos integrados.

    - Su manejo es por medio de los lenguajes de control de los sistemas operativos.

    La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).

    El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.

    En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.

    En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.

    A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.

    A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compaía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.

    • Cuarta generación (1971-1981)

    Mediante las técnicas de integración a gran escala se produce la revolución del microprocesador; el tamaño de los ordenadores se reduce a una décima parte con respecto a los de la anterior generación, se alcanzan velocidades multiplicadas por factores de 10, 50 y hasta 100, y se llegan a grandes masas de memoria en reducidísimos tamaños; todo ello gracias a la tecnología LSI (gran escala de integración).

    En Silicon Valley, INTEL Corporation produce el primer microprocesador, es decir, un ”chip”, una pieza única de tamaño muy reducido que contiene miles de componentes electrónicos y que pueden realizar cualquier tarea lógica constituyéndose en la unidad central de proceso de un ordenador; inmediatamente después salen al mercado los microprocesadores Z-80, 6800 de Motorola y otros.

    Basándose en los microprocesadores, aparecieron los ordenadores de uso personal: en el número de enero de 1975 de la revista «Popular Electronics» aparecía la descripción de un ordenador que podía comprarse sin armar por 395 $ o que podía obtenerse armado por 650 $; se llamaba «Altair 8800» y estaba basado en el microprocesador 8080 fabricado por la empresa Intel. Su diseñador y constructor era Edward Roberts que fundó una pequeña compañía instalada en un garaje de una casa de Alburquerque, Nuevo México. Roberts se quedó sorprendido del éxito pues sólo esperaba vender unos cientos de Altair y recibió miles de peticiones que no podía atender.

    Otro éxito espectacular en la historia de los negocios en los EE.UU. es la empresa Apple. Poco después de la aparición de Altair dos amigos apasionados por la electrónica, Stephen Wozniak y Steven Jobs, de 25 y 20 años respectivamente, fundaban Apple Computers Company con el exiguo presupuesto que provenía de la venta de un coche y de una calculadora programable y de un pequeño crédito; fabricaron un ordenador del que vendieron unas 175 unidades a unos 500 $ cada una, a pesar de que era un aparato de muy difícil uso pues no tenía teclado ni terminales. En 1977 lanzaron el modelo Apple II que constituyó un rotundo éxito; a finales de 1983 alcanzaron un volumen de ventas de mil millones de dólares.

    En 1981, IBM lanzaba con mucho retraso y mucha cautela, un ordenador personal, el PC (Personal Computer), del cual ese año vendieron ya 35.000 unidades y en 1983, 800.000, situándose en el primer lugar de las ventas de microordenadores para empresa.

    En estos últimos años han aparecido continuamente nuevas máquinas y casi todas las grandes empresas de material electrónico, material de oficina o calculadoras, americanas, europeas o japonesas están tratando de hacerse un hueco en este floreciente pero difícil mercado (muchas empresas de Silicon Valley y otros parques tecnológicos han quebrado por la dura competencia en el sector de las tecnologías de vanguardia).

    Al mismo tiempo que se producía este gran desarrollo de los PC's, se profundizaba en la investigación de los grandes ordenadores y de los superordenadores, como el CRAY-1, diseñado por Seymour R. Cray, que tiene una memoria interna superior a los 8 megabytes y realiza 200.106 operaciones por segundo; el CRAY llega a manejar en ampliaciones de memoria hasta 20 gigabytes. Otros superordenadores son el FALCOM, japonés y el Numerical Aerodinamic Simulation Facility.

    De esta generación cabe destacar también dos grandes momentos: como la aparición del Kenbak-I, los discos Winchister

    La Kenbak I, fue fabricada en 1971 por John Blakenbaker de la Kenbak Corporation de Los Ángeles. Fue construido cuatro años antes de que la Altair fuese lanzada al mercado. Este PC fue dirigido al mercado educacional y contaba con 256 bytes de memoria RAM y su programación se realizaba por medio de palancas (switches). Fue un rotundo fracaso ya que sólo vendieron 40 equipos.

    'Ordenadores'

    Los discos duros Winchister se comenzaron a comercializar en el año 1973, por IBM en los modelos 3340. Se convirtieron en el estándar de la industria. Estaban provistos de un pequeño cabezal de escritura / lectura con un sistema de aire que le permitía movilizarse muy cerca de la superficie del disco.

    • Quita generación (1981-????) - La generación del PC.

    Hoy día existen múltiples proyectos de investigación y experiencias ya realizadas o en curso de realización en el terreno de la Inteligencia Artificial (IA) y de los Sistemas Expertos.

    Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada “revolución informática”.

    En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.

    En 1981 se vendieron 80.000 computadoras personales, al siguiente subió a 1.400.000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.

    Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).

    No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.

    En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.

    Japón lanzó en 1983 el llamado “programa de la quinta generación de computadoras”, con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera, características:

    - Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.

    - Manejo de lenguaje natural y sistemas de inteligencia artificial.

    El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.

    Las siglas PC son el acrónimo de Personal Computer. El ordenador o computadora personal, es un dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros tipos de información.

    En julio de 1980 IBM empezó a desarrollar su propio ordenador personal que se llamó IBM/PC. En agosto se inició formalmente el desarrollo del primer prototipo con nombre código Acorn.

    Para el IBM/PC eligieron un microprocesador de Intel, el 8088 que tenía un bus de 8 bits y una estructura interna de 16 bits, asegurándose de esta manera que el nuevo equipo no compitiera con otros modelos de la empresa, ya que existía otro procesador con un bus de 16 bits.

    Después de encontrar un microprocesador ideal para el ordenador, fueron en busca de un sistema operativo adecuado así que le pusieron un nuevo sistema operativo ideado por ellos, el MS-DOS.

    El 12 de agosto de 1981 IBM lanzó el Personal Computer (IBM/PC), que poseía un microprocesador 8088, 16K de RAM, ampliable a 256K y una unidad de disquetes de 160K. Tenía un monitor de pantalla verde monocromática. En pocos meses se vendieron alrededor de unos 35.000 equipos sobrepasando las expectativas de la empresa.

    Análisis de los primeros ordenadores

    IBM PC

    'Ordenadores'

    Especificaciones: Año 1981

    CPU

    Intel 8088

    RAM

    64k - 512k

    Unidades

    2 unidades de disquete de 5.25”

    Monitor

    Monocromo

    Audio

    Altavoz interno del PC

    Componentes

    5 ranuras de expansión

    1 ranura para teclado

    Commodore VIC-20

    'Ordenadores'

    CPU

    MOS 6502

    RAM

    5 k

    Unidades

    Opcional

    Unidades de disquete

    Monitor

    TV (RF)

    Audio

    VIC

    Componentes

    1 salida de video.

    1 puerto de serie.

    1 puerto para Joystick.

    Apple II

    'Ordenadores'

    CPU

    MOS 6502

    RAM

    4 - 48 k

    Unidades

    Monitor

    Video compuesto

    Audio

    Altavoz interno

    Componentes

    8 Ranuras de memoria.

    1 puerto para Jjoystick.

    PC Convertible - 5140

    'Ordenadores'

    CPU

    Intel 8088

    RAM

    640k

    Unidades

    2 unidades de disquete de 5.25”

    Monitor

    LCD

    Audio

    Altavoz interno.

    Componentes

    1 Bus de expansión.

    1 Puerto de serie.

    1 Puerto en paralelo.

    Análisis de un ordenador actual

    'Ordenadores'

    CPU

    Intel Pentium 4 / AMD K7

    RAM

    512 MB / 1 GB

    Unidades

    1 Disquetera

    1 Unidad lectora de CD-ROM / DVD-ROM

    1 Grabadora CDs / DVDs

    Monitor

    CRT / TFT

    Audio

    2 Altavoces externos.

    Componentes

    1 Bus de expansión, 1 Puerto LPT1, COM

    4 Puertos de USB, 2 Puertos PS/2, …

    Tabla cronológica de grandes momentos del PC

    1981

    ð La empresa estadounidense IBM presenta, el 12 de agosto, el IBM PC. En 1980 la compañía había encargado a un equipo de 12 especialistas el desarrollo de "una máquina que la gente deseara tener"

    1982

    ð La revista Time nombra al IBM PC "hombre del año"

    ð Se fundan las compañías Compaq Computer Corp., Sun Microsystems y Lotus Development Corp

    1983

    ð  IBM lanza el IBM PC XT (Personal Computer width eXtended Technology), segunda generación del PC. Por primera vez un ordenador personal tiene un disco duro como dispositivo estándar

    ð Lotus 1-2-3 se convierte en la primera aplicación para PC. Sus conceptos revolucionarios como los menús y la ayuda interactiva hicieron que fuera un éxito

    ð El PC de Compaq convierte al ordenador personal en un estándar independiente de IBM

    ð La creación del protocolo TCP/IP sienta las bases para el surgimiento de Internet

    1984

    ð Llega el Macintosh de Apple

    ð El PC de IBM es renovado hasta el PC AT. Fue el primer PC en usar un chip 286 de Intel, en sostener un canal de 16 bits y un reloj interno

    ð Sony y Philips introducen el CD-ROM

    1985

    ð Aparece Windows 1.0. La primera versión no gestiona bien el régimen de multitareas, y es muy lento

    ð IBM anuncia el IBM PC Convertible, primer ordenador portátil. Tiene una batería independiente, lo que permite trabajar sin conexión eléctrica. Pesa 5 Kg.

    ð Compaq insta a Big Blue a sacar al mercado un PC basado en un chip de tecnología punta, el 386 de Intel. Cae el liderazgo de IBM en el mercado de los PC

    1987

    ð IBM presenta lo que debía ser el sustituto de DOS, el sistema operativo OS/2 así como la plataforma PS/2, un PC basado en una nueva arquitectura llamada Microcanal. El PS/2 integra una disquetera de 3,5 pulgadas

    1989

    ð Intel lanza el 486 a 25 MHz. IBM es la primera compañía que ofrece un PC con este procesador.

    ð IBM y Microsoft presentan la plataforma Windows

    1990

    ð IBM y Microsoft ponen fin a la cooperación para el desarrollo de sistemas operativos

    ð La compañía de Bill Gates lanza Windows 3.0 con un régimen de multitareas mejorado

    1991

    ð Un estudiante de Helsinki, Linus Torvalds, desarrolla un sistema operativo de tipo UNIX, lo bautiza con su nombre y lo reparte por el mundo. Linux consigue muchos seguidores

    1992

    ð IBM entra en el mercado de portátiles con la gama IBM ThinkPad

    ð Con el nacimiento de la Sound Blaster de Creative Labs, el sonido del PC deja de depender del altavoz del ordenador

    1993

    ð Obligada por una decisión judicial a aceptar que sus competidores puedan llamar sus productos 386, Intel denomina Pentium a su nuevo y potente CPU

    1994

    ð Netscape, inicialmente Mosaic Communications, lanza el navegador de Internet Netscape Navigator 1.0 y lo distribuye libremente como versión beta

    1995

    ð Microsoft pone en el mercado Windows 95. En su comercialización utiliza la canción de los Rolling Stone Start me up (Échame a andar). Windows 95 revoluciona la plataforma

    ð IBM lanza el ThinkPad 701, conocido como butterfly (mariposa), primer portátil con teclado completo. Al abrirlo, el teclado se desplegaba hacia los lados para integrar todas la teclas

    1998

    ð Microsoft pone en el mercado Windows 98, con Internet Explorer incorporado al sistema operativo

    1999

    ð AMD, conocida por sus chips más lentos, pero más baratos, clonados de los de Intel, fabrica su Athlon, que sobrepasa al Pentium III con la misma frecuencia

    ð Aparece el primer dispositivo Wearable PC. Muy funcional y con el tamaño de un libro de bolsillo

    2000

    ð Después de años prometiendo a los consumidores una versión de Windows basada en NT, Microsoft lanza dos programas que no lo son. Windows 2000 es todavía un SO orientado a los negocios. Windows Me no deja de ser más que una versión mejorada de Windows 95

    2001

    ð Microsoft saca la última versión de Windows hasta el momento, el Windows XP (Experience) en dos las versiones para casa (Home Edition) y para empresas (Professional)

    El uso de los computadores se fue expandiendo inicialmente en el trabajo y luego en los hogares. Con desarrollo de programas orientados tanto a adultos como niños y la revolución en cuanto a desarrollo de hardware, el uso de los computadores se ha expandido y popularizado rápidamente.

    En la actualidad existen 500 millones de ordenadores personales en el planeta. Al finalizar el año 2001 la cifra de usuarios de Internet sobrepasaba los 225 millones.

    4. EVOLUCION FUTURA

    Una tendencia constante en el desarrollo de los ordenadores es la micro-miniaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.

    Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.

    Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir, hasta cierto punto, las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes. Las computadoras moleculares podrían llegar a resolver problemas complicados mucho más rápidamente que las actuales supercomputadoras y consumir mucha menos energía.

    Una noticia al respecto publicada el 22/11/2001 es la siguiente:

    Crean un ordenador minúsculo con moléculas de ADN y enzimas naturales Un grupo de científicos, dirigidos por investigadores del Instituto Weizzmann de Ciencias de Israel, ha empleado moléculas biológicas para crear un ordenador enano en una probeta de laboratorio, según publica esta semana la última edición de la revista "Nature". El 'nanoordenador' biológico --cuyo funcionamiento es parecido al de una célula humana y contiene ADN y enzimas naturales--, es tan pequeño que un billón de ordenadores del mismo tamaño puede coexistir y computar en paralelo en una décima parte de un milímetro.

    Impacto social

    Aunque la interacción informática todavía está en su infancia, ha cambiado espectacularmente el mundo en que vivimos, eliminando las barreras del tiempo y la distancia y permitiendo a la gente compartir información y trabajar en colaboración. El avance hacia la 'superautopista de la información' continuará a un ritmo cada vez más rápido. El contenido disponible crecerá rápidamente, lo que hará más fácil encontrar cualquier información en Internet. Las nuevas aplicaciones permitirán realizar transacciones económicas de forma segura y proporcionarán nuevas oportunidades para el comercio. Las nuevas tecnologías aumentarán la velocidad de transferencia de información, lo que hará posible la transferencia directa de 'ocio a la carta'. Es posible que las actuales transmisiones de televisión generales se vean sustituidas por transmisiones específicas en las que cada hogar reciba una señal especialmente diseñada para los gustos de sus miembros, para que puedan ver lo que quieran en el momento que quieran, por lo que el entretenimiento y ocio van a ser otros campos importantes en el futuro de la informática. (ejm: videojuegos).

    ¿Qué es Rhapsody?

    Es un sistema diseñado para ser el sistema operativo del futuro: rápido, moderno, altamente estable:

    · Un poderoso entorno con multitareas, memoria protegida con integradas capacidades para el simétrico multiprocesamiento.

    · Las ventajas del Mac OS junto con la integrada y madura tecnología de comunicaciones y una profunda integración de Java.

    · La tecnología de QuickTime Media Layer será optimizada para Rhapsody, proveyendo a los usuarios con un rico y ventajoso entorno para la creación y reproducción de multimedia.

    · Rhapsody combina la larga tradición de facilidad de uso y el real "plug and play" establecida por Apple, y el entorno kernel de NeXT. Preservará el familiar "míralo y siéntelo" de la actual interfase Mac OS.

    · Un particular interés para eficientizar entornos de grandes corporativos, Rhapsody tendrá la tecnología de NeXT: "Objetos Orientados" y el desarrollo de herramientas para incrementar la productividad en aplicaciones.

    · La parte medular de la arquitectura de Rhapsody es ser nativo al procesador PowerPC. Diseñado para usarse en la mayoría de aplicaciones del Mac OS también la mayoría de las extensiones del sistema trabajarán sin modificaciones. Esta compatibilidad será proveída en una implementación del Mac OS, que incluyen los procesadores 68K y los Power PC, no será una "emulación" para las 68K según ingenieros de Apple, se integrará un nuevo código que aprovechará al poderoso procesador PowerPC desarrollado por IBM, Motorola y Apple, que se encuentra ya en su cuarta generación a velocidades de 300 y 350 Mhz.

    El proyecto integrado a Rhapsody referido como "Yellow Box" será enriquecido en las tecnologías lideres de Apple: QuickTime y ColorSync. Es importante resaltar que "Yellow Box" no será limitado a las aplicaciones PowerPC de Macintosh, sino que podrá tener como fuente aplicaciones en el standard de PC corriendo Windows.

    Otro de los desarrollos de Rhapsody es un poderoso entorno de aplicaciones de "objetos orientados" iniciado por NeXT (la tecnología de objetos orientados es trabajar por unas llamadas "partes" que consiste en usar varios documentos de varias aplicaciones en uno solo, sin necesidad de tener la aplicación en que fueron creados).

    Los ingenieros de Apple tienen planeado integrar estrechamente a Java en Rhapsody - con las librerías de Java y la Java Virtual Machine (VM) dando a Apple el liderazgo en el desarrollo de Java. Una moderna implementación de Mac, microkernel, desarrollado por la Universidad Carnegie Mellon es una nueva generación de entrada y salida de dispositivos (IO), administrador de archivos, intercambio entre aplicaciones y redes. Apple desarrolla un nuevo dispositivo que sustituirá al actual SCSI: el WireFire que transfiere 4MB por segundo.

    Con la llegada de los nuevos Sistemas Operativos el hardware se aprovechará al máximo y se reducirá esa brecha tan grande de rapidez que existe entre el hardware y el software que lo controla. Con estos Sistemas Operativos se llegará a concretar lo que se llama la quinta generación de computadoras, la cual pretende multiplicar la velocidad, disponer procesamientos paralelos, diseñar una arquitectura de hardware-software muy superior y utilizar el lenguaje natural.

    La renovación que aportarán los sistemas operativos es múltiple. Ya no viene determinada únicamente por la introducción de cambios material o de hardware, sino por la combinación de novedades en el material y en la programación.

    El tipo de trabajo propio que realizarán el hardware y software de la quinta generación no solo en el tratamiento de datos, sino en la adquisición de información y, a partir de los materiales y estructuras de que dispone, en la elaboración de conocimientos, es decir, en la elaboración inteligente del saber. Es decir se anuncia el aprovechamiento de la computadora para adquirir conocimientos artificialmente, a través de las máquinas. A partir de esto, estas ya no solo aportarán fuerza o habilidad, sino que también proveerán al hombre de un conocimiento del mundo.

    5. COMPONENTES DEL ORDENADOR

    El ordenador es un dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos o correlacionando otro tipo de información. La parte mecánica se llama hardware y el conjunto de instrucciones software.

    • Hardware: (parte dura, en inglés) son los dispositivos físicos que conectados entre sí forman el ordenador.

    • Software: (parte blanda, en inglés) es el conjunto de programas con las instrucciones para que funcione el ordenador.

    • Periféricos: Sirven para introducir u obtener datos del ordenador. Son los medios para comunicarnos con el ordenador.

    Estructura funcional de la computadora

    Las unidades de entrada, de salida y de almacenamiento reciben el nombre de unidades periféricas, o simplemente periféricos.

    En síntesis se puede decir que el funcionamiento de la computadora se basa en la captura de datos que se van a procesar por medio de alguna unidad de entrada; en su almacenamiento en la unidad central de procesamiento; en la ejecución de un programa que transforma los datos de entrada en resultados, en la comunicación de estos resultados (información) al exterior, por medio de una salida. Tanto la captura de los datos como la salida de información se ejecutan a partir de una unidad de almacenamiento secundario (memoria RAM).

    Los tipos de operaciones relativas al manejo de información que pueden realizarse con una computadora (ordenador) son:

    Entrada de datos: Esta operación es llamada a cabo por el usuario a través de diversos dispositivos; por ejemplo, el ingreso de letras, números, etc. por medio de un teclado, o la introducción de una imagen a través de un scanner.

    Tratamiento de datos: Incluye las operaciones básicas de procesamiento de a información, que son: Ordenamiento, selección, combinación, clasificación y ejecución de cálculos.

    Salida de información: Tras el procesamiento de los datos, se obtienen los resultados buscados. La información se ve, por ejemplo, a través de la pantalla o bien se oye un sonido a través de los parlantes.

    Almacenamiento: Se hace una copia permanente de la información en algún elemento físico, para poder utilizarla nuevamente.

    Recuperación: Se lee la información almacenada en algún medio físico, por ejemplo, cuando se abre un archivo grabado un disquete desde un procesador de textos o cuando se recupera una imagen grabada en un CD - ROM.

    Transmisión: Consiste en la transferencia de información a otra computadora a través de una red de comunicación de datos.

    Recepción: La información procedente de otra computadora llega alna red por medio de alguna conexión por ejemplo, cuando se recibe mensajes a través de correo electrónico.

    UNIDAD CENTRAL (CPU):

    Con este nombre se designa a la caja que contiene el corazón o cerebro del ordenador. Unidad Central o CPU (Unidad Central de Proceso): Es la parte más importante del ordenador. Consiste en un chip (pastilla electrónica) que se encarga de realizar todas las operaciones de control y procesamiento de datos (procesar las instrucciones, realizar los cálculos, manejar la información).

    La caja tiene en su interior una placa madre o también llamada placa base. La unidad denominada microprocesador está situada sobre la placa base, además tiene otra serie de elementos que la ayudan a gestionar la información. El cerebro propio de la CPU es el microprocesador (P), este a su vez en su interior tiene una unidad aritmético lógica (ALU) y la unidad de control (UC).

    CAJA O CHASIS DEL ORDENADOR.

    El chasis es el cuerpo del ordenador (esqueleto) al que van unidos todos los demás componentes del ordenador, a el van sujetos la fuente de alimentación, la placa base o Motherboard (placa madre), las distintas unidades de almacenamiento de datos como son la disquetera, las unidades ópticas y discos duros. También llevan unos indicadores luminosos (LEDs) para mostrarnos el funcionamiento de la CPU y al igual que un pequeño altavoz interno para indicar cualquier funcionamiento concreto por medio de señales sonoras.

    Características de una caja de PC.

    • Caja Semitorre.

    • 6 bahías.

    • 8 ranuras traseras de expansión.

    • Compatible con Intel y AMD.

    • Conexiones USB delanteras integradas.

    • Posibilidad de colocar un ventilador lateral, para una mayor refrigeración.

    FUENTE DE ALIMENTACIÓN

    Básicamente la fuente de alimentación transforma el voltaje de la corriente, de los 220V de la red eléctrica a ±5 y ±12 V que precisan los elementos del ordenador, después rectifica la corriente alterna para conseguir que sea continua tras lo cual la filtra para quitarle el rizado y la estabiliza. Además sirve como elemento de protección del ordenador al incluir un interruptor que permite encender y apagar el ordenador y un fusible que se funde, protegiendo el ordenador, en caso de consumo excesivo y cortocircuito.

    PLACA BASE:

    La placa base destaca por su gran tamaño y se considera el componente principal del ordenador. Puede ser similar a los semáforos porque controla y coordina todos los dispositivos. Contiene la gran mayoría de circuitería impresa e integrada que unirá los diversos dispositivos que en ella se conecten, como pueden ser las tarjetas de sonido, controladoras, tarjetas de vídeo, aceleradoras, memoria, microprocesador...

    Es el soporte sobre el que se instalan los elementos que forman el ordenador. Es una caja cubierta por una carcasa.

    La placa base está formada por un circuito impreso formado por una baquetita y pistas de cobre. Por las pistas circularán la información a los distintos periféricos o elementos montados sobre la placa base. A estas pistas se le denominan buses.

    Distintos formatos de placa base.

    El formato va a determinar la distribución física de los componentes. También define los conectores externos y de que forma se fija a la caja.

    • ATX

    El formato mas conocido es el ATX, esta desarrollado por Intel en el año 95, se supone que permite una mejor ventilación y también menos maraña de cables que su antecesora la BABY-AT.

    El microprocesador se sitúa cerca del ventilador de la fuente de alimentación y los conectores para los discos se sitúan cerca de los extremos de la placa. Las medidas son 305 x 244 mm.

    Las diferencias entre esta y la BABY-AT es que la primera tiene todos los conectores externos agrupados y además el conector del ratón es del tipo mini-DIN.

    Esquema de distribución de la ATX.

    'Ordenadores'

    • Micro ATX.

    Creada en el 99, las dimensiones son mas pequeñas 244 x 244 mm, tiene menos ranuras de expansión y la alimentación mas pequeña.

    • BABY-AT.

    Fue una de las placas estándar, creada en 1989. Tiene posiciones determinadas para el conector del teclado y para los Slots de expansión. El conector eléctrico se encuentra dividido en dos.

    Este modelo fue desechado por la maraña de cables que se forma en su interior, esto influía en la refrigeración del interior de la caja. Por esta causa el microprocesador se calentaba por la falta de movimiento de aire debido a la gran cantidad de cables. El conector del teclado es un DIN ancho (más gordo que en ATX) y además este tipo de placas no presentaba un conector para un periférico de entrada muy importante como es el ratón, para colocar uno debía de conectarse a un puerto serie que, en estas placas AT era muy extraño que viniese integrado, te obligaba a colocar una tarjeta de expansión de un puerto serie.

    Esquema de la BABY-AT.

    • NLX.

    Se encuentra en ordenadores de sobremesa, la característica es que tiene los componentes integrados, además tiene una ranura especial llamada Riser-card, del que sale una pequeña placa donde están las ranuras de expansión.

    La ventaja es su facilidad de mantenimiento y reparación.

    • Diseños propietarios.

    No se ciñe a los estándares.

    Características de una placa actual:

    • Chipset INTEL 845 PE

    • Soporte para tecnología Hyper-Threading

    • AGP 8X

    • Bus Frontal 800 Mhz con Memoria DDR 400

    • Expansión 6 PCI - 0 CNR - 1 AGP 4X - 6 USB 2.0

    • Memoria 3X 184-pin DIMM hasta 2GB DDR SDRAM PC3200/2700/PC2100/PC1600

    • Sistema de sonido AD1980 permite seis canales de audio, incluyendo un canal base central.

    • Integra tarjeta de red 10/100Realtek. 2x Ultra DMA 133.

    Las placas base tiene distintos componentes o elementos:

    • Zócalo de microprocesador

    • Ranuras de memoria.

    • Chipset de control.

    • BIOS.

    • Slots para las tarjetas de expansión.

    • Memoria caché.

    • Conectores externos.

    • Conectores internos.

    • Conector eléctrico.

    Descripción de componentes:

    Zócalo de microprocesador.

    Es el lugar donde insertamos el microprocesador y su misión es conectar eléctricamente las patillas del procesador con la placa. Durante muchos años se insertaban de manera que solo se podía usar ese microprocesador. A partir del Pentium II nos encontramos con conectores con el nombre de Socket, los más conocidos son:

    • PGA: modelo clásico usado hasta los 486 y consiste en un cuadrado donde se insertan las patillas del chip por presión. Este modelo ha sido desechado dado que las patillas del chip son muy sensibles y se pueden romper.

    • ZIF (Zero Insertion Force): no hay que presionar el chip con lo que se daña menos las patillas del micro. Tiene una patilla que se mueve para ajustar el chip.

      • Socket 7: que se usa para microprocesadores AMD K6-2

      • Socket 370: que se usa para Pentium III

      • Socket 473 y 423. usados en Pentium IV.

    Hay algunos zócalos para microprocesadores que son distintos del ZIF:

    • Slot 1: lo creo intel para desmarcarse, era para Pentium II y tenía una forma alargada.

    • Slot A: creado para los procesadores AMD.

    Ranuras de memoria.

    Son donde se introduce la memoria principal del ordenador la RAM. Antiguamente iba soldada a la placa.

    'Ordenadores'

    Antiguamente, los chips de RAM se colocaban uno a uno sobre la placa, de la forma en que aún se hace en las tarjetas de vídeo, lo cual no era una buena idea debido al número de chips que podía llegar a ser necesario y a la delicadeza de los mismos; por ello, se agruparon varios chips de memoria soldados a una plaquita, dando lugar a lo que se conoce como módulo.

    Estos módulos han ido variando en tamaño, capacidad y forma de conectarse; al comienzo los había que se conectaban a la placa mediante unas patitas muy delicadas, lo cual se desechó del todo hacia la época del 386 por los llamados módulos SIMM, que tienen los conectores sobre el borde del módulo.

    Chipset de control:

    Es un conjunto de chips soldados en la placa base que se encargan de controlar determinadas funciones del ordenador, como por ejemplo la forma en la que interactúa el microprocesador con la memoria o como interactúa el microprocesador con la memoria caché, o como se controlan los puertos y slots ISA, PCI, AGP, USB, etc. Realmente es un conjunto de chips que hacen ciertas funciones del microprocesador.

    Antiguamente estas funciones eran relativamente sencillas de realizar y el chipset apenas influía en el rendimiento del ordenador, por lo que el chipset era el último elemento al que se concedía importancia a la hora de comprar una placa base, si es que alguien se molestaba siquiera en informarse sobre la naturaleza del mismo. Pero los nuevos y muy complejos micros, junto con un muy amplio abanico de tecnologías en materia de memorias, caché y periféricos que aparecen y desaparecen casi de mes en mes, han hecho que la importancia del chipset crezca enormemente.

    De la calidad y características del chipset dependerán:

    • Obtener o no el máximo rendimiento del microprocesador.

    • Las posibilidades de actualización del ordenador.

    • El uso de ciertas tecnologías más avanzadas de memorias y periféricos.

    Debe destacarse el hecho de que el uso de un buen chipset no implica que la placa base en conjunto sea de calidad. Como ejemplo, muchas placas con chipsets que darían soporte a enormes cantidades de memoria, 512 MB o más, no incluyen zócalos de memoria para más de 128 ó 256. O bien el caso de los puertos USB, cuyo soporte está previsto en la casi totalidad de los chipsets de los últimos dos años pero que hasta fecha reciente no han tenido los conectores necesarios en las placas base.

    Trataremos sólo los chipsets para Pentium y superior, ya que el chipset de un 486 o inferior no es de mayor importancia (dentro de un límite razonable) por estar en general todos en un nivel similar de prestaciones y rendimiento, además de totalmente descatalogados. Tampoco trataremos todas las marcas, sino sólo las más conocidas o de más interés; de cualquier forma, muchas veces se encuentran chipsets aparentemente desconocidos que no son sino chipsets VIA, ALI o SIS bajo otra marca.

    Hay Chipset para controlar el teclado y el ratón, para controlar el DMA (Direct Memory Access).

    Los Chipset se dividen en dos grupos.

    • North bridge: es el grupo más importante y esta formado por un chip de gran tamaño que esta cubierto por un disipador metálico. Son los encargados de interaccionar con el BUS del sistema, la memoria y el BUS AGP. Es decir interactúan con los componentes que funcionan con una frecuencia más alta y necesitan mayor velocidad. Depende de este conjunto de chips la cantidad de memoria máxima soportada.

    • South bridge: su función es interconectar los dispositivos más lentos como los canales IDE, el BUS ISA y el BUS USB.

    Glosario de términos relacionados

    Resulta muy bonito saber que el chipset soporta esto o aquello, pero si saber qué es esto o aquello no vamos a ningún lado. Los términos más importantes a conocer son:

    • AGP: un tipo de puerto o slot especializado para gráficos 3D.

    • Bus (del sistema): el canal por el que se comunica el micro con la memoria y habitualmente con la caché L2. Cuanto más ancho sea, mejor, especialmente para micros muy rápidos.

    • Caché L2: la caché secundaria o de nivel 2 (level 2). Es la memoria caché externa, que acelera el rendimiento del ordenador; cuanta más memoria RAM tengamos, más caché necesitaremos (por ejemplo, unos 512 KB para 32 MB de RAM).

    • PC100: el tipo normalizado de memoria SDRAM de 100 MHz.

    • RAM cacheable: la cantidad de RAM máxima que es capaz de manejar la caché. Si superamos esta cifra es como si no tuviéramos memoria caché.

    • UltraDMA: una tecnología para los discos duros IDE modernos que la soportan que eleva la transferencia teórica de datos hasta 33,3 MB/s.

    • USB: un tipo de puerto moderno para conectar dispositivos externos de velocidad media-baja, con la ventaja de ser universal (el mismo para todos) y poderse conectar en cadena unos a otros.

    La elección del chipset

    Chipset y placa base forman un conjunto indisoluble y de la máxima importancia, por lo que su compra debe estar acompañada de una cierta reflexión. Lo primero es recordar que un buen chipset sólo no hace una buena placa; si encontramos dos placas con el mismo chipset pero una cuesta el doble que la otra, por algo será (aunque a veces ese algo es simplemente la marca de la placa, por ejemplo las placas Intel, que en general no son tan avanzadas como las Asus, Iwill o Gigabyte pero que cuestan lo mismo o más que éstas...)

    'Ordenadores'

    El chipset Intel® 865PE está diseñado para admitir el procesador Intel® Pentium® 4 con tecnología Hyper-Threading (HT) y agrega inteligencia para ayudar en la administración y asignación de prioridad a los subprocesos múltiples recibidos del microprocesador. La tecnología Hyper-Threading requiere un sistema informático con un procesador Intel® Pentium® 4 compatible con la tecnología HT y un chipset, un BIOS y un sistema operativo habilitados para la tecnología HT. El desempeño variará dependiendo del hardware y software específicos que utilice. Esta solución altamente flexible y escalable satisface una amplia gama de necesidades informáticas exigentes. El chipset 865PE ofrece interfaces de alto ancho de banda, tal como la memoria principal DDR'Ordenadores'
    400 de canal dual, acompañada por un bus de sistema de 800 MHz, una interfaz de gráficos AGP8X, la Arquitectura para comunicaciones fluidas Intel® con una interfaz de Bus de red dedicado (DNB) para Ethernet Gigabit con velocidad de cableado (GbE), dos puertos ATA serie independientes y conectividad USB 2.0 de alta velocidad para garantizar la flexibilidad y el desempeño previstos.

    'Ordenadores'

    Características del chipset Intel® 865PE

    'Ordenadores'

    CARACTERÍSTICAS

    BENEFICIOS

    Bus de sistema de 800/533/400 MHz

    Brinda longevidad al sistema con frecuencias de procesador Intel® más altas y ofrece un mayor ancho de banda del sistema.

    Compatible con la tecnología Intel® Hyper-Threading Technology'Ordenadores'

    Ofrece mayor flexibilidad y rendimiento del sistema.

    Compatibilidad con el encapsulado de procesador de 478 pines

    Compatible con los procesadores de desktop Intel® de alto rendimiento con flexibilidad para admitir otros procesadores Intel de 478 pines.

    Arquitectura de hub Intel®

    Rutas de datos dedicadas que brindan un ancho de banda máximo para aplicaciones con E/S intensa.

    SDRAM DDR'Ordenadores'
    400/333/266 de canal dual

    Tecnología de memoria flexible que permite una amplia gama de uso para DDR desde sistemas de alto rendimiento hasta sistemas más rentables.

    Interfaz AGP'Ordenadores'
    8X

    La interfaz de gráficos de ancho de banda superior permite la actualización a las tarjetas de gráficos más recientes.

    USB'Ordenadores'
    2.0 de alta velocidad integrado

    Ocho puertos que brindan hasta 40x de mayor ancho de banda en comparación con USB 1.1 para una variedad de periféricos de E/S exigentes de alta velocidad.

    Controladores ATA serie independientes duales

    Facilitan la transferencia de almacenamiento de alta velocidad y la actualización de la unidad de disco duro.

    Tecnología Intel® RAID 'Ordenadores'

    Permite el rendimiento de almacenamiento extremo en los discos duros ATA serie.

    Ultra ATA/100

    Aprovecha las interfaces HDD y de unidad óptica existentes en el sector.

    Compatibilidad con los controladores AC '97'Ordenadores'

    El Sonido envolvente Dolby* Digital 5.11, brinda seis canales de calidad de sonido mejorado.

    Arquitectura para comunicaciones fluidas Intel®

    GbE con velocidad de cableado y bus de red dedicado para la conectividad a redes de rendimiento.

    Modo de espera de bajo consumo de energía

    Ahorra energía.

    BIOS

    Sus siglas significan Basic Input Ouput Sistem. La BIOS es en parte un programa que se va a encargar de dar soporte para manejar ciertos dispositivos denominados de entrada y salida. Es una pequeña memoria ROM de tipo CMOS, aquí se almacenan los códigos básicos que requiere el sistema para que el ordenador arranque. Esta memoria está mantenida por una pila que se encuentra en la placa base y que se recarga, para que cuando se apague el ordenador no se borre esta memoria.

    En la BIOS se realiza una serie de pruebas para determinar posibles fallos o problemas en el sistema, son las denominadas pruebas post (Power On Self Test). Estas pruebas son realizadas al arrancar.

    Ahora la BIOS esta implementada en un tipo de memoria FLASH-CMOS que permite una actualización dinámica de la misma.

    Esta pila en realidad en un acumulador que se recarga cuando el ordenador es encendido, posee una tensión de de 3 v se encuentra en la placa base y permite que la configuración de la BIOS se guarde cada vez que apagamos el ordenador, mantiene el reloj en hora, etc.

    Slots para tarjetas de expansión.

    Son ranuras de plástico con conectores eléctricos donde se insertan las tarjetas de expansión. Según su tecnología tienen distinto tamaño y color.

    • Ranuras ISA: son las mas antiguas permiten hasta 16 MB/ sg, que son suficientes para MODEM o sonido pero insuficientes para video. Son de color negro y miden unos 14 cm, las tarjetas son de 8 / 16 bits.

    'Ordenadores'

    • Ranuras VESA: utilizadas en 486 y Pentium I su color es negro y miden 22 cm, al final tienen una terminación de otro color generalmente marrón. Tienen una velocidad muy alta 160 MB/ sg, por lo que se usaron para conectar el adaptador de video al procesador.

    'Ordenadores'

    • Ranuras PCI: su velocidad puede ser de hasta 132 MB/ sg, son de color blanco y tienen una largura de 8.5 cm, las tarjetas son de 32 o 64 bits. Nos permiten configurar los dispositivos por la técnica de plug and play.

    'Ordenadores'

    • Ranuras AGP: (Accelerated Graphics Port; x1, x2, x4, x8) que significa Puerto Grafico Acelerado, es la ranura para conectar tarjetas de video 3D. Según su función pueden tener una velocidad de 264-528 MB/ sg, su tamaño es muy corto unos 8 cm.

    'Ordenadores'

    • Conectores USB: es un elemento que permite conectar más de un dispositivo a la vez.

    Memoria Caché.

    La memoria caché forma parte de la tarjeta madre y del procesador (Hay dos tipos) y se utiliza para acceder rápidamente a la información que utiliza el procesador. Existen caché de primer nivel (L1) y caché segundo nivel (L2). La caché de primer nivel esta definido por el procesador y no lo podemos quitar o poner. En cambio la de segundo nivel se puede añadir a la tarjeta madre. La regla de mano es que si se tienen 8 Megabytes (Mb) de memoria RAM se debe tener 128 Kilobytes (Kb) de caché. Si se tiene 16 Mb son 256 Kb y si se tiene 32 Mb son 512 Kb. Parece que en adelante no se observa mucha mejoría al ir aumentando el tamaño del caché. Los Pentium II tienen de segundo nivel esta incluido en el procesador y este es normalmente de 512 Kb.

    La baza principal de la memoria caché: es muy rápida. ¿Cuánto es "muy rápida"? Bien, unas 5 ó 6 veces más que la RAM. Esto la encarece bastante, claro está, y ése es uno de los motivos de que su capacidad sea mucho menor que el de la RAM. Pero la caché no sólo es rápida; además, se usa con una finalidad específica. Cuando un ordenador trabaja, el micro opera en ocasiones con un número reducido de datos, pero que tiene que traer y llevar a la memoria en cada operación. Si situamos en medio del camino de los datos una memoria intermedia que almacene los datos más usados, los que casi seguro necesitará el micro en la próxima operación que realice, se ahorrará mucho tiempo del tránsito y acceso a la lenta memoria RAM; esta es la segunda utilidad de la caché

    Conectores externos.

    Tipos:

    • Teclado: dos formatos distintos DIM y mini DIM.

    • Puertos de ordenador.

      • Puerto paralelo: conector hembra con 25 pines dispuestos en dos hileras. Suelen ser identificados como LPT1.

      • Puerto serie: conector macho de 9 o 25 pines dispuestos en dos hileras. Suelen ser identificados como COM1, COM2.

      • Puerto VGA: puerto especifico para el monitor, hembra de 15 pines, a veces este puerto viene en la tarjeta porque la placa no lo tiene.

      • Puertos USB: puerto estrecho, se supone que serán los conectores del futuro.

    • Ratón: puerto PS2 similar al mini DIM.

    • Puerto USB: Puesto bus serie universal, este puesto te permite conectar hasta 125 periféricos y con una alta velocidad de transmisión de datos (12 MB/seg.)

    Conectores internos.

    • Canales IDE: suele haber dos canales por ordenador, en cada canal se pueden conectar dos dispositivos.

    • Conector de la disquetera. FDD

    • Conector de la fuente de alimentación.

    • Conector del altavoz.

    • Pulsadores / LEDS.

    Conector eléctrico.

    A través de este conector de 20 pines se alimenta la placa base. Algunos ordenadores son capaces de “suspender” el ordenador. Mantienen la corriente a más baja tensión dejando los discos duros activos y listos para ser usados.

    La fuente le suministra de 3.5 a 5 voltios a la placa base.

    MICROPROCESADOR:

    El microprocesador, o simplemente el micro, es el cerebro del ordenador. Es un chip, un tipo de componente electrónico en cuyo interior existen miles (o millones) de elementos llamados transistores, cuya combinación permite realizar el trabajo que tenga encomendado el chip.

    Los micros, como los llamaremos en adelante, suelen tener forma de cuadrado o rectángulo negro, y van o bien sobre un elemento llamado zócalo (socket en inglés) o soldados en la placa o, en el caso del Pentium II, metidos dentro de una especie de cartucho que se conecta a la placa base (aunque el chip en sí está soldado en el interior de dicho cartucho).

    A veces al micro se le denomina "la CPU" (Central Process Unit, Unidad Central de Proceso), aunque este término tiene cierta ambigüedad, pues también puede referirse a toda la caja que contiene la placa base, el micro, las tarjetas y el resto de la circuitería principal del ordenador.

    Parámetros a tener en cuenta.

  • Velocidad: Se mide en MHz o GHz, nos indica el número de instrucciones que es capaz de procesar por segundo.

    • Velocidad interna: Velocidad a la que funciona internamente el micro va de 200-450 MHz y puede llegar a GHz.

    • Velocidad externa: es la del BUS se denomina FSB. Es la velocidad con la que se comunica el micro con la placa base y siempre es menor que la interna (60-66-100-133 MHz. La cifra por la que se multiplica la velocidad externa para dar la velocidad interna se denomina multiplicador. Ejemplo: un Pentium III tiene 450 MHz de velocidad interna y 100 MHz de velocidad externa el multiplicador seria 4,5.

    • Parámetros dependientes de la velocidad.

      • Frecuencia de reloj: se entiende como la velocidad en MHz. Mediante un cristal que oscila al pasar la corriente eléctrica se proporciona una señal de sincronización que coordina todas las actividades del micro. Cuanto más MHz mas ciclos por unidad de tiempo hará el procesador pero esto no significa que es más potente porque interviene otros factores como las cantidades de operaciones que se hacen por ciclo.

  • BUS: es la vía interna por la que circulan los datos y va a influir en la velocidad real del micro, la eficacia del BUS depende del ancho (numero de carriles) y de su velocidad, esta también se mide en MHz.

  • Coprocesador matemático: a partir de los 486 se incluyen en todos los micros los coprocesadores matemáticos, la velocidad aumenta ya que descarga al procesador central, de realizar las operaciones totalmente matemáticas.

  • Componentes del micro.

    El encapsulado.

    Es lo que rodea a la oblea de silicio en sí, para darle consistencia, impedir su deterioro (por ejemplo por oxidación con el aire) y permitir el enlace con los conectores externos que lo acoplarán a su zócalo o a la placa base.

    Memoria Cache.

    Una memoria ultrarrápida que emplea el micro para tener a mano ciertos datos que previsiblemente serán utilizados en las siguientes operaciones sin tener que acudir a la memoria RAM, reduciendo el tiempo de espera.

    Todos los micros "compatibles PC" desde el 486 poseen al menos la llamada caché interna de primer nivel o L1; es decir, la que está más cerca del micro, tanto que está encapsulada junto a él. Los micros más modernos (Pentium III Coppermine, Athlon Thunderbird, etc.) incluyen también en su interior otro nivel de caché, más grande aunque algo menos rápida, la caché de segundo nivel o L2.

    Unidad Aritmético-Lógica. (UAL)

    Es la parte del micro especializada en los cálculos matemáticos, tanto aritméticos como lógicos. Antes estaba en un chip a parte, a partir de los 486 se incorporar a la micro y es responsable de todo calculo y de la toma de decisiones lógicas.

    Tiene distintos componentes.

    • Registro acumulador: registro de almacenamiento temporal. Es una pequeña área de memoria.

    • Conjunto de circuitos lógicos: realizan la totalidad de las operaciones de la ALU/ UAL.

    • Registro de estado: contiene los diferentes flag que podemos tener como resultado de una operación. Un flag típico es cuando un resultado es negativo, o cuando no hay espacio suficiente para la operación esta es la flag overflou.

    Unidad De Control.

    Gobierna el funcionamientos global del ordenador, es la que va a encadenar automáticamente todas las instrucciones del programa que estamos ejecutando que se encuentra almacenada en la memoria RAM. Además interpreta las instrucciones y envía las órdenes necesarias para el buen funcionamiento de todo el sistema.

    • Registro de instrucción: es el encargado de almacenar la instrucción que se ejecuta. Tiene distintos campos.

    • C. O. (Código de Operación): depende del conjunto de instrucciones que tenga el micro.

    • M. D. (Modo de Direccionamiento): hay hasta 4 MD que son inmediato, directo, indirecto, y relativo.

    • Si hablamos del MD inmediato el dato lo tenemos directamente en el CDE. No vamos a memoria a buscarlo.

    • Si hablamos del directo en el CDE tenemos la dirección de ese dato.

    • Si tenemos el indirecto en el CDE tendré la dirección de la dirección del dato.

    • Si tenemos el relativo vamos a tener una constante que se suma a la dirección de la posición de memoria que tenemos la CDE.

    • CDE (Campo de dirección.). aquí estará la dirección a la que se debe dirigir para encontrar el dato.

      • Registro contador de programa: este registro va a contener la dirección de la siguiente instrucción que se va a ejecutar.

      • Registro de direcciones: se utiliza para almacenar direcciones de memoria donde se pueda leer o escribir datos.

      • Controlador y decodificador: el controlador se encarga de controlar el flujo de instrucciones y decodificador va a recibir a través del BUS de direcciones la información enviada por el contador de programas y se va a encargar de activar la posición de memoria correspondiente.

      Filosofías de fabricación.

      CISC (Complex Instruction Set Computer)

      RISC (Reduced Instruction Set Computer)

      Una instrucción por circunstancia.

      Pequeñas instrucciones.

      Instrucciones complejas.

      Instrucciones simples.

      Lenta ejecución de la instrucción.

      Ejecución rápida de las instrucciones.

      Pocas instrucciones por trabajo

      Varias instrucciones por trabajo específico.

      Historia de los microprocesadores.

      MODELO

      AÑO

      BUS DATOS

      VELOCIDAD EXTERNA

      VELOCIDAD INTERNA.

      8088

      1979

      8bits

      4,77 MHz

      14 MHz

      80286

      1982

      16 bits

      15 MHz

      80386

      1985

      32 bits

      20 MHz

      80486

      1989

      32 bits

      25 MHz

      Pentium 1

      1993

      64 bits

      60 MHz

      Pentium pro

      1995

      64 bits

      66 MHz

      200 MHz

      Pentium II

      1997

      64 bits

      66-100 MHz

      266 MHz

      Pentium III

      1999

      64 bits

      550 MHz

      Pentium IV

      2001

      64 bits

      400 MHz

      2 GHz

      El primer PC lo creo IMB en los 70. Todos los micros se han ido basando en el diseño del 8088.

      El tener 32 bits permite tener un software más moderno.

      El 486 es el primer micro que incorpora el coprocesador matemático y también la mejora que incorpora la memora cache level 1.

      En el 95 pasamos al Pentium pro donde se trabaja la velocidad interna y externa dando un gran salto.

      Grandes avances.

      • Soporte para la memoria virtual, con el 286, el micro puede utilizar parte del disco duro como una memoria RAM.

      • En el 486 se incorporo el coprocesador al micro, la gran ventaja era que las operaciones matemáticas se hacían mas deprisa.

      • Soporte de sistemas multiprocesador.

      Procesadores en el mercado.

      • AMD:

        • ATHLON XP: -1,3 GHz /266 MHz.

        • DURON: 1,3 GHz / 200 MHz.

        • OPTERON: 2 GHz, 128 KB de cache interna.

      • Intel.

        • P IV con tecnología HT. Puede llegar a 3,26 GHz / 800 MHz.

        • ITANIUM 2 - 1,5 GHz / 400 MHz.

      MEMORIA RAM:

      Se denomina memoria a los circuitos que permiten almacenar y recuperar la información. En un sentido más amplio, puede referirse también a sistemas externos de almacenamiento, como las unidades de disco o de cinta. Memoria de acceso aleatorio o RAM (Random Access Memory) es la memoria basada en semiconductores que puede ser leída y escrita por el microprocesador u otros dispositivos de hardware. El acceso a las posiciones de almacenamiento se puede realizar en cualquier orden. 

      'Ordenadores'

      Los chips de memoria son pequeños rectángulos negros que suelen ir soldados en grupos a unas plaquitas con "pines" o contactos. La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o los discos duros, es que la RAM es muchísimo más rápida, y que se borra al apagar el ordenador, no como éstos.

      Hemos de tener muy en cuenta que esta memoria es la que mantiene los programas funcionando y abiertos, por lo que al ser Windows 95/98 un sistema operativo multitarea, estaremos a merced de la cantidad de memoria RAM que tengamos dispuesta en el ordenador.

      En la actualidad hemos de disponer de la mayor cantidad posible de ésta, ya que estamos supeditados al funcionamiento más rápido o más lento de nuestras aplicaciones diarias. La memoria RAM hace unos años era muy cara, pero hoy en día su precio ha bajado considerablemente.

      Hay un buen número de modalidades de memoria RAM y otros tantos tipos de memoria dotadas con características especiales que les permiten cumplir determinadas funciones dentro del PC. Hoy en dia, la mayoría de componentes y periféricos incorpora algún tipo de memoria. Esta afirmación podría llegar a hacerse extensible a cualquier aparato o electrodoméstico que contenga una mínima cantidad de electrónica para su funcionamiento, como por ejemplo los televisores, las lavadoras e, incluso los automóviles.

      Algunos términos referentes a las memorias.

      • Velocidad y frecuencia.

      La velocidad de los procesadores o los buses de datos puede verse reflejada en su frecuencia de funcionamiento. Las memorias expresan su velocidad en nanosegundos, magnitud que representa la billonésima parte de un segundo.

      Para apreciar la instantaneidad de un ns puede tomarse, como referencia, la velocidad de la luz en el vacío, 300.000 kilómetros por segundo aproximadamente. En un nanosegundo un rayo de luz sólo recorre 29,98 cm. Para comparar la velocidad de la memoria (tiempo que emplea cada ciclo), con la frecuencia de reloj (número de ciclos que pueden ejecutarse por segundo), debe hacerse un pequeño cálculo consistente en dividir 1 segundo por la frecuencia. Cuando se aumenta la frecuencia del reloj disminuye el tiempo invertido por ciclo. La frecuencia del microprocesador no determina la velocidad que ha de soportar la memoria.

       

      Calcular la velocidad óptima de la memoria para una frecuencia de comunicación determinada no es tan fácil como puede parecer en el ejemplo. El proceso para que la memoria transfiera un dato se divide en dos fases. En la primera, se localiza la posición de la memoria, facilitando las coordenadas dentro de la rejilla en que se disponen las celdas de información para, a continuación transferir la información.

      • Latencia.

      El tiempo que se consume durante la preparación inicial necesaria para localizar la dirección de memoria se conoce como latencia. En consecuencia, el tiempo real de acceso a la memoria, es el resultado de la suma de la latencia y el tiempo por ciclo. Por ejemplo, que un módulo de memoria indique un tiempo de acceso de 60 ns significa que tiene una latencia de unos 25 ns y un tiempo por ciclo de 35 ns.

       

      El aumento de frecuencia de los buses de datos y de los procesadores ha favorecido la continua aparición de memorias RAM que hacen servir técnicas diferentes para alcanzar accesos de memoria mucho más rápidos.

      • Ciclo de refresco.

      Llamamos ciclo de refresco al tiempo que necesita el procesador para acceder a todas las direcciones de memoria para actualizar su contenido y no perderlo. Un ciclo de refresco de memoria puede emplear varios ciclos del microprocesador.

      • Paridad.

      Otro importante concepto, la paridad; se trata de una técnica empleada también en las comunicaciones serie y que persigue garantizar la integridad de los datos. Consiste en añadir a la memoria un bit adicional (el bit de paridad) por cada x número de bits de datos. Así es posible comprobar si hay algún error en la información; ¿y cómo diferenciar las memorias con paridad de las que no la implementan? Basta con contar el número de chips que el módulo SIMM posee; si es un número impar (3 ó 9), se trata de un módulo con paridad. Si el número es par (2 u 8) el SIMM no la incluye. Este asunto es importante, puesto que a la BIOS del PC hay que indicarle a través del Setup, si debe efectuar comprobación de paridad o no, siendo ésta una posible fuente de problemas en caso de mala configuración. Normalmente, los SIMM dotados de paridad suelen ser más caros que los que no la llevan, aunque es importante comentar que las placas para Pentium no incorporan esta técnica, de ahí que toda la memoria que puede verse en estos ordenadores carezca de chip de paridad.

      • Ecc (Error chechick and correcting).

      Siguiendo con el tema de la fiabilidad de la información, nos encontramos con otro concepto poco conocido, y es el ECC; las memorias ECC (Error Checking and Correction) son capaces de detectar y corregir errores de memoria ellas mismas, sobre la marcha, lo que les hace aportar al sistema una gran fiabilidad y seguridad, de ahí que sean usadas sobre todo en servidores de red y estaciones de trabajo donde la fiabilidad y robustez sean parámetros vitales.

      SIMMs , DIMMs , SODIMMs, RIMMs.

      Se trata de la forma en que se juntan los chips de memoria, del tipo que sean, para conectarse a la placa base del ordenador. Son unas plaquitas alargadas con conectores en un extremo; al conjunto se le llama módulo de memoria.

      El número de conectores depende del bus de datos del microprocesador, que más que un autobús es la carretera por la que van los datos; el número de carriles de dicha carretera representaría el número de bits de información que puede manejar cada vez.

      Tipos de módulos de memoria:

      • SIMMs: Single In-line Memory Module, con 30 ó 72 contactos. Los de 30 contactos pueden manejar 8 bits cada vez, por lo que en un 386 ó 486, que tiene un bus de datos de 32 bits, necesitamos usarlos de 4 en 4 módulos iguales. Miden unos 8,5 cm (30 contactos) ó 10,5 cm (72 contactos) y sus zócalos suelen ser de color blanco.

      Los SIMMs de 72 contactos, más modernos, manejan 32 bits, por lo que se usan de 1 en 1 en los 486; en los Pentium se haría de 2 en 2 módulos (iguales), porque el bus de datos de los Pentium es el doble de grande (64 bits).

      • DIMMs: Dual In-line Memory Module, más alargados (unos 13 cm), con 168 contactos y en zócalos generalmente negros; llevan dos muescas para facilitar su correcta colocación. Pueden manejar 64 bits de una vez, por lo que pueden usarse de 1 en 1 en los Pentium o Pentium II. Existen para voltaje estándar (5 voltios) o reducido (3.3 V).

        ð SODIMM :La memoria que utilizan comúnmente las computadoras laptop y portátiles se le llama SODIMM (Small Outline DIMM). El SODIMM es muy parecido a la memoria SIMM pero con dimensiones más pequeñas y diferencias técnicas importantes. El SODIMM también da soporte para transferencias de 32 bits. All Service cuenta con memoria SODIMM para la mayoría de computadoras portátiles.

        ð RIMM: Es el usado para la DRDRAM, es un tipo de memoria de 64 bits, que puede conseguir ráfagas de 2 ns, picos de 1,6 Gbytes por segundo (GB/s) y un ancho de banda de hasta 800 MHZ. Con estas memorias se agilizan todas las transferencias de información dentro del equipo que desgraciadamente hoy producen continuamente cuellos de botella en los sistemas.

      Distintos tipos de memoria RAM

      • Memoria RAM dinámica (DRAM).

      Utiliza condensadores para construir una matriz de celdas. Los condensadores tienen un problema y es que necesita que se refresque la información. El tiempo de refresco es el tiempo en el que los condensadores cogen energía para mantener la información. En este tiempo no se puede hacer nada en la memoria; ni leer, ni escribir. El chip MMC se encarga de realizar este refresco.

      Tiene un diseño más simple que la SRAM, necesita menos espacio y es más económica.

      Distintos tipos en el mercado.

      • DRAM (Dynamic Random Access Memory): esta memoria es la más antigua, también llamada RAM, esta organizada en direcciones que son reemplazadas muchas veces por segundo. Esta memoria llegó a alcanzar velocidades de 80 y 70 nanosegundos (ns), esto es el tiempo que tarda en vaciar una dirección para poder dar entrada a la siguiente, entre menor sea el número, mayor la velocidad, y fue utilizada hasta la época de los equipos 386.

      • FPM (Fast Page Mode): El nombre de esta memoria procede del modo en el que hace la transferencia de datos, que también es llamado paginamiento rápido. Hasta hace aproximadamente un año ésta memoria era la más popular, era el tipo de memoria normal para las computadores 386, 486 y los primeros Pentium®, llegó a fabricarse en velocidades de 60ns y la forma que presentaban era en módulos SIMM de 30 pines, para los equipos 386 y 486 y para los equipos Pentium® era en SIMM de 72 pines.

      • EDO (Extended Data Output): Esta memoria fue una innovación en cuestión de transmisión de datos pudiendo alcanzar velocidades de hasta 45ns, dejando satisfechos a los usuarios. La transmisión se efectuaba por bloques de memoria y no por instrucción como lo venía haciendo las memorias FPM. Se utiliza en equipos con procesadores Pentium®, Pentium Pro® y los primeros Pentium II®, además de su alta compatibilidad, tienen un precio bajo y es una opción viable para estos equipos. Su presentación puede ser en SIMM ó DIMM.

      'Ordenadores'

      • SDRAM (Synchronous DRAM): Esta memoria funciona como su nombre lo indica, se sincroniza con el reloj del procesador obteniendo información en cada ciclo de reloj, sin tener que esperar como en los casos anteriores. La memoria SDRAM puede aceptar velocidades de BUS de hasta 100Mhz, lo que nos refleja una muy buena estabilidad y alcanzar velocidades de 10ns. Se presentan en módulos DIMM, y debido a su transferencia de 64 bits, no es necesario instalarlo en pares.

      • PC166 - 166 MHz - 6 ns

      • PC100 - 100 MHz - 10ns

      'Ordenadores'

      • DDR-RAM (Double Data Rate). Doble entrada de datos, nos permite transmitir el doble de datos para una misma frecuencia de trabajo.

      • PC277 - 166 MHz - 333 MHz.

      • PC2400 - 150 MHz - 300 MHz.

      • RDRAM (Rambus): Esta memoria tiene una transferencia de datos de 64 bits que se pueden producir en ráfagas de 2ns, además puede alcanzar taza de transferencia de 533 Mhz con picos de 1.6Gb/s. Muy pronto alcanzará dominio en el mercado, ya que se estará utilizando en equipos con el nuevo procesador Pentium 4®. Es ideal ya que evita los cuellos de botella entre la tarjeta gráfica AGP y la memoria del sistema, hoy en día se pueden encontrar éste tipo de memorias en las consolas NINTENDO 64®. Será lanzada al mercado por SAMSUNG® e HITACHI®.

      'Ordenadores'

      • Memoria RAM estática (SRAM).

      Va ha tener un coste más alto y va a se más rápida pero también va a ocupar más espacio que la dinámica. Esto es debido a la forma de que cada celda son 6 transistores y no necesita ser refrescada tan a menudo como la dinámica. Se utiliza para complementar la memoria caché.

      • ASYINC SRAM: procedente del 386 y 486 hasta Pentium (20 - 12 ns de acceso).

      • SYINC SRAM (sincronizada).

      • PB SRAM (4,8ns).

      Funciona a ráfagas, da la sensación de que se solapan las operaciones.

      • Otros tipos de memoria RAM

      BEDO (Burst Extended Data Output): Fue diseñada para alcanzar mayores velocidades de BUS. Trabaja de igual forma que la SDRAM, ó sea, la transferencia de datos se hace en cada ciclo de reloj, pero esta memoria lo hace en ráfagas (burst), haciendo que los tiempos de entrega desaparezcan casi totalmente.


      DDR SDRAM (Double Data Rate SDRAM ó SDRAM-II): Esta memoria tendrá el mismo aspecto que un DIMM, pero la diferencia estará en que tendrá más pines, pasando de 168 pines del actual DIMM a 184 pines, además de tener sólo una muesca en la tableta. Viendo un poco de voltaje, la DDR trabajará con tan sólo 2.5V, siendo ésta una reducción del 30% respecto a los actuales 3.3V de la SDRAM. Trabajará a velocidades de 200Mhz.


      VRAM: Es como la memoria RAM normal, pero la diferencia reditúa en que podrá ser accedida al mismo tiempo por el monitor y el procesador de la tarjeta de video, se podrá leer y escribir en ella al mismo tiempo.


      SGRAM (Synchronous Graphic RAM): Ofrece las mismas capacidades de la memoria SDRAM pero para las tarjetas gráficas, se utiliza en las nuevas tarjetas gráficas aceleradoras 3D.

      Como podemos apreciar, hablar de memoria no es fácil y su campo no es limitado, al contrario al igual que todas las tecnologías va avanzando día a día, y si alguna vez pensamos que hablar de memoria es algo básico, con esto nos podemos dar cuenta que memoria no es sólo una tableta con chips soldados, es toda una tecnología que esta al día, al igual que toda la tecnología computacional.

      MEMORIA ROM:

      Son memorias RAM que no han conservado su nombre original. Las diferencian de las RAM en que estas son memorias de solo lectura, es decir, no se puede escribir en ellas. Estas memorias suelen utilizarse para grabar los programas de arranque del sistema y los parámetros constantes del mismo.

      ROM O MROM (MASK ROM): Estas memorias se graban en el proceso de fabricación mediante máscaras litográficas, como si se tratase de un circuito integrado normal.

      PROM: De capacidad inferior a la MROM es semejante a la misma cuyas conexiones son pequeños fusibles que pueden ser fundidos mediante un sencillo programador de laboratorio. Al ser grabadas mediante la fundición de los fusibles que forman las conexiones internas de la memoria solo pueden ser grabadas una vez.

      EPROM (Erasable & Programmable Read-Only Memory): Es una ROM borrable y programable. Puede ser grabada y programada gracias a un programador y un borrador de laboratorio.

      Estas memorias se construyen con un tipo especial de transistor MOS, el FAMOS. Los Datos grabados pueden durar durante mas de 10 años, ya que la puerta está perfectamente aislada por el material envolvente, por lo que no se descarga.

      Para borrar la memoria es necesario hacer conductor el material envolvente a la memoria. Esto se consigue introduciendo la memoria en el grabador donde es sometida a radiaciones ultravioletas.


      EEPROM (Electrically Erasable Programmable Read-Only Memory): Son EPROM borrables eléctricamente, por lo que no requieren ser sacadas del equipo como las anteriores. Se utilizan en equipos que requieren una reprogramación continua, o como almacenamiento de datos. Además de pueden borrar completamente o por bloques de memoria o bytes y no necesitan tensiones elevadas para reprogramarse pues con 5 voltios es suficiente pero al ser su estructura mas complejas también son mas caras.


      MEMORIA FLASH: Es un tipo de memoria EEPROM que es reprogramable, su utilización por lo regular es en BIOS de ahí su nombre.

      DISCO DURO

      Los discos duros constituyen la unidad de almacenamiento principal del ordenador, donde se almacenan permanentemente una gran cantidad de datos y programas. Constituyen la memoria de almacenamiento masivo.

      Esta información que almacena no puede ser procesada directamente por el microprocesador sino que, en un paso previo, deben transferirse a la memoria centrar (RAM) donde pueden manejarse.

      Las unidades de los discos duros contienen 2 o más discos (platillos) apilados sobre un eje central y aislados completamente del exterior. Las primeras y antiguas unidades almacenaban del orden de 10 a 20 Mbytes y las actuales pues cada vez aumentan más pero no bajan de los 4 Gbytes.

      'Ordenadores'

      Todo disco duro esta compuesto por uno o varios discos magnéticos (también llamados platos magnéticos), una o varias cabezas lectoras/grabadoras, un motor de giro y una circuitería interna que manipula estos elementos.

      Suponiendo que los discos duros solamente tuviesen un solo disco magnético y dos cabezas, su funcionamiento sería similar al de un disquete. Al encender el equipo, la corriente de 12 voltios que le suministra la fuente de alimentación del PC hace girar el motor de giro del plato magnético y posiciona las cabezas justo al principio de éste. Es básicamente igual que cuando colocamos un disco en el tocadiscos de la cadena de música y colocamos la aguja en el comienzo de su superficie. En el momento en el que el PC necesitar realizar cualquier operación de lectura o escritura, envía la orden a la circuitería del disco duro, la cual mueve las cabezas al lugar exacto donde se encuentra la información a recuperar o, en caso de tener que grabar algo, mueve las cabezas al lugar del disco duro donde hay espacio libre disponible.

      ESQUEMA DE UN CORTE LATERAL DE UN DISCO DURO, DE UN SOLO DISCO MAGNÉTICO Y 2 CABEZAS

      'Ordenadores'

      1. TAPA DEL DISCO DURO
      2. MOTOR DE GIRO DEL DISCO MAGNÉTICO
      3. DISCO MAGNÉTICO
      4. CABEZAS LECTORAS/GRABADORAS
      5. EXTREMO GRABADOR DE LAS CABEZAS
      6. MOTOR DE MOVIMIENTO DE LAS CABEZAS
      7. CIRCUITERÍA CONTROLADORA DEL DISCO DURO

      Características del disco duro.

    • Capacidad de almacenamiento: Distinta dependiendo del tipo de dispositivo.

    • Velocidad de rotación: es la velocidad a la que gira el disco duro, es la velocidad a la que giran los platos del disco que es donde realmente se almacenan magnéticamente los datos. Se rigen por la siguiente regla : a mayor velocidad de rotación mayor velocidad de transmisión pero también genera mas ruido y también mas calor que se genera. Este parámetro se mide en RPM (IDE- 5400 rpm y SCSI 7200 rpm).

    • Tiempo de acceso: tiempo medio necesario que tarda la cabeza del disco en acceder a los datos que necesitamos va a ser la suma de 3 tiempos: el tiempo que tarda el disco en cambiar de una cabeza a otra, el tiempo que tarda la cabeza en encontrar la pista, y por ultimo, el tiempo que tarda la cabeza en buscar el sector. Es un parámetro importante. El tiempo de acceso normal es 10 ms.

    • Memoria cache: es una memoria que va incluida en la controladora interna del disco duro, de modo que los datos que se leen o se escriben se almacenan primero en esta memoria. Para <1 GB- 128 KB, para <2 GB-128 KB, para >2 GB- 512 KB.

    • Tasa de transferencia: este numero indica la cantidad de datos que un disco puede leer o escribir en la parte mas externa del disco en un periodo de un segundo. Este valor se mide en Mbits por segundo (± 100 Mbits por segundo).

    • Tipo de interfaz: no solo se encargan de la transferencia de datos, además controla las operaciones de entrada-salida, de información desde y hacia los periféricos o unidades de disco. Por eso algunas veces también se les denomina controladores de disco. Existen dos tipos.

      • IDE: es mas barato que el segundo tipo (SCSI), tiene la controladora integrada en la unidad y viene implementado en el Chipset de control de la placa. Se distribuyen en canales. El modo de transferencia se basa en el estado ATA, cada estándar nos va a marcar la tasa de transferencia máxima. Los modos que se utilizan son los ultra- DMA que aparecieron con la norma ATA-4. Los modos DMA tienen la ventaja que liberan al procesador de gran parte del trabajo de transferencia de datos. La diferencia entre DMA y ultra- DMA es que en este ultimo se mandan el doble de datos por cada ciclo, gracias a esto se ha logrado con cables IDE de 80 conductores tasas de transferencia próximas a los 133 Mbits/ s, incorpora también el tema de corrección de errores (CRC), la norma más actual es la ATA-6 (ATA-100 que es lo mismo) donde la tasa de transferencia máxima es de 100 Mbits / s. Los cables pueden ser de dos tipos:

        • 40 pines: se utilizaron hasta la especificación de ATA-33 consiguiendo como tasa de transferencia de 33 Mbits / s.

        • 80 pines: nos permiten llegar hasta la norma ATA-6 tienen distinto color. El que va a la placa base es azul y el que va al dispositivo maestro es negro y el gris para el esclavo.

      • SCSI: Small Computer Sistem Interface, la tasa de datos es mucho mas alta que con el interfaz IDE, sin que el micro realice apenas trabajo. Otra ventaja es que aunque tengamos varios dispositivos en el mismo cable transfieren al mismo tiempo. Normalmente la controladora no viene en los Chipset, hay que meter una tarjeta para que funcione como controladora. Hay dos tipos:

        • 8 bits: nos permite instalar 7 dispositivos y los cables son de 50 pines, cada dispositivos tiene un numero único que es identificador dentro de la cadena.

        • 16 bits: nos permite instalar 15 dispositivos y los cables son de 68 pines, a partir de 80 Mbits segundo.

      DISQUETERA

      Refiriéndonos exclusivamente al mundo del PC, en las unidades de disquete sólo han existido dos formatos físicos considerados como estándar el de 5 1/4 y el de 3 1/2.

      En formato de 5 1/4, el IBM PC original sólo contaba con unidades de 160 KB., esto era debido a que dichas unidades sólo aprovechaban una cara de los disquetes. Luego, con la incorporación del PC XT vinieron las unidades de doble cara con una capacidad de 360 KB. (DD o doble densidad), y más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 MB.

      El formato de 3 1/2 IBM lo impuso en sus modelos PS/2. Para la gama 8086 las de 720 KB. (DD o doble densidad) y para el resto las de 1,44 MB. (HD o alta densidad) que son las que hoy todavía perduran.

      En este mismo formato, también surgió un nuevo modelo de 2,88 MB. (EHD o Extra alta densidad), pero no consiguió cuajar.

      Estos son los más comunes y baratos, cuyas características se describen en la siguiente tabla:

       TIPO DE DISCO

      DOBLE DENSIDAD KB

      ALTA DENSIDAD MB

      'Ordenadores'
      5 ¼"

      360

      1.2

      'Ordenadores'
      3 ½"

      720

       1.4

      UNIDADES ÓPTICAS

      El disco compacto digital, llamado CD-ROM en informática, por aquello de que su información esta memorizada para lectura solamente (Read Only Memory), es un dispositivo metálico recubierto de plástico transparente, de 12 centímetros de diámetro, usado para reproducir música y datos de computador por medio de un fino rayo de luz láser. Aunque musicalmente se utiliza para almacenar una pocas canciones, para un total de 72 minutos de reproducción, la verdad es que en dicho disco se puede almacenar muchísima mas información, tanto como el equivalente a una enciclopedia de mas de 26 tomos, con texto, fotos, voces, etc.

       Un disco CD-ROM puede almacenar 650 MB de datos digitales (aproximadamente 450 disquetes de 1,44 MB) y hasta mas del doble si comprimimos la información. En CD-ROM se consiguen actualmente los programas para computador que son muy extensos, además de juegos animados, bases de datos medicas, etc.

      También se consiguen discos CD en blanco para ser grabados por el usuario con cualquier tipo de información, incluyendo música. Para ello se requiere tener un aparato grabador de CD´s, el cual se conecta al computador. Es muy similar al lector de CD, pero lo que varia es el precio. 

       

      El microprocesador que decodifica los impulsos eléctricos es la diferencia principal entre los reproductores de compactos de música y datos. Los CD´s de audio convierten la información digital que esta guardada en el disco en señales analógicas para que las procese un amplificador estéreo. En este esquema se permite algo de imprecisión, debido a que seria virtualmente imposible oírla en la música. Sin embargo, los CD-ROM no pueden tolerar ninguna imprecisión. Cada bit de datos debe ser leído exactamente como esta. Por ésta razón, los CD-ROM tienen una gran cantidad de información ECC adicional escrita en el disco. El ECC puede usarse para detectar y corregir la mayoría de los errores pequeños, mejorando la confiabilidad y precisión a niveles que son aceptables para el almacenamiento de datos.

      Las unidades de CD-ROM trabajan de la siguiente manera:

       

      1. El diodo láser emite un rayo infrarrojo de baja energía hacia un espejo.

       

      2. El servomotor, bajo el mando del microprocesador, coloca al rayo en la pista correcta del CD-ROM moviendo el espejo.

       

      3. Cuando el rayo llega al disco, la luz refractada es recolectada y enfocada por medio del primer lente que esta bajo el plato, es reflejada en el espejo y enviada hacia el divisor de rayo.

       

      4. El divisor de rayo dirige la luz láser que regresa hacia otro lente de enfoque.

       

      5. El último lente dirige el rayo de luz hacia un fotodetector que convierte la luz en impulsos eléctricos.

       

      6. Estos impulsos son decodificados por el microprocesador y enviados a la computadora como datos.

       

      Los huecos que fueron grabados en el CD-ROM varían en longitud. El rayo de luz reflejado cambia de intensidad cuando cruza de un área de valle a un área de hueco. La señal eléctrica correspondiente del fotodetector varía con la intensidad de la luz reflejada. Los bits de datos son leídos como las transiciones entre señales altas y bajas, que son grabadas físicamente al inicio ya la final de cada área de hueco.

      Debido a que un solo error de bit puede ser desastroso en un archivo de programas o de datos, se utilizaban amplios algoritmos de detección y corrección de errores. Estas rutinas permiten que la probabilidad de un error no detectado sea menor de 1 en 1025. En términos más físicos, esto significa que podría haber solo un error no detectado en 2 cuatrillones de discos.

      TARJETAS GRÁFICAS:

      Una tarjeta de video proporciona las señales que operan tu monitor. Con los sistemas PS/2 introducidos en 1987, IBM desarrolló nuevos estándares de video que han superado a los antiguos en cuanto a popularidad y soporte.

      Las tarjetas de video siguen algunos de los diferentes estándares de la industria:

       

      *MDA: Adaptador de pantalla monocromática.

      *CGA: Adaptador de gráficos a color.

      *MCGA: Arreglo grafico multicolor.

      *EGA: Adaptador de gráficos ampliado.

      *VGA: Matriz de gráficos de video.

      *XGA: Arreglo de gráficos extendido.

      *Aceleradores 3D: Acelerador de gráficos a tercera dimensión.

       

      Estos adaptadores y estándares de video son manejados por prácticamente todos los computadores. También se están desarrollando otros sistemas dentro de los estándares de facto. Por ejemplo, el SVGA ofrece diferentes resoluciones de distintos distribuidores, aunque la resolución de 1.024 x 768 se esta convirtiendo en la resolución estándar para realizar trabajo detallado. Para trabajar con esta resolución se debe tener un monitor con tamaño mínimo de 14´(pulgadas).

      La mayoría de los monitores de microcomputadores manejan por lo menos un estándar de video, permitiéndole operarlos con tarjetas de video y software que sean compatibles con el estándar. Por ejemplo, un monitor que maneja VGA podría operar con tarjetas de video y software VGA.

       

      Memoria de video:

      Una tarjeta de video depende de la memoria para dibujar la pantalla. A menudo puedes seccionar cuanta memoria deseas en tu tarjeta de video. La mayoría de las tarjetas de video vienen con por lo menos 4 MB y por lo regular tienen 8 MB. Agregar más memoria no acelera tu tarjeta de video; en vez de ello, permite que la tarjeta genere más colores y resoluciones más altas.

      La cantidad de memoria que necesita un adaptador de video para exhibir una resolución y profundidad de color particular es una ecuación matemática. Debe haber una ubicación de memoria que se usa para exhibir cada punto o píxel en la pantalla, y el número total de puntos esta determinado por la resolución. Por ejemplo una resolución de 1.024 x 768 representa 786.432 puntos en la pantalla.

      Si se emplea esta resolución con solo 2 colores, únicamente necesitarías 1 bit para representar cada punto. Si el bit fuera 0, el punto seria negro, y si fuera 1, el punto seria blanco. Si utilizas 4 bits para controlar cada punto, podrías exhibir 16 colores, ya que hay 16 combinaciones posibles con un numero binario de 4 dígitos (2 a la cuarta potencia es igual a 16). Si multiplicas el número de puntos por el numero de bits requeridos para representar a cada punto, tendrás la cantidad de memoria requerida para exhibir esa resolución. La siguiente es la forma en que funcionaría en cálculo:

       

      1.024 x 768 

      =

      786.432 puntos x 4 bits por punto

      =

      3.145.728 bits

      =

      393.216 bytes

      =

      384 KB

       

      Para exhibir solo 16 colores a una resolución de 1.024 x 768 requeriría exactamente 384 KB de RAM para la tarjeta de video. El aumentar la profundidad de 8 bits por píxel da como resultado 256 colores posibles, y un requerimiento de memoria de 786.432 bytes o 768 KB.

      Si deseas incluir a tu PC un sistema de video profesional, debes optar por un acelerador 3D de alta capacidad. La mejor del mercado es la Creative y la Diamont. También existen unas con procesador independiente desarrollas por la Intel, las cuales tienen salida de video y TV.

      TARJETAS DE SONIDO:

      En un principio, las tarjetas de sonido en el mercado se utilizaban solo para juegos. Diversas compañías incluyendo AdLib y Creative Labs introdujeron productos finales de los ochenta. En 1989, Creative Labs presentó el Game Blaster, que proporcionaba sonido estéreo a unos cuantos juegos de computadora. La pregunta de muchos era "¿Por qué pagar 100 dólares por una tarjeta que agrega sonido a un juego de 50?" Y más importante aun, como en ese tiempo no existían estándares de sonido, una tarjeta de sonido determinada podía ser inútil para otros juegos.

       Unos meses después de liberar Game Blaster, Creative Labs anunció la tarjeta de sonido Sound Blaster. Esta tarjeta era compatible con la tarjeta de sonido AdLib y con la propia tarjeta Game Blaster de Creative Labs. Incluía una entrada para micrófono y una interfaz MIDI para conectar un sintetizador a la PC. Por fin, la tarjeta de sonido tenía usos distintos a los de los juegos.

      Se demostró que la tarjeta de sonido tenia muchos usos, de los cuales se mencionan:

       

      *Agregar sonido estéreo a programas de entretenimiento (juegos).

      *Aumentar la efectividad del software educativo, en particular para los niños pequeños.

      *Incorporar efectos de sonido a presentaciones de negocios y software de capacitación.

      *Crear música por medio de hardware y software especializado.

      *Agregar anotaciones de voz en los archivos.

      *Agregar efectos de sonido a eventos del sistema operativos

      *Habilitar una PC para que lea.

      *Habilitar el uso de la PC por individuos discapacitados.

      *Reproducir CD´s.

      Aunque las dos funciones principales de estas tarjetas son la generación o reproducción de sonido y la entrada o grabación del mismo. Para reproducir sonidos, las tarjetas incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura programación; sin embargo, una técnica relativamente reciente ha eclipsado a la síntesis FM, y es la síntesis por tabla de ondas (WaveTable). En WaveTable se usan grabaciones de instrumentos reales, produciéndose un gran salto en calidad de la reproducción, ya que se pasa de simular artificialmente un sonido a emitir uno real. Las tarjetas que usan esta técnica suelen incluir una memoria ROM donde almacenan dichos "samples"; normalmente se incluyen zócalos SIMM para añadir memoria a la tarjeta, de modo que se nos permita incorporar más instrumentos a la misma.

      Una buena tarjeta de sonido, además de incluir la tecnología WaveTable, debe permitir que se añada la mayor cantidad posible de memoria. Algunos modelos admiten hasta 28 Megas de RAM (cuanta más, mejor).

      Efectos:

      Una tarjeta de sonido también es capaz de manipular las formas de onda definidas; para ello emplea un chip DSP (Digital Signal Processor, Procesador Digital de Señales), que le permite obtener efectos de eco, reverberación, coros, etc. Las más avanzadas incluyen funciones ASP (Advanced Signal Processor, Procesador de Señal Avanzado), que amplía considerablemente la complejidad de los efectos. Por lo que a mayor variedad de efectos, más posibilidades ofrecerá la tarjeta.

      TARJETAS DE TV Y RADIO

      Con este tipo de tarjeta se puede ver la televisión y oír la radio en el ordenador.

      Características

      • Sintonizador Digital MPEG-2 ALPS

      • Sintonía Digital con sistema abierto para satélite

      • Puerto PCI 2.1

      • Salido vídeo Compuesto (RCA) y salida de sonido estéreo

      • Sintonía automática, memorización de los canales, visualización en ventanas de Windows y pantalla completa

      • Captura de vídeos MPEG-2

      • Recepción de Radio Estéreo Digital

      • Es compatible con Windows 95, 98, NT 4.0, 2000, Millenium, XP y Linux

      TARJETAS DE RED

      Por medio de canales de transmisión de datos una tarjeta de red puede enviar un mensaje a otro integrante de ésta o intercambia datos de los archivos. Trabajan por medio de redes de áreas locales, más conocidas en el mundo de la informática como redes LAN. Utilizando protocolos los ordenadores permanecen comunicados entre ellos.

      Características.

      • Tipo de red: ETHERNET, token- ring, FDI.

      • Tipo de medio: coaxial, fibra óptica, par trenzado.

      • Tipo de bus: PCI, ISA.

      Las tarjetas se van a encontrar del nivel 2 del modelo capa de enlace de datos. Tienen la dirección MAC, cada tarjeta que se quiera conectar a la red tiene que tener una dirección MAC única.

      MODEM (modulador - demodulador).

      Convierte las señales telefónicas analógicas en digitales y viceversa, con lo que nos permite transmitir y recibir información por la línea telefónica.

      'Ordenadores'

      Tipos.

      • Internos: son tarjetas de expansión sobre la que esta dispuesta los diferentes componentes que forman el modem. Se insertan en las ranuras de expansión (ISA, PCI AMR). Como ventajas es que están mas integrados en el ordenador y son mas baratos. Como desventajas es que a veces son mas complejos y no podemos obtener información visual del estado del modem.

      • Externos: son similares a los internos pero están metidos en una carcasa que se coloca sobre la mesa o el ordenador. Se conecta por el puerto serie o USB. La UART controla la velocidad de los puertos serie y nos limita la velocidad del modem. Como ventajas es su portabilidad por podemos conectarlo a diferentes ordenadores de forma sencilla, y podemos visualizar el estado del modem.

      • Winmodem o modem software: módems internos en los cuales se ha eliminado varias piezas electrónicas de manera que el microprocesador debe suplir las funciones mediante software. Como ventaja es que es mas barato. Como desventajas es que carga al micro y el software solo es disponible en Windows.

      Características.

      • Velocidad del modem: se mide en kbps (kilo bits por segundo). Nos puede influir la calidad del modem, mala calidad de las líneas, el bajo ancho de banda que tenga el proveedor de internet.

      • Velocidad de negociado: es la velocidad que nos indica al inicio de la conexión, y es la que nos da el otro modem del otro lado de la línea como valida.

      • Velocidad Modem-PC: es la velocidad a la que se comunica el PC y el modem. Esta velocidad puede y debe ser superior a la velocidad del modem. Por ejemplo para un modem de 56000 ! 115200 bps.

      6. PERIFÉRICOS.

      MONITOR:

      Este es el periférico de salida más importante; sin él no tendríamos la mínima idea (a no ser por los pitidos del speaker) de que es lo que nos quiere decir nuestro ordenador.
      El funcionamiento es el siguiente: toda esa información que muestra el monitor, se genera en la propia tarjeta de vídeo gracias a la información que le transfiere directa o indirectamente la CPU. Después un chip conversor de señales digitales a analógicas (DAC, Digital Analogic Converter) es el encargado de generar las señales entendibles por el monitor y de esta forma podemos distinguir las imágenes que son transferidas a través del tubo TCR o tubo de rayos catódicos.

      Las imágenes de un monitor se componen de pequeños puntos llamados píxeles (picture elements) o elementos de imagen. La cantidad de ellos que hay por cada pulgada cuadrada determina la definición del monitor que se expresa en puntos por pulgada o dpi (dots per inch). Cuanta más alta es la definición, más cercanos están los puntos.

      La salida de un monitor es temporal y se la designa como copia blanda o efímera.

      Pueden ser monocromáticos o a colores; la mayoría de estos últimos combinan el rojo, el verde y el azul para lograr un espectro y por ello se llaman monitores RGB (red, green, blue).

      Los monitores pueden ser de dos clases:

      • CRT (cathode ray tube), tubo de rayos catódicos: como en un televisor. Son los preferidos para los computadores de escritorio por su claridad y velocidad de respuesta.

      • De pantalla plana:: Más compactos y ligeros, dominan el mercado de las computadoras portátiles. Utilizan 3 tipos de tecnología:

                • LCD (liquid crystal display), pantalla de cristal líquido. Consumen relativamente poca energía.

                • Plasma de gas.

      • EL (electroluminiscencia). Ofrecen mayor ángulo de visión.

      La inmensa mayoría de los monitores vigentes, ya sea en entornos empresariales o domésticos, es de 15 pulgadas, ya que es un estándar suficiente para las exigencias del usuario medio.

      Poco a poco esta medida va perdiendo terreno para convertirse como estándar el modelo de 17 pulgadas, ya que multitud de aplicaciones actuales pueden ser mejor visualizadas en este tipo de monitores.

      Cuando se habla de 14, 15 pulgadas etc.....no es la zona de visión real de la pantalla. Esta medida se refiere exclusivamente a la longitud diagonal del tubo de imagen, más comúnmente conocido por tubo de rayos catódicos. En realidad la zona de visión es menor, reduciéndose en la mayoría de los casos entre 1 pulgada y media a 2 pulgadas.

      Las pulgadas del monitor influyen en otros muchos aspectos como por ejemplo la resolución. Cuanto mayor sea, mejor será la resolución a la que podremos trabajar con comodidad. Por ejemplo; en un monitor de 14 pulgadas la resolución más apropiada es 800 x 600 píxeles, mientras que en uno de 15 será de 1.024 x 768.

      TECLADO:

      El teclado es un componente al que se le da poca importancia, especialmente en los ordenadores clónicos. Si embargo es un componente esencial, pues es el que permitirá que nuestra relación con el ordenador sea fluida y agradable, de hecho, junto con el ratón son los responsables de que podamos interactuar con nuestra máquina.

      'Ordenadores'

      Así, si habitualmente usamos el procesador de textos, hacemos programación, u alguna otra actividad en la que hagamos un uso intensivo de este componente, es importante escoger un modelo de calidad. En el caso de que seamos usuarios esporádicos de las teclas, porque nos dediquemos más a juegos o a programas gráficos, entonces cualquier modelo nos servirá, eso sí, que sea de tipo mecánico.

      EL RATÓN:

      Nacido para facilitar la edición en entornos gráficos, el ratón es heredero directo de todos los experimentos realizados en su día, para proporcionar al ordenador un instrumento de dibujo de precisión.

      El ratón ha evolucionado hasta ser una de las herramientas más cómodas y rápidas que se han inventado para el control de un sistema operativo.

      Hoy día existen otros punteros más modernos como Keypads o trackballs, pero el ratón sigue siendo el más utilizado.

      Los mejores dispositivos adoptan formas ergonómicas, esto es, que intentan que el usuario pueda descansar la mano sobre el ratón y que no deba realizar ningún esfuerzo ni tomar posiciones extrañas para activar los botones. Aunque parezca mentira, el proceso de diseño se convierte en una tarea complicada debido a la gran variedad de formas que puede tomar la mano humana.

      Existen diversos tipos con dos o tres botones, inalámbricos que se comunican con el PC normalmente por rayos infrarrojos y también los llamados trackball, que son ideales para aquellos lugares que no anden sobrado de espacio. Este último dispositivo realiza la misma función que el ratón y varía únicamente en el diseño de construcción que en vez de deslizarlo sobre una superficie, la posición del cursor se decide por medio de una bola que se mueve únicamente con el dedo pulgar.

      Al igual que el teclado, la adquisición de este periférico depende únicamente de las necesidades y el uso que el usuario vaya a hacer de él.

      'Ordenadores'

      IMPRESORA:

      Son dispositivos o periféricos de salida y hasta hace muy poco sólo existían matriciales y de margarita. Las de margarita han desaparecido mientras que las matriciales todavía tienen una cierta cuota de mercado.

      Las mejores impresoras matriciales o de agujas ofrecen una resolución que puede llegar a 400 ppp (puntos por pulgada).

      Esta impresión se produce mediante unas tiras metálicas muy finas (las agujas) que golpean sobre el papel. Entre las agujas y el papel se interpone una cinta tintada de modo que el choque provoca la transferencia de tinta desde la cinta al papel. El número de puntos que constituyen los caracteres determinan la resolución y la calidad de impresión.

      Para estas impresoras su velocidad se mede en caracteres por segundo o en líneas por segundo.

      Prácticamente sólo se utilizan en la impresión de texto.

      'Ordenadores'

      Mucho más rápida, silenciosa y de mejor calidad. La calidad obtenida con esta impresora supera a las matriciales, la única pega es su precio elevado. El elemento de fotoimpresión es un rodillo con una carga electroestática que retiene el polvo (tinta), el cual se depositará sobre el papel. Este polvo o tinta se denomina toner. La característica de velocidad de impresión se mide en ppm (páginas por minuto).

      Las impresoras láser poseen varios tipos de caracteres o de lenguajes de impresión. Es necesario definir el tipo de impresora a utilizar según el programa de impresión.

      'Ordenadores'

      La calidad es la mejor de todas aunque su velocidad es menor que la impresión láser. Este tipo de impresoras imprimen línea a línea con la ayuda de una cabeza de impresión móvil. Esta cabeza en realidad es un cartucho de tinta con unas canalizaciones muy pequeñas. Mediante un proceso eléctrico provoca la expulsión de pequeñísimas gotitas de tinta.

      Pueden funcionar con cualquier tipo de papel aunque la calidad final de impresión depende en gran medida del tipo de papel utilizado. Hay impresoras de calidad fotográfica, es decir, muchísimos puntos de color por pulgada, que precisan de un papel especial. La ventaja de este tipo de impresoras está en su relación calidad precio.

      Desventaja: imprimen pocas páginas por minuto. También el coste de los recambios es mayor que en los demás casos

      ESCANER:

      Es un dispositivo que permite digitalizar imágenes, es decir, convertir fotografías o textos en un formato de información basado en bits.

      Utiliza una fuente de luz que ilumina línea a línea la imagen o documento. La luz reflejada es recogida por un dispositivo óptico convirtiéndola finalmente en valores digitales. Estas imágenes pueden retocarse, almacenarse o imprimirse directamente. La resolución se mide en ppp, y cuanto mayor sea esta resolución mayor calidad tendrá el resultado. Muchos escaners traen consigo una resolución mejorada por software. Esto significa que una imagen escaneada se obtiene, p.ej., con 300 ppp pero puede mejorarse a 600 ppp mediante un programa. Mínimo 300 ppp. Si se desean digitalizar fotografías se recomienda una resolución mínima de 600 ppp.

      MÓDEM:

      Es un equipo utilizado para la comunicación de computadoras a través de líneas analógicas de transmisión de datos. El módem convierte las señales digitales del emisor en otras analógicas susceptibles de ser enviadas por teléfono. Cuando la señal llega a su destino, otro módem se encarga de reconstruir la señal digital primitiva, de cuyo proceso se encarga la computadora receptora. En el caso de que ambos módems puedan estar transmitiendo datos simultáneamente, se dice que operan en modo full-duplex; si sólo puede transmitir uno de ellos, el modo de operación se denomina half-duplex.

      Para convertir una señal digital en otra analógica, el módem genera una onda portadora y la modula en función de la señal digital. El tipo de modulación depende de la aplicación y de la velocidad de transmisión del módem. Los módems de alta velocidad, por ejemplo, utilizan una combinación de modulación en amplitud y de modulación en fase, en la que la fase de la portadora se varía para codificar la información digital. El proceso de recepción de la señal analógica y su reconversión en digital se denomina demodulación. La palabra módem es una contracción de las dos funciones básicas: modulación y demodulación.

      Los primeros módems eran muy aparatosos y sólo podían transmitir datos a unos 100 bits por segundo. Los más utilizados en la actualidad en los ordenadores personales transmiten la información a más de 33 kilobits por segundo. Pueden incluir funciones de fax y de contestador automático de voz.

      El Módem también es un periférico de salida.

      'Ordenadores'
      'Ordenadores'
      'Ordenadores'

      38

      Información General: El IBM PC está considerado como el padre de los PC's de hoy en día.

      El proyecto de PC estaba exento de la burocracia de IBM, el equipo tenía autonomía completa. Al final el IBM PC fue un éxito rotundo en la sociedad.

      Información General: El Commodore VIC fue el ordenador a color más económico de su época.

      Este ordenador incluía juegos como el Radar Ratrace y el Gorf

      Especificaciones: Año 1981

      'Ordenadores'

      Información General: El Apple II es el ordenador que lo empezó todo.

      Es uno de los primeros ordenadores a color disponible

      Especificaciones: Año 1977

      Información General: El IBM PC Convertible fue un fracaso ya que no se lograron vender muchas unidades.

      Especificaciones: Año 1986

      Información General: Los PCs actuales tienen una mayor capacidad de almacenamiento, mayor velocidad y mejor resolución de los monitores.

      Especificaciones: Siglo XXI

      Unidad de entrada

      Unidad de salida

      Unidad central de procesamiento

      Unidad de almacenamiento masivo o secundario

      (Disco duro, memoria RAM, memoria Caché)

      'Ordenadores'

      Impresora matricial

      'Ordenadores'

      'Ordenadores'

      IMPRESORAS LASER:

      IMPRESORAS DE INYECCIÓN DE TINTA (INKJET):

      'Ordenadores'

      'Ordenadores'

      Módem interno para puerto USB

      Módem externo para puerto en serie

      Módem PC-Card

      'Ordenadores'