Informática


Dispositivos de los ordenadores


Las Computadoras y sus Dispositivos

Los microordenadores (micros) o las computadoras personales (PC) son unidades de autocontención con su propia CPU, y sus propios dispositivos de entrada y salida.

Es normalmente usada por una persona a la vez, a veces las llaman PCs de escritorio ya que encajan justo en el mismo y en estos días hay cada vez más. Estas se están haciendo para secretarias, gerentes y las personas profesionales que necesitan llevar a una computadora con ellos en jornadas largas o a las reuniones. Las computadoras personales se están haciendo cada vez más poderosas y estas están siendo utilizadas en una amplia gama de campos, por personas comerciales, por amas de casa, por deportistas y mujeres, por casi todos.

EL GABINETE

Probablemente es el componente (sí, componente, pues es parte imprescindible del equipo) que nunca especificamos a la hora de comprar un equipo. Si compramos un equipo de "marca" o compramos un equipo de una cadena de tiendas de informática, El Gabinete está servido, y raramente existe la opción de hacer algún cambio, excepto, en muy pocos casos, elegir entre un Gabinete de sobremesa o un mini/semi-tower o un tower.

Comprar un buen gabinete es una buena inversión, pues probablemente será el componente de nuestro flamante y recién comprado equipo que más nos durará, por lo que no debemos tener reparos en comprar un Gabinete de buena calidad que tenga un precio ciertamente alto.

Además un buen gabinete puede llegar incluso a aumentar la duración y las prestaciones de tu equipo.

TAMAÑO

SOBREMESA, MINI-TOWER, SEMI-TOWER, TOWER o FULL-TOWER: estas son las elecciones posibles.

Si el ordenador va a ser utilizado en una oficina, encima de una mesa, lo ideal es SOBREMESA, por ocupar menos espacio, pero si la oficina está racionalizada y las mesas de trabajo bien adaptadas, ¿por qué no un semitower a media altura sobre una balda o una tower sobre el suelo? Uno de los errores más habituales es creer que un Gabinete sobremesa tiene menos posibilidades de ampliación: sí y no. Un Gabinete de sobremesa permite instalar el mismo número de tarjetas de expansión en sus slots ISA y PCI, pero sí que tiene menos bahías para unidades de CD-ROM y unidades de Backup (normalmente suelen tener tres) y menos espacio interno para discos duros internos adicionales (a costa de tener que instalarlos bloqueando las bahías externas). Como el ordenador de oficina no es tan propenso a la ampliación como al cambio de todo el equipo, esto no suele ser un problema.

Lo que sí es cierto es que los ordenadores en formato sobremesa de los fabricantes de "marca" suelen tener menos posibilidades de expansión por medio de tarjetas, pues suelen utilizar una sola ranura en la placa (propietaria, por supuesto) a la que conectan una tarjetas llamada "Riser Card" en la que como mucho se pueden instalar 3 tarjetas de expansión. Sin embargo este tipo de ordenadores de "marca" suelen tener integradas en la placa base la tarjeta de sonido (sí la tienen, ¿no sería un poco molesta en una oficina?), la tarjeta gráfica (de calidad media, pero ¿quién piensa en facilitar la nueva generación de juegos en una oficina?) y en muchos casos la tarjeta de red.

El gabinete SEMI-TOWER es la elección más acertada en la mayoría de los casos, con un tamaño ajustado y con suficientes posibilidades de expansión externa e interna. Sólo los aficionados al overclocking que además tienen muchos componentes internos (tarjetas, discos duros, etc.) instalados temerán, y con razón, un sobrecalentamiento. Además la potencia de la fuente de alimentación de estos gabinetes no está pensada para dos discos duros más un CD-ROM, más una grabadora, más un módem interno, más una tarjeta de sonido, más una aceleradora 3D, mas... Siempre tenemos la opción de comprar una fuente de alimentación más potente.

El Gabinete SEMI-TOWER está imponiéndole hoy en día en detrimento de la MINI-TOWER, especialmente en formato ATX, por cuestiones de refrigeración del procesador, pues en muchos casos en El Gabinete minitower el chasis o la propia fuente de alimentación tapaba el procesador o incluso chocaba con él. Cuidado, en el formato SEMI-TOWER entran gabinetes del mismo tamaño que un MINI-TOWER y otras que poco tienen que envidiar a una tower.

Los gabinetes TOWER y FULL TOWER están pensadas para servidores o estaciones gráficas en los que vamos a instalar gran cantidad de dispositivos, o para usuarios que se ven obligados a poner el ordenador en el suelo por falta de espacio (un gabinete más pequeño les obligaría a agacharse para insertar un disquete o un CD-ROM), o para usuarios que van a instalar gran cantidad de componentes y tienen miedo a que no circule bien el aire o a amantes del overclocking que desean espacio para que el aire circule y enfríe el procesador.

Sin embargo, un gran tamaño no implica mejor refrigeración, a menos que El Gabinete esté abierto, porque si sólo contamos con la fuente de alimentación para refrigerar el interior, esto es a todas luces insuficientes: escojamos un gabinete con un ventilador adicional o al menos con la posibilidad de instalarlo, y mejor si son dos (una posterior y otro anterior).

ESPACIO

Hablando de espacio EXTERNO. Si vamos a colocar nuestro gabinete encastrado en un mueble o una mesa, atención: la parte posterior del mueble o mesa debe de estar abierta, y si el mueble o mesa está pegada a una pared, debemos dejar al menos 25cm de espacio libre, y además unos 10cm por cada lado, para que se pueda evacuar el aire. En sxu defecto (el mueble ya está echo y no pensamos en ello al encargarlo) debemos colocar un ventilador en la parte frontal del equipo (sí El Gabinete tiene ranuras delanteras de salida de aire; hacérselas puede ser una chapuza y será mejor comprar otro gabinete) para que extraiga el aire interior.

Hablando de espacio INTERIOR, un Gabinete de mayor tamaño no implica más espacio para trabajar cómodamente, más espacio para componentes, o mayor refrigeración.

Para trabajar cómodamente normalmente mejor semi-tower o tower, pero fijémonos bien en la colocación de la fuente de alimentación (a veces está muy baja) y del soporte de los discos duros (a veces interfieren con muchos jumpers, el procesador, empeorando su refrigeración al no dejar espacio libre para desalojar el aire, los zócalos de memoria, etc.). A veces un Gabinete grande exteriormente tiene pocas bahías externas para su tamaño (CD-ROM, unidades de BACKUP, discos extraíbles, etc.) y en muchos casos el soporte de discos duros es pequeño. Debemos recordar que no se deben colocar los discos duros pegados, por cuestiones de interferencias (he visto casos de discos duros dañados inexplicablemente por esta razón) y de calor, pues los discos modernos, especialmente los de 7.200rpm o los SCSI, generan bastante calor y a veces es incluso recomendable instalarlos en una bahía con acceso externo dentro de un Gabinete con ventilador dedicado.

Una posición frecuente últimamente para colocar el disco duro es encima de la fuente de alimentación; dos problemas: a veces el cable de datos no llega tan lejos (sobre todo en una tower) y además, en esa posición, ¿quién lo refrigera?.

ACCESIBILIDAD

En un Gabinete pequeño, podemos necesitar hacer malabarismos para ampliar la memoria o conectar un cable al canal IDE secundario.

Un detalle que he observado muchas veces es que por la construcción de El Gabinete es imposible quitar el/los tornillo/s del lado derecho del disco duro cuando, por ejemplo, necesitamos configurarlo como esclavo o queremos cambiarlo de posición para instalar otro y que no esté pegado. Hay incluso gabinetes en los que el panel del lado derecho de El Gabinete no se puede quitar.

Un Gabinete en la que se puedan quitar independientemente los paneles izquierdo y derecho es muy cómoda cuando abrimos el ordenador con frecuencia, e incluso para los amantes del overclocking que prefieren quitar el panel izquierdo para así no tener problemas de refrigeración, y además aporta rigidez a El Gabinete.

TERMINACION

Más de una vez me he cortado un dedo al intentar instalar o quitar un componente al rozar con una de las aristas de El Gabinete, o me he enganchado la ropa en un remache mal acabado. Comprobar que el metal está bien acabado y limado y que no corta.

Y no digamos esos gabinetes que cuando están vacías parecen de alambre y se doblan a poco que hagamos un poco de fuerza. El peso es un buen dato (como en los relojes).

FORMATO

¿AT o ATX? Hombre, eso depende de la placa que vayamos a instalar.

Sin embargo, hay gabinetes que soportan ambos formatos de placa base, por supuesto cambiando también la fuente de alimentación. Pero si vamos a invertir un buen dinero en un Gabinete y nuestra placa base es AT, conviene mirar este detalle, pues en un futuro no muy lejano prácticamente todas las placas base serán en formato ATX; de hecho ahora ya es difícil encontrar placas base para Pentium II en formato AT.

Además, un buen gabinete trae distintas tapas para los conectores de teclado, ratón y puertos serie y paralelo, porque aunque las placas base deberían venir con la tapa, muchas no lo hacen.

FUENTE DE ALIMENTACIÓN

Obviamente una fuente AT para una placa AT y una fuente ATX para una placa ATX, aunque hay que tener en cuenta que muchas placas AT modernas tienen un conector adicional para fuente ATX, pero, remitiéndonos al apartado anterior, El Gabinete debe traer distintas tapas para los conectores, entre ellas una para conectores de placa AT.

Aunque las fuentes de alimentación AT no suelen plantear demasiados problemas, si van a instalar un K6-2 se pueden encontrar con un extraño problema: a veces no se inicia el equipo, a veces se bloquea sin razón aparente, etc. Esto se debe en muchos casos a las estrictas tolerancias de voltaje de este procesador, especialmente en sus versiones más rápidas. Un Gabinete de cierta calidad y precio suele venir acompañada de una buena fuente de alimentación.

En cuanto a las fuentes ATX, no todas son iguales. Las primeras unidades no eran más que una conversión de una fuente AT. Estas fuentes se distinguen fácilmente, pues en vez de introducir aire en el equipo. Una fuente de alimentación ATX moderna introduce aire del exterior al equipo y el ventilador se encuentra normalmente en el interior dirigido hacia el zócalo del Pentium II o K6-2, para ayudar a su refrigeración.

Algunas placas base ATX tienen problemas similares a los mencionados antes para algunas placas AT (errores al iniciar, cuelgues, etc.), debido a que necesitan una fuente de alimentación que cumpla las especificaciones ATX 2.1, con unas tolerancias de voltaje muy ajustadas. Estas fuentes de alimentación tienen además una ventaja adicional: incluyen un conector para la placa base de modo que en modo ahorro de energía (SUSPEND y DOZE) el ventilador de la fuente de alimentación se detiene, con la consiguiente disminución de consumo y ruido, con lo que no es tan molesto dejar el equipo encendido 24horas al día de modo que "despierte" automáticamente en caso de que el módem reciba una señal (especialmente útil cuando el PC se utiliza como FAX). Otra ventaja de estas fuentes es que permiten, en algunos modelos de placas base, encender el equipo pulsando la barra espaciadora del teclado, sin tocar el botón (esto sí que es innecesario).

En cuanto a los vatios, hoy en día lo normal son 230W, pero si vamos a instalar un par de discos duros, un lector de CD-ROM y una grabadora, un módem interno, una tarjeta de sonido, una tarjeta SCSI, una tarjeta de red, una unidad de cinta, etc., y además el monitor toma la alimentación desde la propia fuente de alimentación, seguro que vamos a tener problemas: discos que no arrancan o tardan en hacerlo, dispositivos que fallan, e incluso daño a algunos componentes. En el mejor de los casos la escasez de vatios afectará a las prestaciones del equipo (¡No es broma!) sin que nos demos cuenta.

En primer lugar, lo mejor es conectar el monitor directamente a la red eléctrica (el único problema es acordarse de apagarlo al apagar el equipo), pero mejor que nada es exigir una fuente de 300W.

Además, la fuente de alimentación debe tener suficiente número de conectores de alimentación para todos los dispositivos que puedan necesitarlo, al menos 5 grandes (discos duros, unidades CD/DVD, unidades de backup) e igual número de pequeños (disqueteras, unidades de backup).

MONTAJE

A poco que nos guste experimentar un poco con nuestro equipo o actualizarlo nosotros mismos, agradeceremos un Gabinete que tenga una bandeja de montaje de placa base móvil. No me refiero a esos gabinetes con un panel de placa base desmontable por el lado derecho de El Gabinete quitando tornillos, si no todo un conjunto de armazón (incluidas ranuras para slots de expansión y tapas de conectores) que se desplaza hacia atrás como por unos carriles.

Existen muchos gabinetes que no necesitan tornillos para su montaje, ni siquiera para las tarjetas de expansión, que se sostienen con un artilugio plástico. Para un ordenador de oficina, tornillos, llave e incluso anilla de anclaje al escritorio para evitar que se abra y algún avispado aproveche para actualizar su ordenador doméstico; para un usuario particular, cuantos menos mejor, pero si realmente no se va a abrir y cerrar el equipo con frecuencia, ¿qué más da?.

Recordar que un Gabinete sin un ajuste firme vibrará fácilmente siempre nuestro CD-ROM sea muy rápido o no esté del todo bien equilibrado o con ciertos CDs que regalan las revistas y del transporte se alabean ligeramente. Existen gabinetes que tienen una especie de presillas metálicas para absorber vibraciones.

ERGONOMÍA

No me refiero a si el diseño de El Gabinete es bonito, lo cual es también un factor a tener en cuenta, sobre todo si queremos impresionar a las amistades que no entienden de hardware, o queremos mantener un ambiente moderno, clásico y vanguardista en toda la habitación donde reside el equipo.

Cuando hablo de ergonomía, hablo de facilidad de manejo: un botón de reset que no se pueda pulsar fácilmente por error haciéndonos perder ese trabajo que llevamos haciendo dos horas y no hemos guardado, un botón de encendido de buena calidad que no falle cada dos por tres, luces indicadoras de encendido y estado de ahorro de energía, una luz indicadora de funcionamiento del disco duro, un botón para poner el equipo inmediatamente en modo ahorro de energía (ya sé que podemos hacerlo con el botón de encendido especificando en la BIOS en el apartado POWER MANAGEMENT en el parámetro "Power Button menor de 4sg" la opción SUSPEND, pero con la opción SOFT OFF estaremos más a gusto y como siempre), una tapa para las bahías cuyas bisagras no rompan a los 15 días y una tapa deslizante que no tape los botones al estar bajada, unas bahías de expansión no demasiado encastradas que eviten que tengamos que hacer malabarismos para colocar un CD-ROM en la bandeja, etc.

REFRIGERACION

La refrigeración no solo consiste en que la fuente de alimentación AT o ATX tengan un ventilador potente y con la orientación adecuada (la fuente de alimentación ATX debe tener el ventilador interno orientado hacia el zócalo del procesador), sino a que El Gabinete tenga instalados, o permita instalar ventiladores adicionales, de gran utilidad para los aficionados al overclocking.

Un buen gabinete, tanto AT como ATX, debe permitir la instalación de un ventilador adicional en la parte delantera de El Gabinete. Para ello El Gabinete debe tener en su parte frontal inferior unas ranuras o agujeros de ventilación, junto con un soporte interno para el ventilador. En el caso de la fuente AT, el ventilador delantero debe orientarse para que introduzca aire dentro del equipo, y en el caso de tener una fuente ATX el ventilador delantero debe orientarse para que saque aire del interior del equipo; de este modo se consigue el efecto ideal para una buena refrigeración: circulación de aire.

Además, un gabinete tower o FULL-TOWER debe ofrecer la opción de instalar una segunda fuente de alimentación, porque en el caso de un servidor incluso 300W pueden quedarse cortos, o al menos podemos utilizar dicho espacio para colocar un segundo ventilador trasero con la misma orientación de aire que la fuente si tenemos un ventilador delantero o con la contraria si queremos obtener el efecto de circulación de aire y no tenemos ventilador delantero. ¿Por qué un segundo ventilador trasero? Con la gran superficie interna de El Gabinete, un solo ventilador se muestra a todas luces insuficientes para evacuar rápidamente el calor almacenado.

La Fuente de alimentación

Se encarga de que los componentes, reciban las diferentes tensiones eléctricas que requieren en particular para funcionar correctamente. La fuente de alimentación es también denominada Power Supply (fuente de poder en inglés), PSU de Power Supply Unit o Switching Power Supply (aludiendo a las características técnicas de este tipo de fuente). La fuente de alimentación viene integrada en un módulo, y a pesar de que existen algunas variantes de tamaño y forma hay un formato "tipo B" (210 x 150 x 150mm.) que actualmente es el estándar en prácticamente todas las computadoras del tipo PC compatibles. Esto significa, que cualquiera sea el gabinete, Minitower, Midtower, Fulltower o Desktop, la fuente de alimentación tendrá las mismas medidas y formato. Las fuentes de alimentación de las PC, son importadas, no existiendo modelos de industria nacional. Por su bajo costo salve algunos problemas menores que ya veremos es más conveniente el reemplazo total de la fuente, que intentar su reparación. La fuente de alimentación está provista de un ventilador interno que permite la refrigeración de los componentes interiores de la misma. Este ventilador es de un formato estándar y se activa inmediatamente cuando la PC es encendida. El ventilador de la fuente de poder, trabaja en forma permanente y continua durante todo el periodo en que la computadora está encendida. Debido a que produce un zumbido típico, podemos verificar que el mismo funcione al encender el equipo. Una de las caras del módulo de la PSU tiene el ventilador que da a la parte trasera del gabinete. Cualquier gabinete (sea del tipo AT, ATX, Desk-top o Tower) tiene en su parte trasera un lado abierto donde directamente se presenta la cara de la PSU que posee las ranuras de salida del ventilador (el mismo esta apoyado sobre esta cara) y los conectores del interlock de power y el cable power del monitor. De la cara opuesta al ventilador, la PSU posee unas ranuras que son la toma de aire de la misma. La toma de aire, al quedar en la parte interior del gabinete, hace circular aire por el interior del mismo refrescando también los componentes internos de la PC. El papel de la fuente de alimentación como elemento de refrigeración de los componentes internos de la PC es fundamental. Todos los componentes y dispositivos electrónicos en su funcionamiento generan calor, en particular los microprocesadores actuales 486DX en adelante (algunos tienen más de 3 millones de transistores y operan con velocidades de 90 MHz. o superiores), deben trabajar asistidos por disipadores (sistemas pasivos Passive Heatsink)y en casi todos los casos por coolers (sistemas activos Active Heatsink).

Algunas veces los sistemas de disipadores pasivos de gran tamaño OEMs Original Equipment Manufacturer (fabricantes de equipos originales), se apoyan en ventiladores adicionales que generan el flujo de aire necesario para producir la disipación del calor. Algunos disipadores vienen preparados para ser anclados sobre el microprocesador y otros lo están para ser anclados al socket del microprocesador en el motherboard.

En algunos formatos de gabinete como los denominados del tipo "baby", y también de otro tipo pero mal diseñados, muchas veces la temperatura de trabajo no es la adecuada debido al poco volumen de aire reemplazado para mantener la misma en el rango de valor correcto que necesitan los componentes. Los equipos armados sobre estos gabinetes funcionan en un punto crítico y en muchos casos la ventilación de la fuente de alimentación es solo del tipo "cosmética". Los componentes electrónicos del microprocesador a través del cuerpo del mismo y la grasa térmica siliconada que se coloca entre la superficie del microprocesador y el disipador, transfieren el calor a los disipadores y estos a su vez transfieren el calor al aire en el interior del gabinete. De no existir un ingreso de aire fresco y la expulsión del aire caliente, habrá problemas. Podemos observar que en los gabinetes del tipo "desktop" o "tower" bien diseñados, existe un flujo con recambio del aire interno de la PC. De no ser así, el cooler del micro trabajaría con aire caliente y su poder de enfriamiento sería mínimo. El exceso de temperatura puede producir errores intermitentes en el funcionamiento y procesos de la PC muy difíciles de detectar cuando se realizan pruebas "en frío". Es esencial revisar que la salida del ventilador no se encuentre obstruida por algún papel o elemento que anule o limite el flujo de aire. Muchos usuarios colocan una funda al gabinete y cuando van a utilizar la PC, retiran parcialmente la misma. Esto dificulta la salida de aire o en el peor de los casos directamente la anula. En el primer caso, es probable que la fuente de alimentación sufra daños a mediano plazo y que la computadora funcione en forma errática debido a fallas en el microprocesador por recalentamiento. En el segundo caso, (si queda obstruida totalmente la ventilación) la respuesta no se hace esperar, se queman diversos componentes electrónicos en la fuente de alimentación, debiendo preceder al reemplazo de la misma. Teniendo en cuenta las características de los microprocesadores Pentium Pro, Intel ha diseñado un nuevo estándar de gabinete que es denominado ATX. Este gabinete incorpora cambios con respecto a los gabinetes del tipo PC compatibles (mini, mid y full-tower) atendiendo al desarrollo y particularidades de este microprocesador y también del motherboard correspondiente al mismo. Uno de los aspectos importantes que se han tenido especialmente en cuenta, son los referidos al flujo de aire dentro del interior del gabinete y la refrigeración de los componentes internos de la PC. De cualquier modo, a pesar de la mejoría obtenida en la disipación interna de calor generada por una reubicación del zócalo del microprocesador y la adecuada administración del flujo de aire producida por el ventilador de la fuente de alimentación, esto es solo la mitad del trabajo a realizar. El microprocesador debe ser equipado con un cooler active para completar su refrigeración. También los gabinetes ATX presentan otros cambios, están preparados para una disposición diferente en las salidas serie y paralelo de la PC así como otros dispositivos I/O, incluyendo USB Universal Serial Bus (bus universal en serie), las tensiones que suministra la fuente de alimentación y los conectores de ésta para el motherboard. El gabinete del tipo ATX es mayor físicamente que el del tipo "minitower", siendo su tamaño aproximadamente el de un gabinete del tipo "midtower". A pesar de que se utiliza apoyado en forma vertical como corresponde a un "tower" (torre), el anclaje del motherboard al gabinete, es similar al utilizado en los gabinetes del tipo "desktop". El gabinete correspondiente al modelo ATX, tiene una abertura para permitir otra disposición diferente de salida para los conectores serie y paralelo. También podemos observar las ranuras para permitir una mayor entrada de aire al gabinete, que no están presentes en prácticamente ningún modelo de "minitower" o "midtower". Actualmente, debido a la importancia conferida por la firma Intel a este tema, algunas fábricas de gabinetes para "clones" (definición que se utiliza para los equipos PC que no tienen marca), están incorporando ranuras para la entrada de aire en la parte trasera del gabinete. También podemos ver en el gabinete ATX, que la fuente tiene el botón "power" incorporado en la misma. En los gabinetes del tipo "midtower" y "fulltower", es común encontrar para aumentar la refrigeración interna del equipo, una montura para un ventilador. Estas monturas permiten calzar un ventilador estándar de los que son provistos en las fuentes de alimentación que puede ser adquirido en casas de productos electrónicos y cuyo costo oscila en unos cinco dólares. Estos ventiladores se utilizan entonces, además de para reemplazar alguno deteriorado en una PSU, para obtener refrigeración suplementaria para los gabinetes. Algunos usuarios, no soportan el ruido generado por los ventiladores, tanto el de la PSU, como el del gabinete. En este caso se ha debido de reemplazar la fuente íntegra por otra más silenciosa y colocar grasa siliconada entre el cooler y el microprocesador (que muchas veces no tiene) con lo que se ha mejorado la disipación, pudiendo así eliminar el ventilador suplementario correspondiente al gabinete. La grasa térmica siliconada, es un compuesto de mucho uso en los componentes electrónicos que deben disipar el calor que generan. La característica de este compuesto es su gran capacidad para conducir el calor. La grasa siliconada rellena por completo el espacio que existe entre el cuerpo del componente que genera calor y el disipador aplicado al mismo, evitando que se formen cámaras de aire ya que las superficies nunca hacen un contacto absolutamente perfecto. Esto permite que se transfiera la máxima cantidad de calor entre ambos reduciendo drásticamente el problema de disipación. Los microprocesadores que vienen con su cooler incluido, generalmente vienen provistos de una jeringuilla con grasa térmica siliconada para su instalación. Por lo visto, es posible colocar en algunos gabinetes del tipo “midtower" el ventilador adicional para aumentar la refrigeración. Puede ser que la ubicación física del gabinete (a veces se lo instala dentro de un mueble) no ofrezca la ventilación optima, también sucede que algunos equipos se utilizan en forma ininterrumpida, es decir están funcionando las 24 hs., los 365 días del año. En cualquiera de los casos mencionados, es importante adicionarle al equipo un ventilador extra y por ende, debemos de comprar un gabinete (si es minitower) que posea la montura para poder colocarlo. Los gabinetes siempre incluyen la fuente de alimentación. Cuando se compra un gabinete este viene vacío de otro contenido, pero la fuente de alimentación siempre esta incorporada al mismo. No se pueden conseguir en el mercado gabinetes vacíos que no tengan su PSU correspondiente, a tal punto es así, que muchas veces cuando hay que reemplazar una PSU debemos de comprar un gabinete vacío y sacarle la fuente al mismo para utilizarla en el reemplazo. El valor del gabinete sólo sin la fuente es ínfimo de tal forma que no genera ningún problema si en algún caso lo debemos de descartar para utilizar su fuente de alimentación como repuesto. Una de las cosas que debemos tener en claro es que físicamente las fuentes de alimentación se encuentran normalizadas como ya hemos visto y esto nos permite reemplazarlas sin inconvenientes debido también a que el conexionado de todos los cables de la misma con el motherboard, cable power (interlock) y otros periféricos internos, se hace a través de fichas enchufables. La fuente de alimentación provee distintas tensiones para que funcionen los componentes eléctricos y electrónicos de la PC. También genera una tensión de referencia utilizada para el inicio de la PC denominada (Power Good). Todas las tensiones que utilizan los motores de los dispositivos discos rígidos, disqueteras, CD ROM, etc. y también los dispositivos electrónicos, son del tipo CC corriente continua (DC direct current), a diferencia del tipo CA corriente alterna (AC alternation current), que es suministrada por la red eléctrica. Los valores de tensiones utilizados por los componentes mencionados, difieren también en forma notable de los que suministra la red eléctrica.

La Fuente ATX

El aspecto general de las fuentes AT y ATX es aparentemente el mismo. Uno de los motives que ayuda a la similitud entre ambas PSU, corresponde al tamaño y forma de éstas que son idénticas. También son idénticos, los conectores correspondientes a las fichas que alimentan los periféricos internos de la PC (denominados P10, P11, etc. en las AT) como ser disqueteras, HD, CD ROM etc. No obstante su similitud, las fuentes ATX difieren de las fuentes para equipos AT en varios puntos. Uno de ellos corresponde a las tensiones que proveen para el motherboard. En este caso, la fuente ATX provee todas las tensiones de la AT, más una tensión de +3,3V que no está presente en los conectores P8 y P9 de las AT. En lo que concierne a las fichas de los cables de salida, la diferencia existente entre las PSU de los equipos AT Y los ATX, radica en que los conectores (P8 Y P9) para el motherboard de las fuentes AT, vienen en las ATX unificados en un único conector que a su vez, tiene un formato distinto como podemos ver en la figura 651. En el motherboard, el conector para el "cable power" de la fuente ATX, se corresponde con el tipo de ficha de la PSU. Por este motive, no se puede alimentar un motherboard del tipo AT, con una fuente ATX.. Tener un único conector para las tensiones del motherboard como en el caso de la PSU ATX, presenta la ventaja de que solo es posible hacer la conexión del modo correcto. Con los conectores P8 y P9 existe la posibilidad de conectar los mismos a la ficha macho del motherboard en forma invertida. De ser así, se producen daños en distintos componentes del motherboard inutilizándolo. Recordemos que la conexión de los cables P8 y P9 al motherboard, se hace siguiendo el principio "negro con negro". Actualmente, es común encontrar motherboards que vienen preparados para ser alimentados con fuentes de tipo AT o ATX. En este caso, el conector que está preparado en el motherboard por deafault, es el que corresponde a la fuente AT. Si vamos a utilizar una fuente del tipo ATX, debemos de efectuar algunos cambios en el jumpeado del motherboard.

Algunos motherboard (como el TREND por ejemplo), pueden utilizar un software denominado SOFT-OFF CONTROL que permite controlar la fuente ATX a través de los códigos SMM del BIOS, bajo Windows 3x, Windows95 y MS DOS. La operación de este ambiente necesita que la fuente de alimentación sea ATX. Para poder usar esta facilidad, en el motherboard TREND hay que utilizar un cable de control que viene provisto en algunos casos con la fuente ATX y debe ser enchufado en un conector cercano al BIOS denominado JP7. La pantalla del SETUP correspondiente al BIOS AWARD del motherboard TREND, que corresponde a las características "green" (economía de energía) tiene la opción "Soft-Off by PWR-BTTN" del menú, que es sólo utilizable si la PSU en uso es una ATX. Esto viene expresamente indicado en el manual del motherboard en la página correspondiente al menú POWER MANAGERMENT SETUP del CMOS SETUP UTILITY. Otros motherboards como por ejemplo los diseñados para el micro Pentium PRO, vienen casi exclusivamente diseñados para ser alimentados por una fuente ATX. En este caso, el power conector del motherboard, es único y corresponde solamente a la PSU ATX. El motherboard para Pentium PRO, fue de los primeros en utilizar la tecnología de las fuentes ATX. Otro aspecto que es diferente en la fuente ATX con respecto a la AT, es que en la primera se ha mejorado el flujo de aire, integrándola a un concepto más amplio que el mero enfriamiento de los circuitos electrónicos de la PSU. En particular se ha previsto el ventilador de la fuente ATX, como un ventilador responsable también, de la extracción del aire caliente del interior del gabinete. A diferencia de las PSU AT, que en la parte trasera tienen la entrada del cable power y la ficha para el cable power del monitor, las fuentes ATX normalmente tienen en ese lugar el switch de power y el cable power (interlock) para la fuente. De esta manera el apagado o encendido de la PC se efectúa por medio de esa llave (si no tiene habilitado el software SOFT-OFF CONTROL).

Todo el circuito electrónico y eléctrico de la fuente de alimentación, está protegido por una carcaza metálica. La función de la carcaza metálica es múltiple, pero fundamentalmente impide que un usuario no avanzado, pueda tener contacto con componentes internos de la fuente que tienen tensiones elevadas. Aún con la tensión de red desconectada o el equipo apagado, la fuente de alimentación tiene un condensador de 1000 microfaradios, que se utiliza para limitar los picos de tensión. Un condensador o capacitor, es un dispositivo que acumula una carga eléctrica en un memento determinado, para cederla en otro, actuando en algunos casos como un dispositivo moderador. Por su facilidad para guardar la carga eléctrica recibida, el condensador o capacitor funciona como un acumulador. Al quedar el condensador cargado aún con la fuente desconectada, tenemos el peligro de una fuerte descarga eléctrica si manipulamos los componentes internos sin cuidado. En las PSU, suele haber una etiqueta escrita en varios idiomas que advierte sobre los peligros de shock eléctrico y recomienda que la carcaza solo debe ser abierta por personal técnico. Otra de las funciones del gabinete de la PSU, es evitar la radiación de EMI y RFI generada por la fuente pueda afectar a otros equipos. Los equipos que se venden en EE.UU., tienen que cumplir las normas del FCC (Federal Communication Commission) sobre emisión de EMI y RFI, por lo tanto los fabricantes de PSU buscan limitar al mínimo las mismas. Si vamos a adquirir una PSU, será interesante saber si cumple con el estándar clase B del FCC que asegura una radiación EMI 40db por microvolt (emisión en todas las frecuencias). Por el costo que tiene en el mercado una fuente completa, no es aconsejable intentar la reparación de la misma, sino directamente el reemplazo que es mucho más sencillo y seguro en cuanto al servicio y la confiabilidad de la PSU. En computación, lo peor que puede suceder es que un usuario ya sea en forma particular o en un comercio, deba interrumpir una tarea que está realizando con la PC por un fallo de alguno de sus componentes. El reemplazo de algún componente electrónico de la fuente por otro similar y aún por el mismo, puede resultar en que la fuente si funcione, pero lo haga fuera de los rangos correctos. Además, él tiempo que demanda conseguir en los comercios del gremio, el o los componentes electrónicos a reemplazar y su valor, en la mayoría de los casos supera ampliamente el costo de una PSU nueva. Si admite mi consejo, salve un problema menor perfectamente detectado, la mejor solución es el reemplazo total de la fuente.

Bottom of Form 1

LA PLACA MADRE

La placa base es el componente más importante de un ordenador, pues a ella se conectan los demás componentes y es la encargada de establecer una buena (y rápida) comunicación entre ellos.

La mayoría de los compradores de informática escogen un procesador rápido, una cantidad de memoria adecuada a sus necesidades (o la que el vendedor les sugiere) y un disco duro de una cierta capacidad (hoy en día no compres menos de 4,5 Gigas). Los más entendidos exigen una buena tarjeta gráfica (incluso algún modelo conocido del que han oído hablar o que tienen sus amigos) y memoria EDO, o incluso SDRAM, pero no prestan atención a la placa base, que es de la que dependerá el máximo aprovechamiento de las prestaciones de los componentes.

Factores a tener en cuenta de una placa base

EL FABRICANTE

Una placa de una marca de prestigio es una garantía de calidad, aunque hay pequeños fabricantes intentando introducirse en el mercado ofertando productos de calidad a unos precios muy contenidos, por lo que para una buena elección debemos informarnos adecuadamente sobre cada marca y modelo antes de decidirnos.

Un fabricante de prestigio es una garantía de compatibilidad con los demás componentes y en caso de producirse alguna incompatibilidad, las grandes marcas reaccionan con gran rapidez, normalmente con una actualización de la BIOS.

EL CHIPSET

Es el responsable de la comunicación entre los componentes de la placa base, los componentes que se conectan a ella (memoria, tarjeta gráfica, tarjetas SCSI, etc) y con los periféricos ( disco duro, disketera, puertos serie, paralelo, USB e infrarrojos).

ZOCALO o SLOT

Depende del procesador que se instale.

Actualmente se pueden encontrar tres tipos de Zócalos (SOCKET):

  • Zócalo 7: utilizado por los INTEL Pentium MMX, CYRIX 6x86 y M1, y por los AMD K6 y K6-2 (solamente en algunas versiones).

  • Zócalo Super 7: utilizado para los nuevos procesadores CYRIX M1 y AMD K6-2 con bus de 100MHz, aunque también soporta los procesadores soportados por el Zócalo 7, y que, incluso también en la mayoría de las placas actuales, soportará el futuro K6-3.

  • Zócalo 370: especial para el nuevo CELERON A con 128KB de caché con encapsulado plástico (como el Pentium MMX), pero no compatible con los procesadores anteriores.

El conector SLOT para procesador fue introducido por INTEL para su línea Pentium II y actualmente existen dos tipos:

  • SLOT 1: para la gama Pentium II y CELERON con cartucho SECC con 242 conectores. Este Slot también soportará los futuros procesadores de INTEL como el inminente Pentium III.

  • SLOT 2: para Pentium II XEON, con 330 contactos, incompatible con el anterior y que también alojará los futuros procesadores Pentium II XEON que aparecerán a mediados de año.

Además, AMD ha creado el SLOT A, de similares características a los anteriores, pero incompatible con los procesadores INTEL, para su futura línea K7.

En cuanto a los Zócalos anteriores 3, 5 y 8, solamente podremos encontrarlos en placas base antiguas con procesadores 486 y Pentium Pro (el Zócalo 8).

PROCESADORES QUE SOPORTA LA PLACA BASE

Cualquier placa base moderna soporta los procesadores de INTEL, pero no todas soportan el Pentium 233 MMX o el Pentium II 450. Otra cuestión muy diferente es el soporte de los procesadores de AMD o CYRIX, especialmente en sus ultimas versiones (K6-2 de AMD, MII de Cyrix/IBM).

Otra cuestión muy diferente, pero a veces muy importante, es el soporte para futuros procesadores. Para ello la placa debe cumplir además los siguientes requisitos:

Soporte de multiplicadores de reloj superiores a 5x

Soporte de velocidad de BUS de 50MHz, 66MHz, 75MHz, 83 MHz, 100MHz, 103MHz, 112MHz, 124MHz y 133MHz. INTEL, no aconseja utilizar frecuencias diferentes de 50, 60 y 66MHz con los chipsets VX, HX, TX, LX de INTEL debido a que el diseño de éstos no fue pensado para ello, ni frecuencias diferentes de 66MHz y 100MHz con el chipset BX de INTEL o los nuevos chipsets Super 7 de VIA, SIS o ALI. La realidad es que algunas placas funcionan bien a estas frecuencias y otras no.

VOLTAJE

Todas las placas base modernas para Pentium y Pentium II soportan los voltajes estándar requeridos por estos procesadores. Sin embargo algunas placas más antiguas no soportan VOLTAJE DUAL, imprescindible para los Pentium MMX, AMD K6 y K6-2 y Cyrix/IBM 6x86MX y MII. Un problema diferente son los futuros procesadores. Debido a que muchos de ellos están en fase de diseño, a veces no se sabe con seguridad el voltaje al que funcionarán. Por ello, a ser posible, escoge una placa en la que puedas establecer el voltaje en fracciones de 0,1 voltio.

En cuanto a los procesadores Pentuim II y CELERON, el voltaje es detectado automáticamente, aunque algunos fabricantes como ABIT permiten modificar el voltaje para facilitar el overclocking y el quemado del procesador si no actuamos con sensatez.

OVERCLOCKING

Con el bloqueo de multiplicador en los últimos Pentium y en los Pentium II y CELERON, y el aprovechamiento que hace AMD de sus procesadores K6 y K6-2, la única opción actualmente para hacer overclocking pasa por el aumento de la velocidad del bus.

Para las placas con Zócalo 7, además de las velocidades oficiales de 50, 55, 60 y 66MHz, algunos fabricantes ofrecían la opción de 75MHz, e incluso la de 83MHz, incluso con los chipsets VX, HX y TX de INTEL, con lo que el forzado no sólo afectaba al procesador, sino también a la placa base, con lo que las posibilidades de éxito eran escasas. Entonces aparecieron ALI, SIS y VIA, y algo se mejoró.

Las placas con Zócalo Super 7, además de las velocidades oficiales de 66, 75, 83 y 100MHz, y alguna extraña como 95MHz (necesaria para algunos modelos del K6-2 como el 333MHz o el 380MHz), la mayoría de los fabricantes ofrecen velocidades de bus de 103, 112, 124, 133 y hasta 140MHz (la IWILL XA-100 Plus), con lo que podremos hacer overclocking hasta derretir el procesador, aunque el éxito del overclocking suele venir limitado por la calidad y las especificaciones técnicas de otros componentes, especialmente la memoria, las tarjetas gráficas PCI y AGP, las controladoras SCSI e incluso algunos discos duros que se niegan a arrancar.

Las placas con Slot 1 permiten velocidades oficiales de 66 y 100MHz, y la mayoría de los fabricantes añaden a las anteriores 75, 83, 103, 112, 124 y 133MHz, tanto para pentium II como para CELERON (que parece ser el rey del overclocking con bus de 100MHz). Sin embargo, hay placas base que detectan automáticamente la velocidad del bus del procesador (como las fabricadas por INTEL), por lo que no podremos hacer overclocking hasta estos límites, y es un detalle a tener en cuenta a la hora de ver las pruebas comparativas de las placas base.

Las placas Pentium II, salvo raras excepciones, detectan automáticamente el voltaje del procesador insertado, pero algunos fabricantes como ABIT permite modificar este voltaje, con lo que es más fácil que el overclocking tenga éxito, aunque también lo es quemar el procesador.

Las placas con Slot 1 presentan los mismos problemas que las Super 7 con algunos componentes, que no llevan nada bien el aumento del bus.
Pero el sueño de los amantes del overclocking es poder seleccionar el multiplicador y la velocidad del bus del procesador sin tener que abrir la caja continuamente y mover diminutos y a veces difícilmente accesibles JUMPERS o DIP SWITCHES (interruptor ON/OFF). Cada vez es mayor el número de placas base que permiten configurar estos valores desde un apartado de la BIOS, lo que permite hacer mil y una pruebas hasta dar con la configuración óptima para hacer overclocking manteniendo la estabilidad. Busca estas placas si te gusta el riesgo.

RANURAS DE EXPANSIÓN ISA-PCI-AGP

Los SLOTS pueden ser de tipo ISA/16 bits o de tipo PCI/32 bits. Además en las placas modernas para Pentium II y en las placas Super 7, encontrarás un nuevo SLOT, mejor llamado PUERTO, para tarjetas gráficas para bus AGP. Las ranuras ISA son necesarias para modems internos, tarjetas de sonido, tarjetas SCSI suministradas con el scanner, tarjetas de red, tarjetas capturadoras de vídeo, tarjetas de radio y TV, etc. Existen modems externos conectables al puerto serie y empiezan a popularizarse con bus PCI y USB, scanners conectables al puerto paralelo (más lento), al puerto USB, o los puedes conectar a una tarjeta PCI-SCSI, tarjetas de red para bus PCI e incluso tarjetas de sonido 3D para bus PCI, pero cuantas más ranuras, mejor y podrás despejar tu mesa de trabajo.

Las ranuras PCI son necesarias para las tarjetas gráficas, tarjetas controladoras SCSI, tarjetas de red, etc. De nuevo, cuantas más, mejor.

En cuanto a ranuras AGP, solamente encontrarás 1 para la tarjeta gráfica (que es la única que lo utiliza).

Hablando del número total de ranuras, la combinación 1AGP/4PCI/3ISA es la más habitual, pero debido al aumento de periféricos para bus PCI (modems, tarjetas de sonido, etc.) empieza a ser normal 1AGP/5PCI/2ISA. Recuerda sin embargo, que solamente se pueden utilizar un máximo de 6 conectores, compartiendo la ranura AGP con la ranura PCI 1, y una ISA con la última PCI.

ZOCALOS O BANCOS DE MEMORIA

En las placas base más modernas encontrarás ranuras para módulos DIMM de 168 contactos (Chipset VX, TX, LX y BX de Intel, los chipsets VPx de VIA y los ALADDIN de ALI), que son los únicos en los que puedes instalar memoria SDRAM.

Algunas placas para Pentium no soportan memoria en encapsulado de 72 contactos y sólo soportan memoria en encapsulado DIMM de 168 contactos, al igual que todas las nuevas placas para Pentium II con chipset LX y BX.

Por último, el enganche de las memorias debe ser de calidad. En la memoria de 72 contactos, los enganches deben ser metálicos, pues los de plásticos pueden romperse con facilidad, y en la memoria de 168 contactos, el enganche debe ser lo suficientemente largo para abrazar todo el módulo, y así no se nos caerán los módulos de memoria al transportar el equipo y siempre tendremos la seguridad de que los errores VXD se deben a un módulo defectuoso y no a un falso contacto.

EL CACHE

Casi todas las placas actuales incorporan en placa base 512 KB de caché de segundo nivel, aunque en equipos algo más antiguos, y en ordenadores portátiles, la cantidad puede ser de 256KB o incluso puede que no esté presente. Las nuevas placas Super 7 con chipsets de VIA y ALI pueden soportar hasta 2MB de caché, mientras que las placas para Pentium II no llevan ninguna, pues la caché de segundo nivel va en el propio encapsulado del procesador. Como regla general, cuanta mayor cantidad de caché de nivel 2, mejor.

Otro aspecto que puede afectar al rendimiento es la cantidad de memoria caché TAG. El chipset Intel TX sólo puede hacer caché de 64 MB de memoria RAM, y muchas otras placas con otros chipsets tampoco lo hacen debido a la escasez de memoria caché TAG.

OTROS COMPONENTES INTEGRADOS

Las placas base modernas incorporan la controladora de disqueteras, la controladora IDE PCI (con dos canales para dos dispositivos cada uno - hasta 4 unidades en total entre discos duros, CD-Roms, algunas unidades de backup, etc.), las controladoras de los puertos serie (COM1, COM2) y paralelo (LPT1) y la controladora de teclado. La mayoría de las placas más modernas incorporan también conectores para uno o dos puertos USB (para conectar todo tipo de dispositivos externos - monitor, teclado, ratón, escáner, modem, etc.), aunque aún son escasos los dispositivos conectables a este puerto, y conector para puerto de infrarrojos (para comunicar el equipo de sobremesa con uno portátil). Las modernas placas ATX incorporan conectores de tipo PS/2 para el ratón y el teclado. Además, podemos encontrar en el mercado placas base que integran la tarjeta gráfica, la tarjeta de sonido e incluso una controladora SCSI o la tarjeta de red. También son valores añadidos, pero aumentan el costo de la placa, y en caso de estropearse ésta el número de componentes inutilizados es mayor y el costo de la reposición mayor. Además, la calidad de las tarjetas gráfcas y de sonido integradas en la placa base no suele ser de una calidad y prestaciones muy altas, para ajustar costos, por lo que este tipo de placas todo en uno son más adecuadas para equipos de oficina.

Sin embargo, últimamente las placas base que incorporan controladora SCSI han bajado considerablemente de precio, de modo que el costo de estas placas es muy poco superior al de la controladora SCSI por separado.

La mayoría de las placas actuales, incluyen nuevos componentes integrados que son de gran utilidad, como los siguientes:

  • Chips para la monitorización de la temperatura de la placa base, del procesador e incluso del interior del equipo, especialmente interesantes para poder hacer overclocking sin freír el procesador, o para detectar posibles anomalías antes de que lleguen a ser un desastre.

  • Chips para la monitorización del buen funcionamiento del ventilador-disipador del procesador, de la fuente de alimentación e incluso de ventiladores adicionales, lo que nos puede evitar un recalentamiento del procesador, que puede llegar a dañar a este e incluso a otros componentes.

  • BIOS que permiten encender el equipo o despertarlo del modo de ahorro de energía mediante diversos componentes: modem, red, teclado, ratón, temporizador, etc.).

  • Conector SBLINK: permite que las tarjetas de sonido PCI funcionen en modo MS-DOS emulando el estándar ISA de SoundBlaster.

Estos dispositivos nos permiten un mayor control sobre nuestros periféricos y garantizan el buen funcionamiento de nuestro equipo así como su duración.

FORMATOS AT o ATX:

  • Baby AT: formato reducido del AT, y es incluso más habitual que el AT por adaptarse con mayor facilidad a cualquier caja, pero los componentes están más juntos, lo que hace que algunas veces las tarjetas de expansión largas tengan problemas.

  • Mini-ATX: versión más pequeña de la ATX.

  • Micro-ATX: versión muy reducida del formato ATX para ordenadores de sobremesa o ordenadores que necesitan pocas ranuras de expansión (típico en ordenadores de oficina).

  • LPX: variedad del AT para ordenadores de sobremesa en la que las tarjetas de expansión se colocan sobre una tarjeta que se inserta en la placa base, con un potencial de ampliación limitado.

  • NLX: formato de reciente aparición para ordenadores de sobremesa, también con una tarjeta en vertical que tiene las ranuras de expansión, pero que además admite su inserción mediante raíles.

Bottom of Form 1

EL PROCESADOR
Un buen motor

Bottom of Form 2

El Microprocesador


Es el motor del equipo y de él dependen en un tanto por ciento bastante alto las prestaciones finales del equipo. Pero para tener un equipo rápido, debemos tener una óptima combinación de componentes entre placa base, procesador, tarjeta gráfica, cantidad y tipo de memoria RAM y disco duro.

A continuación, vamos a analizar los procesadores:

INTEL

Domina el mercado de procesadores Pentium y Pentium II, como ya hizo con los 386 y 486 en su momento, debido a la cantidad de dinero invertido en investigación y desarrollo, lo que le hace estar un paso o incluso varios por delante de sus competidores. Las gamas actuales en el mercado son las siguientes

PENTIUM

Fue el primer procesador de 64 bits de quinta generación en aparecer en el mercado, y llegó a alcanzar velocidades de hasta 200MHz con una velocidad interna de 66MHz. Sus características más destacadas son las siguientes:

  • Arquitectura superescalar

  • Predicción dinámica de instrucciones

  • Unidad de coma flotante de tipo continuo

  • Caché de 8KB para datos y 8KB para instrucciones

  • Bus de datos de 64 bits

  • Soporte de paridad

  • Extensiones de modo virtual

  • Soporte de múltiple procesador

  • Características de bajo consumo

  • Actualmente, es difícil encontrarlos en el mercado, debido a que Intel ha dejado de fabricarlos, y solamente puede haberlos en algún distribuidor. Puede ser interesante adquirir un 200MHz por su bajo costo si el equipo se va a utilizar como terminal de una red para trabajos de tipo ofimático (tratamiento de texto, hoja de cálculo, bases de datos, contabilidad, etc.). No interesa como ordenador doméstico.

PENTIUM MMX

Es la última generación de la gama Pentium y se ofrece en velocidades de 166MHz, 200MHz y 233MHz para ordenadores de sobremesa, versiones de 150MHz, 166MHz (lanzado al mercado en el mes de Enero de 1998, con tecnología de 0,25 micras), 200MHz, 233MHz y 266MHz (lanzado al mercado en el mes de Enero de 1998, con tecnología de 0,25 micras) para portátiles y versiones OVERDRIVE para equipos de sobremesa de 125MHz, 150MHz, 166MHz, 180MHz y 200MHz.

Con respecto al Pentium Clásico ofrece las siguientes mejoras:

  • 57 nuevas instrucciones internas diseñadas para procesar con más eficacia datos gráficos, de audio y de vídeo.

  • SIMD(Single Instruction Multiple Data), que permite realizar la misma operación con diferentes datos simultáneamente, especialmente útil con imágenes gráficas, vídeo, audio y animaciones.

  • Capacidad de ejecutar dos instrucciones multimedia (MMX) en cada ciclo de reloj.

  • Doble cantidad de caché: 16KB para datos y 16 KB para instrucciones.

  • Doble de los búfferes de escritura y mejora de ejecución de instrucciones en paralelo.

  • Voltaje menor (2,8V sólo para el corazón del procesador). Esto da lugar a un menor calentamiento, pero el funcionar con doble voltaje 2,8V/3,3V implica que algunas placas no lo soportan, y por tanto estos procesadores exigen placas modernas. Los procesadores MMX para portátiles funcionan a 1,8V y 2,0V internamente.

La mejora de prestaciones sobre el Pentium Clásico a igual velocidad no sólo se nota ejecutando instrucciones multimedia, puesto que el simple doblaje de la cantidad de caché supone un incremento importante de rapidez de proceso.

Este procesador no es interesante en este momento, porque la aparición del Pentium II y sus sucesivas bajadas de precio han causado su practica desaparición del mercado (que se producirá oficialmente a final de año por parte de INTEL). Combinando un Pentium MMX 200MHz o 233MHz con una placa base de buena calidad, 32MB o mejor 64MB de RAM y una buena tarjeta gráfica 3D se obtiene un aceptable ordenador multimedia doméstico o una buena estación de trabajo a un precio muy competitivo.

Sin embargo, este procesador aún sigue siendo muy interesante para un ordenador portátil, debido al excesivo costo, de momento, de los Pentium II para portátiles.

PENTIUM PRO

Ofreciendo como característica innovadora la ejecución dinámica, un paso adelante en la arquitectura superescalar, en sus versiones de 150MHz, 166MHz, 180MHz y 200MHz, y con caché integrada de 256KB, 512 KB o 1MB (versión 200MHz), el Pentium Pro se convirtió a lo largo del año pasado en el procesador más utilizado en servidores y estaciones de trabajo de altas prestaciones. Sus características más destacadas son las siguientes:

  • Optimizado para aplicaciones de 32 bits corriendo en sistemas operativos de 32 bits, aunque compatible con las aplicaciones de 16 bits.

  • Ejecución dinámica.

  • Encapsulado que incluye procesador, caché del mismo nivel e interfaz del bus.

  • Soporte de hasta 4 procesadores y hasta 4GB de memoria.

  • Caché de primer nivel de 8KB para datos y 8KB para instrucciones.

  • Caché de segundo nivel funcionando a la misma velocidad del reloj de bus del procesador (60MHz o 66MHz).

  • Corrección de errores, recuperación de fallos y arquitectura redundante de procesos.

El rendimiento de este procesador está a la par con el rendimiento del Pentium 2, el AMD K6 y el CYRIX 6x86MX en aplicaciones ofimáticas, pero en las aplicaciones multimedia y en los juegos es superado ampliamente por ellos.

Sin embargo, los usuarios de Pentium Pro están de enhorabuena, pues INTEL acaba de lanzar al mercado un Pentium II para Zócalo 8 (el de los Pentium Pro), con instrucciones MMX, como Pentium Pro Overdrive. Este PPro Overdrive saldrá en velocidades de 300MHz, para los equipos basados en PPro 150MHz y 180MHz, y 333MHz, para los equipos basados en PPro 166MHz y 200MHz.

PENTIUM II

Inicialmente disponible en versiones de 233MHz, 266MHz, y 300MHz, y más tarde en una versión de 450MHz es la última generación de procesadores que Intel ha lanzado al mercado. Sus características diferenciales con respecto a las gamas Pentium anteriores son las siguientes:

  • Arquitectura de bus dual independiente, que permite múltiples transacciones simultáneas.

  • Incluye instrucciones MMX al igual que el Pentium MMX, para acelerar las operaciones gráficas y 3D, así como las aplicaciones de vídeo, sonido y juegos.

  • Ejecución dinámica, para acelerar las aplicaciones.

  • Encapsulado en cartucho SEC (Single Edge Contact - Contacto por un sólo lado), incluyendo dentro del cartucho el procesador y la caché de segundo nivel, llamado SLOT 1.

  • Caché de segundo nivel de 512KB funcionando a la mitad de velocidad del procesador.

Según fuentes no oficiales de INTEL, el procesador Pentium II a 333MHz integra dos nuevas instrucciones no documentadas: FXSAVE y FXSTOR, destinadas ambas a acelerar todos los procesos del sistema operativo. Dichas instrucciones sirven para acelerar el cambio entre operaciones de instrucciones MMX (multimedia) y operaciones del coprocesador matemático integrado en el procesador, pues ambos tipos de operaciones no pueden ser ejecutadas simultáneamente.

No hay ningún procesador en el mercado que le supere en prestaciones y características avanzadas, pero su rendimiento queda relativamente limitado por la velocidad de bus de 66MHz. En combinación con una placa base con chipset INTEL 440LX con soporte para bus AGP para tarjeta gráfica, se obtiene un excelente equipo multimedia doméstico o profesional, una buena estación gráfica y un potente servidor, añadiendo los respectivos requisitos de memoria (SDRAM por supuesto) y tarjeta gráfica adecuada a cada necesidad, pudiendo también actualmente encontrar placas base que soportan hasta dos procesadores Pentium II.

También Intel ha lanzado al mercado nuevas versiones del procesador Pentium II con tecnología de 0,25 micras, bus interno de 100MHz y velocidades de 450MHz y 500MHz, juntamente con el nuevo chipset INTEL 440BX, que mejorará las prestaciones del procesador a igualdad de velocidad con los actuales y sacará el máximo provecho del bus AGP y la memoria SDRAM. Las primeras pruebas con estos procesadores no demuestran un gran avance en velocidad con respecto a los anteriores, a pesar del bus de 100MHz, debido a que el tamaño de la caché de Nivel 2 no ha aumentado y ésta sigue funcionando a la mitad de velocidad del procesador, a diferencia de los nuevos procesadores con bus de 100MHz de AMD y CYRIX, donde la caché de Nivel 2 funciona también a una velocidad de 100MHz, con lo que los nuevos procesadores de estos dos fabricantes suponen un considerable aumento de prestaciones respecto a las versiones anteriores.

Si no necesitamos el equipo inmediatamente, quizás valga la pena esperar hasta pasar el verano para comprar un nuevo y flamante Pentium II con bus de 66MHz y una placa BX, y así poder hacer OVERCLOCKING a nuestro procesador utilizando un bus de 75, 83, 100, 103, 112 o incluso 133MHz.

CELERON

Intel lanzó al mercado un nuevo modelo de Pentium II llamado CELERON con una velocidad inicial de 266MHz, que se diferencia de los Pentium II anteriores por no disponer en el encapsulado de la caché de segundo nivel. A este nuevo procesador, también le acompaña un nuevo chipset, el 440EX, que no es más que una versión recortada del 440LX, pero con soporte para un solo procesador, menos slots PCI (3 PCI)y menos cantidad de memoria (2 DIMMS - 512Kb).

Este procesador está pensado para equipos económicos para suplantar al Pentium MMX y arrinconar definitivamente el Zócalo 7 (utilizado por los nuevos procesadores de AMD y CYRIX), aunque las prestaciones de las primeras unidades para pruebas han defraudado bastante, pues su rendimiento es similar al de Pentium MMX 233MHz, excepto en operaciones de coma flotante, e inferior a las unidades de 266MHz de AMD y CYRIX, y es ampliamente superado por los nuevos procesadores de ambos fabricantes (AMD K6-2, CYRIX MII). INTEL presentó en el mes de Junio de 1998 una versión de 300MHz del CELERON y también una versión de 333MHz con 128Kb de caché de Nivel 2 integrada destinada a desbancar a la competencia del zócalo 7 en el sector de bajo costo. Las pruebas hechas con las primeras unidades de CELERON a 300MHz y 333MHzcon 128KB de caché, llamados CELERON 300A y CELERON 333A, han dejado un poco desconcertados a los técnicos. El hecho de que la caché de 128Kb funcione a la misma velocidad que el procesador (no a la mitad como en el caso del Pentium II estándar) hace que las prestaciones del CELERON con caché de nivel 2 sean iguales e incluso superiores a las del Pentium II estándar a igual velocidad. Esto nos hace preguntarnos: ¿qué guarda INTEL en la manga?

Además, si tenemos en cuenta que el CELERON muestra una inusual estabilidad con el bus de 100MHz con placas BX, podemos tener las prestaciones de un Pentium II 400 por mucho menos de la mitad de su costo.

En Enero de este año, INTEL pone a la venta los nuevos procesadores CELERON con caché de 128KB en versiones de 366MHz y 400MHz, aunque sigue con el bus de 66MHz a pesar de los rumores insistentes de que los nuevos CELERON iban a utilizar también el bus de 100MHz (¿Por qué iba INTEL a hacer esto? Sería como asesinar el Pentium II).

La novedad, sin embargo reside en un nuevo encapsulado para la versión de 366MHz, que también se utilizará en velocidades de 300MHz y 333MHz: este encapsulado es de plástico y su aspecto es muy similar al de los antiguos Pentium MMX, y requiere un nuevo tipo de zócalo, pues no es compatible con el Zócalo 7, el Zócalo 370, que es soportado por los actuales chipsets de INTEL para Pentium II, el i440EX y el i440BX, además de introducir uno nuevo, el i440ZX. El procesador 366MHz para Zócalo 370 se ha mostrado igual de susceptible de overclocking con el bus de 100MHz como sus hermanos (llegando a alcanzar 550MHz con estabilidad) y sus prestaciones se sitúan, como es lógico, entre las de un Pentium II 350MHz y las de un Pentium II 400MHz.

XEON

Este es el nombre dado al Pentium II para SLOT 2, un nuevo encapsulado de mayor tamaño que el de los Pentium II actuales, al que acompañan también nuevos chipsets, el INTEL 440GX y el INTEL 450NX, sobre los que podrás encontrar más información en la página de chipsets.

Este nuevo procesador para SLOT 2 incluye en el encapsulado desde 512KB hasta 2MB de caché de segundo nivel y ésta funciona a la misma velocidad del procesador (mientras que en los Pentium II actuales lo hace a la mitad), y su velocidad inicial es de 400MHz y 450MHz. Este nuevo procesador se destina a grandes servidores y estaciones gráficas de alto rendimiento, tendrá un elevado costo y coexistirá con versiones de igual velocidad para SLOT 1.

Las primeras pruebas hechas con este procesador con caché de 512Kb en placas de un solo procesador y en placas duales, muestran muy poca diferencia de rendimiento bajo WINDOWS95/98 con respecto al Pentium II estándar a igual velocidad, mostrando solamente cierta ventaja bajo WINDOWS NT y UNIX, especialmente cuando el sistema hace uso intensivo del bus.

Su alto costo y su escasa diferencia en prestaciones los hace interesantes nada más como servidores o estaciones de trabajo de muy altas prestaciones.

PENTIUM III

Su lanzamiento fue en marzo de este año en sus versiones iniciales de 450MHz y 500MHz, y llegara alcanzar los 1025 MHz

Este procesador no supone una ruptura con la gama Pentium II, como sucedió anteriormente con el Pentium MMX, sino una continuidad, lo cual se aprecia en el hecho de utilizar el mismo encapsulado, la misma cantidad de caché e incluso las mismas placas base (siempre que soporten el bus de 100MHz y actualicemos la BIOS a una versión que soporte este nuevo procesador).

El Pentium III añade 70 nuevas instrucciones MMX (llamadas antes KNI - Katmai New Instructions) diseñadas para mejorar las prestaciones de la unidad de coma flotante del procesador, que al igual que en la tecnología 3DNow! de AMD, permiten ser ejecutadas simultáneamente en paralelo (SIMD - Single Instruction Multiple Data - una sola instrucción con múltiples datos).

Sin embargo, el modo de ejecución de las nuevas instrucciones es ligeramente diferente del de 3DNow,!, por lo que las aplicaciones actuales deben soportar las nuevas instrucciones para sacar provecho de la nueva tecnología aportada por este procesador. Como ya ocurrió con las instrucciones MMX del Pentium, lo más probable es que, salvo alguna honrosa excepción, los juegos serán los que realmente sacarán provecho de las cualidades de este nuevo procesador. De hecho, los primeros juegos en versión Beta que soportan estas instrucciones prometen mejoras de hasta un 25% en velocidad con este procesador.

Como ya ocurrió con 3DNow! y las DirectX6, Microsoft ha anunciado el soporte para estas instrucciones en sus futuras DirectX7.

Las características de este nuevos procesador son las siguientes:

  • Velocidades iniciales de 450MHz y 500MHz, esperando llegar a 1 GHz.

  • Tecnología de 0'25 micras.

  • Bus de 100MHz.

  • Voltaje de 2V.

  • 70 instrucciones adicionales MMX: 50 nuevas instrucciones para tarbajo con coma flotante + 12 instrucciones multimedia + 8 instrucciones para acelerar la RAM

  • 512KB de caché de nivel 2 en el propio procesador funcionando a la mitad de velocidad del procesador.

  • Capacidad para ejecutar 4 instrucciones simultáneamente.

  • Compatibilidad con la mayoría de las placas Slot 1, con chipset BX o ALI Aladdin Pro, requiriendo la consiguiente actualización de la BIOS.

  • Encapsulado SECC2: es como medio encapsulado de Pentium II, con una cara del procesador a la vista, sobre la cual se coloca el disipador.

  • Código único de identificación, que tanta polémica ha causado y que parece que se puede ocultar mediante software.

COMPATIBILIDAD

Tanto ASUS, como ABIT, como SUPERMICRO ya tienen disponibles actualizaciones de BIOS para sus placas BX que soportan este nuevo procesador, y los demás no tardarán en imitarles.

PRECIO

El mismo ronda entre los 600 y 750 en sus versiones de 450 y 500 MHz

FUTUROS PROCESADORES

Las próximas versiones anunciadas para el Pentium II son:

  • El TANNER, con 512, 1024 o 2048KB de caché de nivel 2 funcionando a la misma velocidad del procesador, con bus de 100MHz y tecnología de 0'25 micras se espera en su versión de 500MHz para primavera de 1999. Este procesador para SLOT2 está destinado a sustituir al XEON y su diferencia con éste está en que incluirá las instrucciones MMX2 o KNI. De hecho, parece ser que su nombre definitivo será... PENTIUM III XEON

  • El nuevo Pentium II para portátiles conocido como PE, con 256KB de caché de nivel 2 funcionando a la misma velocidad del procesador (como en el Celeron A). Se prentarán versiones 266PE, 300PE, 333PE y 366PE al mismo tiempo que INTEL dejará de fabricar los Pentium II actuales para portátiles con 512KB de caché de nievel 2.

  • El DIXON, con 256KB de caché de nivel 2 en el encapsulado, con tecnología de 0'25 micras y bus de 100MHz se espera también en su versión inicial de 333MHz para mediados de año. Es el procesador destinado a sustituir al CELERON, y se esperan versiones para portátiles.

  • El CASCADES, con bus de 133MHz y cache de nivel 2 de 256KB en el propio encapsulado funcionando a la velocidad del procesador, y con tecnología de 0'18 micras, se espera para la segunda mitad del 99 en su versión de 600MHz.

  • El COPPERMINE, con bus de 133MHz y caché de segundo nivel de 512KB funcionando a la mitad de velocidad del procesador, y con tecnología de 0'18 micras, se espera también para la segunda mitad de 1999. * Para finales del año 1999, se presentará una nueva versión del procesador KATMAI para SLOT2, que empezará en velocidades de 800MHz llegará a alcanzar los 1,2 GHz. Este procesador será el último de la gama 32 bits y dará paso a MERCED.

  • Para la segunda mitad del año 2000, Intel ha anunciado su procesador MERCED, un procesador de 64bits, que empezará en velocidades de 750MHz y utilizará el denominado SLOT M. Este nuevo procesador romperá completamente con los procesadores tal y como los hemos conocido hasta ahora y será la base del ordenador del siclo XXI.

AMD

Este fabricante tejano que tantos dolores de cabeza dió a Intel con sus procesadores 386 y 486 tardó mucho en reaccionar ante el lanzamiento de la gama Pentium de INTEL. Lo hizo con el K5, pero la ventaja de INTEL era muy grande, pero con la compra de NEXGEN, se produjo un rápido avance que finalmente dio lugar al nacimiento del procesador K6.

En la actualidad AMD es un serio competidor de la gama Pentium MMX de Intel e incluso la gama Pentium II, y el anuncio de nuevos procesadores de este fabricante hace peligrar de nuevo la hegemonía del fabricante californiano como ocurrió en las gamas 386 y 486.

K5

Fue el primer procesador de la gama Pentium de 64 bits hecho por AMD de modo totalmente independiente, y de ahí su retraso en aparecer en el mercado.

AMD adoptó en estos procesadores el marcado de velocidad por comparación con el equivalente de INTEL, y no por la velocidad real interna de proceso, y se lanzaron versiones K5 PR-75 a K5 PR-166 con los mismos estadios intermedios de velocidad que los procesadores de INTEL.

Las prestaciones de este procesador son inferiores a las de los procesadores Pentium Clásicos (sin MMX), aunque mejores que las de los CYRIX 6x86 en operaciones de coma flotante (coprocesador matemático).

Este procesador está superado por el K6 tanto en características y prestaciones.

K6

Cuando AMD compró NEXGEN, aprovechó el diseño de su procesador de la serie 686 de 64 bits para desarrollar el K6, un procesador destinado a competir con y superar al Pentium MMX, pero que ha resultado un serio competidor incluso para el Pentium II.

Al igual que el Pentium Clásico y el MMX, se instala en placas base con zócalo del tipo 7 (el de las placas Pentium) y se presenta en velocidades de 166MHz, 200MHz y 233MHz. Las versiones de 266MHz y 300MHz, con tecnología de 0,25 micras, aunque oficialmente no soportan la velocidad de bus de 100MHZ, las pruebas hechas a 75MHz, 83MHz y 100MHz han dado unos resultados muy buenos y una estabilidad bastante alta, llegando a alcanzar los 400MHz. En cuanto a rendimiento comparado, el K-6 300MHz compite seriamente con el Pentium II 300MHz excepto en operaciones de coma flotante.

Las características más importantes de este procesador son las siguientes:

  • Integra las mismas instrucciones MMX que el Pentium MMX y el Pentium II de INTEL.

  • Caché de nivel 1 de 64 KB (32KB para datos + 32KB para instrucciones), el doble que los Pentium MMX y Pentium II.

  • Microarquitectura superescalar RISC86 (ejecución especulativa, ejecución fuera de orden, predicción avanzada de dos niveles, siete unidades de ejecución paralela).

Este procesador está más cerca del Pentium Pro y el Pentium II que del Pentium MMX en cuanto a desarrollo tecnológico, y de hecho esto queda refrendado por sus prestaciones, siempre superiores a las de un Pentium MMX a igualdad de velocidad, y muy cerca del Pentium II de igual velocidad, perdiendo respecto a éste solamente en operaciones que exigen una unidad de coma flotante rápida (coprocesador matemático).

Al igual que el Pentium MMX, exige placas que soporten voltaje dual (2,9/3,3 para las versiones K6-166 y K6-200, 3,2/3,3 para la versión K6-233) y 2,2/3,3 para las versiones K6-266 y K6-300, pero a diferencia de los Pentium MMX, no existen versiones OVERDRIVE, las versiones de 266MHz y 300MHz no son soportadas por muchas placas base, lo que nos puede obligar a un cambio de placa, pero la constante bajada de precio del Pentium II hace que tengamos nuestras dudas sobre el interés de su compra.

Con una velocidad a camino entre Pentium MMX y Pentium II y con un precio incluso menor que el del Pentium MMX. Además las pruebas realizadas con un K6 300MHz haciendo OVERCLOCKING con el bus de 100MHz, no soportado oficialmente por el procesador, ha dado unos resultados que superan al Pentium II 300MHz (bus de 66MHz) excepto en operaciones de cálculo intensivo con la unidad de coma flotante.

Seguramente, ésta es la opción más recomendable para actualizar un equipo Pentium con placa que soporte voltaje dual aprovechando el resto de los componentes, siempre que sea posible. Si hay que comprar una nueva placa, hay que pensarlo seriamente, y escoger una de las nuevas placas con los últimos chipsets de VIA y ALI que soportan bus de 100MHZ y AGP, de cara a poder utilizar los procesadores K6-2 de AMD y MII de CYRIX.

K6-2

AMD ha presentado el K6-2, antes llamado K6 3D, con bus de 100 MHz, 21 nuevas instrucciones MMX, llamadas 3D NOW destinadas a mejorar el rendimiento en operaciones de coma flotante (CAD, juegos, multimedia, etc.) y velocidades iniciales de 266MHz, 300MHz y 333MHz y esperandose velocidades de 500 y 600 MHz, con lo que INTEL cada vez tiene más difícil mantener su cuota de mercado.

Las características más importantes de este procesador son las siguientes:

  • Soporte oficial para el bus de 100 MHz en los modelos de 300MHz y 350MHz, y las futuras versiones de 400MHz y 450MHz. El modelo a 266MHz funciona con un bus de 66MHz, aunque funciona de manera estable, e incluso con mejores prestaciones, configurado como 100x2,5=250MHz. La versión de 333MHz utiliza un bus de 95MHz, pero sus prestaciones son muy poco superiores al modelo anterior, debido a que el descenso del bus absorbe parcialmente el aumento de velocidad.

  • A las 57 instrucciones MMX licenciadas por INTEL, añade 21 instrucciones a las que llama 3DNow!. Estas nuevas instrucciones están destinadas a mejorar los juegos 3D, el software con imágenes 3D, los programas de CAD, el audio 3D, el software de reconocimiento del habla, el funcionamiento de los WINMODEMS o módems HSP, etc.

  • Caché de nivel 1 de 64 KB (32KB para datos + 32KB para instrucciones), el doble que los Pentium MMX y Pentium II.

  • Caché de nivel 2 en placa base funcionando a la velocidad de bus.

  • Ejecución de hasta 3 instrucciones 3D por cada ciclo de reloj.

  • Ejecución de hasta 4 cálculos de coma flotante por cada ciclo de reloj.

Este procesador está destinado a competir directamente con el Pentium II, y comparando los nuevos procesadores de AMD con los Pentium II a igual velocidad (aunque con bus de 66MHz estos últimos), los resultados son asombrosos: en aplicaciones ofimáticas (procesador de texto, hoja de cálculo, etc.), el K6-2 llega a superar al Pentium II a igual velocidad, pero la ejecución de operaciones de como flotante (CAD, multimedia, juegos, etc.) todavía es el dominio de INTEL. MICROSOFT ha anunciado que soportará las nuevas instrucciones de este procesador en su versión DirectX6

Aunque este procesador tiene como complemento ideal las nuevas placas Super 7 con bus de 100MHz y AGP, diversas pruebas han demostrado que el K6-2 puede funcionar de forma estable sobre una placa con bus de 66MHz, configurando el procesador como 66x4 y como 66x4,5, siempre que la placa base admita el voltaje interno (CORE VOLTAGE) de 2,1V o 2,2V (este último es el oficial). Antes de comprar una nueva placa, deberíamos visitar la WEB del fabricante de nuestra placa base actual para comprobar esta posibilidad y buscar una BIOS actualizada.

Además, a diferencia de los procesadores Pentium II con bus de 100MHz, que requieren memoria SDRAM PC-100, las placas Super 7 admiten memoria EDO y memoria SDRAM normal con el bus de 100MHz (siempre que ésta sea de calidad), lo que reduce sensiblemente el costo de la actualización, reduciendo las prestaciones en sólo un 10%.

En Enero de 1999 AMD presentó una nueva serie de su procesador K6-2 con velocidades de 366MHz (con bus de 66MHz), 380MHz (con bus de 95MHz) y 400MHz(con bus de 100MHz). La versión de 400MHz se caracteriza además por utilizar una nueva instrucción interna (WRITE MERGE BUFFER) que permite una gestión optimizada de la caché de nivel 1, con lo que sus prestaciones se acercan cada día más a las del Pentium II a igual velocidad de reloj. Esta nueva serie de procesadores con esta nueva instrucción, conocidos como CXT CORE, también se presentará con una velocidad de 350MHz.

Existen también versiones del K6-2 para portátiles, con velocidades de 266MHz, 300MHz y 333MHz.

K6-3

Fue anunciado inicialmente para final de 1998, pero deliberadamente atrasado hasta el primer trimestre del 99 para aprovechar el tirón del K6-2, AMD ha anunciado las características del K6-3, antes llamado K6-3D+.

  • Velocidades iniciales de 350MHz, 400MHz y 450MHz, esperando llegar a los 600MHz a final de 1999.

  • Tecnología de 0'25 micras, esperando reducirla a 0'18 para final de año.

  • Bus de 100MHz.

  • Instrucciones 3DNow!

  • 256KB de caché de nivel 2 en el propio procesador funcionando a la misma velocidad del procesador (como en el Pentium II XEON).

  • La antigua caché de nivel 2 de la placa base pasa a ser caché de nivel 3 y funciona a la velocidad del bus.

  • Capacidad para ejecutar 4 instrucciones simultáneamente.

  • Compatibilidad con la mayoría de las placas Super 7. Solo se requiere que la placa soporte voltajes entre 2'3V y 2'5v, además de la preceptiva actualización de la BIOS.

Las pruebas preliminares de este procesador han dado unos resultados sorprendentes: a igual velocidad de procesador, iguala al Pentium II en aplicaciones ofimáticas y ¡¡¡lo supera en los juegos!!!

FUTUROS PROCESADORES

Sin embargo, parece que la futura estrellas de AMD será el K-7, un procesador con un bus Alpha de 200MHz que se insertará en un SLOT tipo Pentium II, posiblemente llamado SLOT A, con velocidades iniciales de 500MHz, y será el que lleve a AMD al siglo XXI. Este procesador tendrá 128Kb de caché de nivel 1 y 512KB de caché de nivel 2 en el propio procesador funcionando a un tercio de la velocidad del procesador, incluirá las instrucciones 3DNow! y se fabricará inicialmente con tecnología de 0'25 micras y llegará a las 0'18 micras.

A lo largo del año 1999 y principios del 2000, AMD lanzará al mercado sucesivas versiones del K7, aumentando el tamaño de la caché de nivel 2 hasta los 8MB y la velocidad hasta alcanzar 1GHz, con tecnología de 0'18 micras.

En el futuro, también se lanzará una versión hecha en cobre. Según un reciente anuncio de AMD, está previsto lanzar una versión para Zócalo (tipo Zócalo 7) para equipos domésticos con un precio más ajustado que podría llegar al mercado en su lanzamiento inicial anunciado para el 23 de Junio de 1999

CYRIX / IBM

Se convirtió con su 6x86 en el primer serio competidor a la gama Pentium de INTEL, llegando a superarlo en prestaciones, pero la aparición de los Pentium MMX los relegó totalmente, debido a la unidad de coma flotante más lenta de su procesador y la falta de instrucciones MMX. Luego el relevo fue tomado por AMD con su K6, pero de nuevo CYRIX ha vuelto a la arena con su nuevo 6x86MX (llamado también M2), con las 57 instrucciones MMX.

6x86

Fue el primer competidor serio a la gama Pentium, y aunque tuvo diversos problemas de compatibilidad, éstos fueron resueltos en las sucesivas revisiones o podían corregirse mediante parches que se podían obtener de la WEB de CYRIX. El nombre de estos procesadores, al igual que todos los de CYRIX hasta el momento pertenecientes a la gama de 64 bits, no viene dada por su velocidad, sino por sus prestaciones comparadas a los procesadores de Intel. Se presentaron versiones 6x86 P-120+ a 6x86 P-200+, con los mismos estadios intermedios que los procesadores de INTEL, y sus características más destacadas eran las siguientes:


  • Arquitectura superescalar.

  • Predicción múltiple.

  • Ejecución y proceso de datos fuera de orden.

  • Caché de nivel 1 unificada de 16KB.

Debido a sus problemas de compatibilidad, especialmente el problema de la caché WRITE BACK con WINDOWS NT (resuelto en los procesadores con la revisión 2.7 o posterior), y sus problemas de sobrecalentamiento (resueltos con la serie 6x86L), su popularidad inicial descendió, y la aparición de los Pentium MMX, prácticamente los borró del mercado.

Otro problema añadido surgió con el 6x86 P-200+. Debido a que su velocidad de bus era de 75MHz, existían pocas placas base en el mercado que soportasen oficialmente esta velocidad, pero las más populares, con los chipsets 430HX y 430VX de Intel, daban frecuentes errores y problemas, aunque INTEL siempre advirtió que ambos chipsets no habían sido pensados para funcionar a 75MHz. Además muchos periféricos y componentes, como tarjetas gráficas, módulos de memoria y tarjetas SCSI, no funcionaban correctamente a la mitad de velocidad de reloj (38MHz), velocidad a la que funciona el bus PCI cuando la velocidad de bus es de 75MHz.

De todos modos, evitar este procesador y si acaso escoger el siguiente.

6x86MX

Al igual que el K6 de AMD, este procesador debe situarse realmente a medio camino entre el Pentium MMX y el Pentium II. Por un lado ejecuta los programas ofimáticos más rápido que un Pentium MMX e incluso que un Pentium II en algunos casos, pero su unidad de coma flotante y sus prestaciones en 3D son algo inferiores a las de un Pentium MMX.

Este procesadores se ofrece actualmente en las siguientes versiones, con un marcaje de velocidad en función de su comparación con los procesadores de INTEL, que son 6x86MX PR-166GP, 6x86MX PR-200GP, 6x86MX PR-233GP, 6x86MX PR-266GP con velocidad de bus de 75x3 o 83x2,5 y voltaje interno de 2,7V, presentado en Enero de 1998 y en el mes de Abril ha presentado el 6x86MX PR-300GP de características similares al anterior, y, curiosamente, al mismo precio que la versión PR-266. Sus características más destacadas son:

  • Caché de nivel 1 de 64KB unificada para datos e instrucciones.

  • Incorpora las 57 instrucciones MMX licenciadas por INTEL.

Estos tres procesadores tienen la particularidad de poder escoger la velocidad de bus entre 50MHz y 75MHz, aunque esta última es la que ofrece las mejores prestaciones. De todos modos, para sacarle el máximo provecho y trabajar con un equipo estable, se debe escoger con sumo cuidado la placa base.

También se han detectado errores de compatibilidad como en las series anteriores, pero de igual modo, desde la página WEB de CYRIX podemos obtener los parches para corregirlos.

Es un gran procesador, de una gran rapidez, ligeramente más caro que los Pentium MMX y los K6 pero es recomendable con reservas debido a la velocidad de bus de 75MHz del 6x86MX PR-233GP y el 6x86MX PR-266GP. El vendedor debe asegurarnos que funcionará con la placa instalada. Imprescindible visitar la página WEB de CYRIX para ver la lista de placas probadas y compatibles con este procesador.

MII

Este procesador, anteriormente conocido por el nombre clave de CAYENNE es la nueva generación del 6x86MX, y pretende igualar e incluso mejorar las prestaciones del Pentium II mejorando la unidad de coma flotante (coprocesador matemático), la debilidad de todos los procesadores de CYRIX. Además integra 15 nuevas instrucciones multimedia para mejorar las prestaciones en multimedia y 3D y funciona con bus de 100MHz.

La nueva unidad de coma flotante es capaz de ejecutar 4 operaciones de coma flotante en cada ciclo de reloj usando instrucciones multimedia duales e incorpora 64KB de caché de nivel 1. Se puede encontrar ya en el mercado en versiones PR-300 también los PR-333, PR-350 y PR-400.

Como todos los procesadores CYRIX, la velocidad se calcula en relación a las prestaciones en comparación con los procesadores INTEL, y así el PR-300 funciona realmente a 233MHz, configurado como 66x3,5, aunque admite su configuración como 75x3, 83x2,5 o 100x2, siendo esta última la que ofrece mejores prestaciones.

Este procesador esta fabricado con tecnología de 0,35 micras y su voltaje interno (CORE VOLTAGE) es de 2,9V, por lo que, al igual que sus hermanos, genera bastante calor, lo que siempre da lugar a un más que arriesgado overclocking.

Las primeras pruebas con este procesador mejoran las prestaciones del K6 y el CELERON en aplicaciones ofimáticas, aunque es superado por el K6-2, la nueva estrella del zócalo 7.

Este procesador es una muy buena alternativa de bajo costo, especialmente si queremos conservar nuestra placa base, pues muchas placas de una antigüedad media con soporte MMX también admiten el voltaje de 2,9V.

MEDIAGX

Este es un procesador muy interesante diseñado para ordenadores de muy bajo costo.

El MEDIAGX se compone de dos chips, el procesador en sí mismo, que también integra las funciones gráficas y otro chip encargado de las funciones de sonido y las propias del chipset de la placa base. El procesador gráfico está en el propio procesador y utiliza la memoria RAM para almacenar datos.

Se ofrece en velocidades iniciales de 133MHz, 150MHz , 166MHz, 180MHz y 200MHz e integra una caché unificada de nivel 1 de 16KB.

Sus prestaciones son similares a las de un Pentium Clásico, pero su bajo rendimiento en operaciones de coma flotante y programas 3D lo hacen interesante solamente por su muy bajo precio.

El problema de este procesador es que debe estar integrado en la placa base, y por tanto no se puede actualizar. Puede que empecemos a verlo en ordenadores portátiles de bajo costo o en puestos de trabajo en una red, pero no se recomienda como ordenador doméstico.

Recientemente se ha presentado una versión del MediaGX a 233MHz que pronto empezaremos a ver en dispositivos para WINDOWS CE.

MXI

Es la nueva generación del procesador MEDIAGX, siguiendo con la tendencia de la integración, con dos chipsets: el primero, el procesador, que incluye el controlador gráfico; segundo, y el chipset propiamente dicho, que incluye el controlador de sonido.

En esta nueva versión, el MXI incorporará controlador gráfico 2D y 3D, instrucciones MMX y 64KB de caché de primer nivel, y se presentará en versiones PR-300 y PR-400.

IDT

CENTAUR TECHNOLOGY INC., subsidiaria de INTEGRATED DEVICE TECHNOLOGY, INC. (IDT) acaba de lanzar al mercado su primer procesador, caracterizado por un bajo costo, bajo consumo de energía y totalmente compatible con las placas base y chipsets que existen actualmente en el mercado.

WINCHIP C6

Este procesador es compatible con las placas base y chipsets que existen actualmente en el mercado, pues funciona a 3,3V o 3,5V.

El secreto de este procesador es su diseño no super-escalar, parecido al del 486, pero al utilizar el bus de Pentium de 64 bits, una caché de 64KB y un diseño de canal de transferencia de datos avanzado, consigue unas prestaciones similares a las de un Pentium.

Se presenta en velocidades de 150-200MHz, pero sus prestaciones son inferiores, debido a un floja unidad de coma flotante (coprocesador matemático) y la ausencia de instrucciones MMX. Su comportamiento en aplicaciones ofimáticas es bastante bueno, pero su rendimiento desciende ostensiblemente en aplicaciones multimedia.

Este es un procesador adecuado para equipos portátiles de bajo costo o para ordenadores que se utilizan para tareas sencillas. No es un procesador adecuado para un equipo multimedia.

WINCHIP C6+

Este nuevo procesador de IDT, lanzado en el año 1998, mejora la unidad de coma flotante del C6 y añade instrucciones MMX y la especificación 3DNow! del AMD K6-2 con 53 nuevas instrucciones.

Se presenta en versiones de 200MHz, 225MHzy 240MHz y es compatible con el Zócalo 7, presente en todas las placas para Pentium y en las Super 7.

WINCHIP 2-3D

IDT acaba de anunciar para mediados de 1999 un nuevo procesador, el WINCHIP 2-3D, con 64KB de caché de nivel 1 y soporte de las instrucciones 3DNow! licenciadas por AMD, que nos suena revolucionario (o anticuado, según de mire) para lo que se estila hoy en día.

Primera novedad, frente a toda la competencia, nada de voltajes duales: este procesador puede funcionar a 3'52V o a 3'3V, es decir, funciona en cualquier placa Pentium Zócalo 7 (incluso las primeras con el chipset 430FX) o en las nuevas Super 7 ¡y sin calentarse en exceso!.

El bus de este procesador es de 60,66, 75, 83 y 100MHz (los dos primeros los hay en todas las placas con Zócalo 7, e incluso en algunas los dos siguientes, pero una placa Super 7 los soporta todos) y el multiplicador es de 2'5x, 3x o 3'5x (también en muchas las placas base Zócalo 7 y Super 7).

Lo único que nos hace falta por último es una actualización de la BIOS que soporte el nuevo procesador.

Este procesador se presentará en versiones de 225MHz (bus de 75MHz), 233MHz (bus de 66MHz), 240MHz (bus de 60MHz), 250MHz (bus de 83MHz), 266MHz (bus de 66MHz) y 300MHz (bus de 75 y 100MHz).

FUTUROS PROCESADORES

IDT piensa presentar a lo largo de 1999 el WINCHIP 3, con 128KB de caché de nivel 1 y velocidades iniciales de 266MHz y hacia finales de 1999 presentará el WINCHIP 4, del que se conocen pocos detalles, pero su velocidad empezará en los 400MHz.

Para más información, dirigirse a la página WEB de IDT WINCHIP.

Bottom of Form 1

LA MEMORIA

Inicialmente podemos clasificar la memoria en tres tipos: RAM, ROM y MEMORIA VIRTUAL.

Memoria RAM

Es la memoria de acceso aleatorio (Random Access Memory). Se llama de acceso aleatorio porque el procesador accede a la información que está en la memoria en cualquier punto sin tener que acceder a la información anterior y posterior.

Es la memoria que se actualiza constantemente mientras el ordenador está en uso y que pierde sus datos cuando el ordenador se apaga.

La memoria RAM se clasifica en DRAM, SRAM y TAG RAM.

DRAM

Es la memoria de acceso aleatorio dinámica (Dynamic Random Access Memory). Está organizada en direcciones de memoria (Addresses) que son reemplazadas muchas veces por segundo.

Es la memoria de trabajo, por lo que a mayor cantidad de memoria, más datos se pueden tener en ella y más aplicaciones pueden estar funcionando simultáneamente, y por supuesto a mayor cantidad mayor velocidad de proceso, pues los programas no necesitan buscar los datos continuamente en el disco duro, el cual es muchísimo más lento.

La memoria RAM dinámica puede ser de diferentes tipos de acuerdo con su tecnología de fabricación: FPM, EDO, SDRAM, BEDO y más recientemente RDRAM. Además, cualquiera de los tipos anteriores puede presentarse en módulos de memoria SIN PARIDAD, CON PARIDAD o de tipo ECC.

Los módulos de memoria CON PARIDAD (parity) se distinguen porque tienen un número impar de chips. El chip que hace el número par no es de memoria, sino que es el chip de paridad, que se utiliza para comprobar el flujo de datos y eliminar los errores que se pueden producir. Este tipo de módulos se usan especialmente en ordenadores que funcionan como servidores, por la necesidad que existe de mantener la integridad de los datos t porque el precio de éstos módulos es muy superior a los módulos sin paridad, por que sería muy costoso para usuarios domésticos.

Los módulos de memoria ECC (Error Correction Code) se usan también en servidores y poseen otro método diferente de corrección de errores, aunque más preciso que el anterior. La diferencia consiste en que en los módulos con paridad se compara cada byte antes y después de pasar por la DRAM y si se detecta un error se pierde la información y se repite el proceso, pero no se sabe dónde ocurrió el error. En los módulos ECC los errores se detectan con mayor precisión y además se pueden corregir los errores, por eso esta última tecnología es más cara.

En los módulos de memoria SIN PARIDAD, no se detectan los errores y los datos se procesan como si no hubiese ocurrido nada, con la consiguiente corrupción de datos que se produce ocasionalmente en los equipos sin saber por qué o por qué no.

FPM (Fast Page Mode)


Su nombre procede del modo en que transfiere los datos, llamado paginamiento rápido. Es la memoria normal, no EDO, y era el tipo de memoria más popular hasta hace aproximadamente un año. Era el tipo de memoria normal en los ordenadores 386, 486 y los primeros Pentium y llego a alcanzar velocidades de hasta 60 nanosegundos (ns). Se presentaba en módulos SIMM (Single In-line Memory Modulo)de 30 contactos (16 bits) para los 386 y 486 y en módulos de 72 contactos (32 bits) para las últimas placas 486 y las placas para Pentium.


También se usa en las tarjetas gráficas, aunque existe un tipo con doble puerto, llamada VRAM.

EDO (Extended Data Output)


Mientras que la memoria tipo FPM sólo podía acceder a un solo byte (una instrucción o valor) de información de cada vez, la memoria EDO permite mover un bloque completo de memoria a la caché interna del procesador para un acceso más rápido por parte de éste. Su mayor calidad le hizo alcanzar velocidades de hasta 45 nanosegundos, dejando satisfechos a los usuarios de los ordenadores Pentium, Pentium Pro, y los primeros Pentium II que demandan mayor velocidad de proceso. Su compatibilidad es muy alta y su precio muy bajo, lo que la ha convertido en la opción más popular aún hoy en día. Se presenta en módulos SIMMde 72 contactos (32 bits) y módulos DIMM (Dual In-line Memory Modules)de 168 contactos (64 bits - el formato DIMM no debe confundirse con la memoria SDRAM, de la que hablaremos a continuación)

SDRAM (Synchronous DRAM)


Es un tipo sincrónico de memoria, que, lógicamente, se sincroniza con el procesador, es decir, el procesador puede obtener información en cada ciclo de reloj, sin estados de espera, como en el caso de los tipos anteriores. La memoria EDO está pensada para funcionar a una velocidad máxima de BUS de 66 Mhz (la máxima velocidad de bus de los procesador de Intel y el doble de la del BUS PCI), llegando a alcanzar 75MHz y 83 MHz (necesarias para algunos procesadores de CYRIX, ¡¡o para hacer OVERCLOCKING!!) en los módulos de 45 y 50ns, aunque con cierta inestabilidad. Sin embargo, la memoria SDRAM puede aceptar velocidades de BUS de hasta 100 MHz, lo que dice mucho a favor de su estabilidad y ha llegado a alcanzar velocidades de 10 ns. Se presenta en módulos DIMM de 168 contactos (64 bits). El ser una memoria de 64 bits, igual que los procesadores Pentium, Pentium Pro y Pentium II, implica que no es necesario instalar los módulos por parejas de módulos de igual tamaño, velocidad y marca (esto último muy recomendable y casi siempre imprescindible).
Este tipo de memoria sólo es soportado por los chipsets 82430VX y 82430TX de Intel para Pentium y 82440LX de Intel para Pentium II, y los chipsets 580VP, 590VP y 680VP de VIA Technologies.

PC-100 DRAM


Este tipo de memoria, en principio con tecnología SDRAM, aunque también la habrá EDO, cumple las especificaciones establecidas por INTEL para el correcto y estable funcionamiento de la memoria RAM con el nuevo bus de 100MHz implementado en su CHIPSET 440BX. La especificación para este tipo de memoria se basa sobre todo en el uso no sólo de chips de memoria de alta calidad, sino también en circuitos impresos de alta calidad de 6 o 8 capas, en vez de las habituales 4; en cuanto al circuito impreso este debe cumplir unas tolerancias mínimas de interferencia eléctrica; por último, los ciclos de memoria también deben cumplir unas especificaciones muy exigentes. De cara a evitar posibles confusiones, los módulos compatibles con este estándar deben estar identificados así: PC100-abc-def.

BEDO (burst Extended Data Output)


Fue diseñada originalmente para el conjunto de chipsets de Intel 82430HX para soportar mayores velocidades de BUS. Al igual que la memoria SDRAM, esta memoria es capaz de transferir datos al procesador en cada ciclo de reloj, pero no de forma continuada, como la anterior, sino a ráfagas (bursts), reduciendo, aunque no suprimiendo totalmente, los tiempos de espera del procesador para escribir o leer datos de memoria.

RDRAM (Direct Rambus DRAM)


Es un tipo de memoria de 64 bits que puede producir ráfagas de 2ns y puede alcanzar tasas de transferencia de 533 MHz, con picos de 1,6 GB/s. Pronto podrá verse en el mercado y es posible que tu próximo equipo tenga instalado este tipo de memoria. Es el complemente ideal para las tarjetas gráficas AGP, evitando los cuellos de botella en la transferencia entre la tarjeta gráfica y la memoria de sistema durante el acceso directo a memoria (DIME) para el almacenamiento de texturas gráficas. Hoy en día la podemos encontrar en las consolas NINTENDO 64, pero el problema de este tipo de memoria es que los fabricantes, a diferencia de la DDR RAM y la SLDRAM que son arquitecturas abiertas, deben pagar derechos a Intel. Este tipo de memoria será lanzada al mercado por SAMSUNG e HITACHI en breve, y está apoyada por INTEL, que incluirá soporte para este tipo de memoria en sus próximos chipsets. Se esperan los primeros módulos de este tipo de memoria para principios de 1998.

DDR SDRAM (Double Data Rate SDRAM o SDRAM-II)


Funcionrá a velocidades de 83, 100 y 125MHz, pudiendo doblar estas velocidades en la transferencia de datos a memoria. En un futuro, esta velocidad puede incluso llegar a triplicarse o cuadriplicarse, con lo que se adaptaría a los nuevos procesadores y a bus AGP 100Mhz x2 y x4. Este tipos de memoria tiene la ventaja de ser una extensión de la memoria SDRAM, con lo que facilita su implementación por la mayoría de los fabricantes, aunque no disponga del apoyo de INTEL, y además. al ser una arquitectura abierta, no habría que pagar derechos a Intel ni a otro fabricante. Su principal problema es el apoyo de Intel a la RDRAM. Actualmente VIA, con su CHIPSET MVP3, soporta memoria DDR DRAM.

SLDRAM

Funcionará a velocidades de 400MHz, alcanzando en modo doble 800MHz, con transferencias de 800MB/s, llegando a alcanzar 1,6GHz, 3,2GHz en modo doble, y hasta 4GB/s de transferencia. Se cree que puede ser la memoria a utilizar en los grandes servidores por la alta transferencia de datos. Su problema, al igual que en la DDR SDRAM es la falta de apoyo por parte de Intel. SIEMENS y MICRON van a empezar a producir memoria SLDRAM.

ESDRAM

Este tipo de memoria es apoyado por ALPHA, que piensa utilizarla en sus futuros sistemas. Funciona a 133MHz y alcanza transferencias de hasta 1,6 GB/s, pudiendo llegar a alcanzar en modo doble, con una velocidad de 150MHz hasta 3,2 GB/s. El problema es el mismo que el de las dos anteriores, la falta de apoyo, y en este caso agravado por el apoyo minoritario de ALPHA, VLSI, IBM y DIGITAL.

La memoria FPM (Fast Page Mode) y la memoria EDO también se utilizan en tarjetas gráficas, pero existen además otros tipos de memoria DRAM, pero que SÓLO de utilizan en TARJETAS GRÁFICAS, y son los siguientes:

MDRAM (Multibank DRAM)


Es increíblemente rápida, con transferencias de hasta 1 GIGA/s, pero su costo también es muy elevado.

SGRAM (Synchronous Graphic RAM)


Ofrece las sorprendentes capacidades de la memoria SDRAM para las tarjetas gráficas. Es el tipo de memoria más popular en las nuevas tarjetas gráficas aceleradoras 3D.

VRAM

Es como la memoria RAM normal, pero puede ser accedida al mismo tiempo por el monitor y por el procesador de la tarjeta gráfica, para suavizar la presentación gráfica en pantalla, es decir, se puede leer y escribir en ella al mismo tiempo.

WRAM (Window RAM)


Permite leer y escribir información de la memoria al mismo tiempo, como en la VRAM, pero está optimizada para la presentación de un gran número de colores y para altas resoluciones de pantalla. Es un poco más económica que la anterior.

SRAM

Memoria estática de acceso aleatorio (Static Random Access Memory) es la alternativa a la DRAM. No necesita tanta electricidad para su refresco y reemplazo de las direcciones y funciona más rápido porque no está reemplazando constantemente las instrucciones y los valores almacenados en ella. La desventaja es su altísimo costo comparado con la DRAM. Puede almacenar y recuperar los datos rápidamente y se conoce normalmente como MEMORIA CACHE.

Hay dos tipo de memoria caché: L1 (level 1 - primer nivel) y L2 (level 2 - segundo nivel). La caché L1 va incorporada en el procesador y la caché L2 es una pieza externa, aunque en el Pentium Pro y en el DEC Alpha también va integrada en el procesador y el el Pentium II va en la tarjeta del procesador . En estos tres últimos casos, algo menos en el último de ellos, la velocidad de la caché L2 es aún mayor que en el caso de ser una pieza externa (como en los procesadores Pentium de Intel, y los de AMD y Cyrix) porque la caché no pasa por una línea de BUS y opera a la misma velocidad que el procesador (la mitad en el caso del Pentium II).

La memoria caché es una capa intermedia entre la memoria DRAM y el procesador, y en ella se guarda un registro de las direcciones de memoria utilizadas recientemente y los valores que contienen. Cuando el procesador pide acceso a la memoria la dirección y el valor están en la caché, pero si no lo están lo copiará de la memoria y reemplazará el antiguo valor con éste. De este modo el procesador puede acceder con mayor rapidez a los datos más utilizados y se aceleran todos los procesos.

Al ser mucho más rápida la caché L1, un mayor tamaño implica una mayor velocidad de proceso, como es el caso entre los procesadores Pentium clásicos (16Kb de caché L1) y los Pentium MMX (32 Kb de caché L1), o los procesadores K6 de AMD y los procesadores CYRIX con extensiones MMX (64Kb de caché L1). La ausencia de caché L2 afecta negativamente a las prestaciones del equipo, pero la diferencia entre 256Kb y 512Kb (o incluso 2Mb en las placas con CHIPSET VIA) es en torno a un 5%, excepto si se utiliza un sistema operativo como WINDOWS NT, OS/2 o UNIX, donde los requerimientos de memoria son muy altos y donde se necesitan almacenar gran cantidad de datos de memoria en la caché. Esta necesidad puede existir también con WINDOWS 98.

Existen tres tipos de memoria caché:

  • The Asynchronous Static RAM (Async SRAM): la antigua caché de los 386, 486 y primeros Pentium, más rápida que la DRAM pero que provoca igualmente estados de espera en el procesador. Su velocidad es de 20 ns, 15 ns 0 12 ns.

  • The Synchronous Burst Static RAM (Sync SRAM):es la mejor para un bus de 66MHz y puede sincronizar la velocidad de la caché con la velocidad del procesador. Su velocidad es de 8.5 ns a 12 ns

  • The Pipelined Burst Static RAM (PB SRAM): funciona de manera continuada sincronizada con el procesador a velocidades de hasta 133 MHz. Tarda un poco más en cargar los datos que la anterior, pero una vez cargados, el procesador puede acceder a ellos con más rapidez. Su velocidad es de 4.5 ns a 8 ns.

Tag RAM

Este tipo de memoria almacena las direcciones de cualquier dato de memoria DRAM que hay en la memoria caché. Si el procesador encuentra una dirección en la TAG RAM, va a buscar los datos directamente a la caché, si no, va a buscarlos directamente a la memoria principal.

Cuando se habla de la CACHEABLE MEMORY en las placas para Pentium con los chipsets 430FX, 430VX, 430HX y 430TX de Intel, nos referimos a la cantidad de TAG RAM, es decir, la cantidad de datos de memoria que se pueden almacenar en la caché. Una de las desventajas del CHIPSET 430TX frente al CHIPSET 430HX es que solo se pueden almacenar los datos de 64 MB de memoria RAM, con lo cual, en ciertos casos, en las placas con este CHIPSET se produce un descenso del rendimiento de memoria al tener instalados más de 64 MB de memoria RAM en el equipo. Por ello, a pesar de la modernidad del diseño, en los servidores o las estaciones gráficas quizás sería más conveniente utilizar una placa base con el CHIPSET 430HX de Intel.

Memoria ROM

Es una memoria de sólo lectura (Read Only Memory) en la que no se puede escribir como la RAM, y que guarda la información almacenada en ella incluso después de apagar el equipo. También se puede acceder a este tipo de memoria de forma aleatoria.

La configuración de la BIOS de la placa base, así como la configuración de los distintos dispositivos instalados en el equipo se guarda en memoria ROM. A la información de los dispositivos escrita en la memoria ROM de cada uno de ellos se llama FIRMWARE.

La ROM estándar se escribe durante el proceso de fabricación de un componente y nunca puede cambiarse. Sin embargo existen algunos tipos de memoria ROM que pueden cambiarse:

  • EPROM:(Erasable Programmable Read-Only Memory) se borra exponiendo la ROM a una luz ultravioleta. La usan los fabricantes para poder corregir errores de última hora en la ROM. El usuario no puede modificarla.

  • EEPROM:(Electrically Erasable Programmable Read-Only Memory) se borra y se puede reprogramar por medio de una carga eléctrica, pero sólo se puede cambiar un byte de información de cada vez.

  • FLASH MEMORY: es un tipo de EEPROM que se puede reprogramar en bloques. Se usa en la BIOS de los equipos, y de ahí que se llamen FLASH BIOS.

Memoria Virtual

Es una manera de reducir el acceso constante a memoria por parte del procesador.

Cuando se está ejecutando un programa, y especialmente si se tienen varias aplicaciones abiertas, el ordenador tiene que cargar en memoria RAM los valores e instrucciones de dicho/s programa/s. Pero, ¿qué ocurre cuando el programa o programas que se están ejecutando requieren más memoria de la que tiene el equipo?

En este caso, el procesador toma una parte del disco duro y la convierte en memoria RAM. Es decir, se utiliza el disco duro para almacenar direcciones de memoria, y aunque el disco duro es mucho más lento que la memoria RAM (10-15 milisegundos para un disco duro moderno frente a 70-10 nanosegundos para la memoria actual), es mucho más rápido tomar los datos en formato de memoria virtual desde el disco duro que desde las pistas y sectores donde se almacenan los archivos de cada programa.

LA TARJETA GRAFICA

Top of Form 2

Bottom of Form 2

Su función es transformar los procesos de vídeo ejecutados por el procesador de la tarjeta gráfica en una señal que sea interpretada por el monitor.

¿Cómo funciona?

El procesador principal (CPU) hace un cálculo y envía una información al procesador de la tarjeta gráfica (el chip gráfico - S3 Trio64, S3 VirgeDX, Cirrus Logic 5428, Rendition Verité V2100, Matrox MGA-2164W, etc.), que es el encargado de realizar las operaciones gráficas, y los datos resultantes son almacenados en la memoria de la tarjeta gráfica, desde donde son transmitidos al monitor por el RAMDAC (RAM Digital to Analog Converter - conversor de memoria digital a analógica). De la velocidad de cada uno de estos tres procesos, depende la velocidad de la tarjeta gráfica.

¿Qué aspectos hay que tener en cuenta de una tarjeta gráfica?

PROCESADOR GRAFICO

Muchas veces es llamado también chipset y de él depende principalmente la velocidad de la tarjeta gráfica, pues es el encargado de realizar todos las operaciones gráficas.

El procesador de las tarjetas gráficas tradicionales era (y aún es, pues aún se encuentran en el mercado, y peor aún, todavía se instalan en muchos equipos) de tipo 2D (2 dimensiones), y se utilizaba para procesar las imágenes gráficas en MS-DOS (texto y líneas básicamente) y en WINDOWS (pantallas, iconos, cursor del ratón, etc.), así como en los programas tradicionales de dibujo y tratamiento gráfico: Cirrus Logic 54xx, Trident 9xxx, S3 868, S3 Trio, etc.

Los nuevos programas de CAD y tratamiento gráfico, así como los juegos más modernos, exigen una tarjeta gráfica capaz de procesar imágenes en 3D (tres dimensiones) con una buena calidad.

Las tarjetas gráficas tradicionales 2D son capaces de procesar imágenes 3D por emulación por software, aunque con resultados de baja calidad y con una desesperante lentitud, de modo que el cálculo y la generación de las imágenes en 3D (RENDER) las realiza el propio procesador, estando por tanto este demasiado ocupado para realizar otras operaciones, ralentizando todo el equipo. De ahí la aparición de los nuevos procesadores gráficos con capacidad de procesar y renderizar por hardware (implementando las instrucciones en el chip) imágenes 3D con una más que aceptable calidad y rapidez. Sin embargo, debemos establecer dos tipos de tarjetas gráficas 3D:

  • Tarjetas gráficas 2D/3D, que integran procesadores para imágenes tanto 2D como 3D (a veces con un procesador diferente para cada tipo de imagen, aunque éstas suelen tener un costo muy elevado), como el S3 Virge, el NVidia Riva 128, el ATI Rage, el 3DLabs Permedia 2, el Trident 9750, etc.

  • Tarjetas gráficas 3D que integran procesadores para imágenes 3D y que deben coexistir en nuestro equipo con una tarjeta gráfica 2D o 2D/3D a la que se conectan mediante un cable externo. Estas tarjetas están pensadas para complementar tarjetas gráficas de cierta antigüedad sin prestaciones 3D o para los amantes de los juegos de última generación. El representante más destacado de este tipo de tarjetas es 3Dfx con sus chipsets Voodoo y Voodoo 2, sin olvidarnos del PowerVR de NEC/Videologic.

LA MEMORIA GRAFICA

Del tipo de la memoria gráfica y de su velocidad depende la rapidez de lectura/escritura de datos y por tanto la transmisión de éstos desde y hacia el procesador gráfico y el RAMDAC.

La cantidad de memoria no afecta a la velocidad de la tarjeta gráfica, sino a la resolución de pantalla(640x480, 800x600, 1024x768, etc.) y a la cantidad de colores que se pueden presentar simultáneamente en pantalla (16, 256, 16 millones...). A mayor resolución y mayor número de colores, más memoria gráfica será necesaria para almacenar los datos, de ahí que para trabajar en color verdadero (32 bits) a una resolución de 800x600 (habitual en un monitor de 14' o 15' para navegar por internet), necesitemos un mínimo de 2MB de RAM de vídeo. Por tanto, a mayores resoluciones (habituales en monitores de 17' o 21'), para color verdadero, necesitemos más memoria de vídeo. Es conveniente por tanto que la tarjeta gráfica tenga un mínimo de 2MB de memoria, pero que también permita su ampliación a 4MB o incluso más (actualmente existen en el mercado tarjetas gráficas que permiten aumentar la memoria de vídeo hasta 16MB).

Para las tarjetas gráficas 3D, la cosa es aún peor, pues para realizar el renderizado 3D, estas tarjetas necesitan almacenar en la memoria gráfica las texturas que se aplican a los objetos, por lo que 4MB es un verdadero mínimo, y no hay que descartar en ampliar en breve plazo hasta 8MB de RAM de vídeo. En caso contrario, se notará un serio descenso de prestaciones en el equipo mientras se están procesando imágenes en tres dimensiones.

EL RAMDAC

De su velocidad, medida en MHz, depende la calidad de la imagen transmitida al monitor, y si contamos con un monitor de una cierta calidad, debe exigirse al menos un RAMDAC de 175MHz.

Otro problema diferente es el tipo del RAMDAC. Hoy en día éste suele estar integrado en el propio procesador gráfico con el fin de abaratar costos de fabricación, especialmente en tarjetas de gama baja y media, pero esto hace que la calidad gráfica y las frecuencias de refresco desciendan considerablemente con respecto a un RAMDAC en chip independiente, que es lo habitual en tarjetas gráficas de gama alta, donde se llegan a alcanzar velocidades de hasta 250MHz.

A mayor velocidad en MHz el RAMDAC no sólo proporciona una mejor calidad gráfica, sino también una mayor frecuencia de refresco a resoluciones de pantalla altas, lo que redunda en una mejor visión y un menor cansancio visual al estar varias horas delante del monitor.

De todos modos, las imágenes son mostradas al usuario a través de la pantalla del monitor, que es por tanto el que finalmente determina la calidad gráfica. Aunque tengamos una tarjeta gráfica con un buen RAMDAC, no aprovecharemos sus prestaciones si tenemos un monitor sencillo de 14' que soporte frecuencias de refresco muy bajas o incluso no soporte modos no entrelazados a altas resoluciones.

Una buena elección de una tarjeta gráfica pasa también por la elección de un buen monitor.

EL BUS

En una placa base con bus PCI y una tarjeta gráfica PCI el procesador se comunica con la tarjeta gráfica, para enviar una serie de datos que ésta debe procesar para su representación en pantalla, a una velocidad de 33MHz, la velocidad del bus PCI. Esto supone una importante limitación en cuanto a transferencia de datos, pues se pueden alcanzar picos máximos de hasta 133MB/s.

Con el nuevo bus, o mejor llamado puerto, AGP, la comunicación se produce a 66MHz, pudiendo alcanzar transferencias de hasta 266MB/s con el modo de transferencia actual, pero con el bus de 100MHz, con el chipset 440BX, AMD y CYRIX, la tasa de transferencia puede llegar a alcanzar hasta 800MB/s.

El bus AGP solamente es soportado actualmente por las placas base con chipset INTEL 440LX y 440BX para Pentium II y placas base con el chipset VP3 y MVP3 de VIA y ALADDIN V de ALI para Pentium, pero es de esperar que los demás fabricantes de chipsets (SIS, OPTI, etc.) acaben implementándolo también en sus placas base, por las ventajas que aporta.

Si se va a comprar un Pentium II, exigir una tarjeta gráfica con bus AGP, pues ofrece unas prestaciones superiores a las tarjetas gráficas PCI y su costo es el mismo, o como mucho un 10% más.

¿Cómo funcionan las tarjetas gráficas 3D?

Su funcionamiento es igual al de una tarjeta gráfica 3D en cuanto a la transmisión de datos del procesador principal al procesador gráfico, el almacenamiento en memoria de los datos y la transmisión al monitor vía el RAMDAC, pero el procesamiento de los datos por el chip gráfico es mucho más complejo, pues al contrario que en las tarjetas gráficas 3D el proceso de renderización no lo realiza el procesador principal.

Durante el proceso de renderización, el procesador gráfico 3D aplica a la imagen una serie de texturas que se almacenan en la memoria de vídeo y realiza básicamente las siguientes operaciones sobre una imagen generada por el procesador:

  • BUFFER Z DE OCULTACION: se utiliza para ocultar las partes de la imagen que no están visibles por estar tapadas por otras. Este efecto se puede conseguir por software o por hardware, siendo más rápido por hardware.

  • SOMBREADO GOURAUD: se utiliza para evitar el aspecto cuadrado de los objetos y dando así más sensación de profundidad.

  • CORRECCION DE PERSPECTIVA: orienta adecuadamente las texturas sobre los polígonos

  • MAPEADO MIP: pega las texturas sobre los polígonos y evita que al aumentar o disminuir el tamaño de la imagen, se ganen detalles. Para ello se almacenan texturas en varias resoluciones que luego se recuperan de la memoria gráfica en tiempo real.

  • FILTRADO BILINEAL: evita el aspecto difuso en las uniones de texturas y polígonos al acercar la imagen(el proceso que más recursos consume al procesador gráfico).

  • FILTRADO TRINEAL: tiene la misma función que el anterior pero mejora los resultados del anterior.

  • ALPHA BLENDING: crea efectos de transparencias.

Actualmente la mayoría de las aplicaciones que hacen uso de la tecnología 3D son los juegos, y de hecho alguno de los nuevos juegos ni siquiera funcionan sin una tarjeta que soporte 3D. Otro campo en el que son muy útiles las tarjetas 3D es en los programas de realidad virtual, como por ejemplo los visores de páginas VRML, que se caracterizan por estar diseñadas como paisajes en tres dimensiones por los que se puede navegar.

Otro campo de aplicación de las tarjetas 3D es el CAD y en general los programas generadores de imágenes 3D (3D Studio, Vista Pro, etc.), donde se agiliza la generación de figuras, paisajes virtuales, generación de recorridos virtuales, etc.

Sin embargo, WINDOWS 98, y en general los sistemas operativos futuros, soporta 3D, de modo que todas las aplicaciones creadas para dichos sistemas operativos aprovecharán al máximo estas cualidades y conseguirán que el manejo de un ordenador sea como un paseo por una biblioteca.

¿Qué requerimientos son necesarios para hacer uso de las prestaciones 3D de mi tarjeta gráfica?

Primero conectarla a la ranura correspondiente, instalar los drivers proporcionados por el fabricante y por último las librerías DirectX de Microsoft, preferiblemente DirectX5 o superior.

Uno de los problemas de los drivers de la tarjeta es el soporte para los distintos interfaces de programación para aplicaciones (API). OpenGL debe ser soportado por los drivers suministrados por el fabricante de la tarjeta gráfica 3D, mientras que los drivers DirectX5 se pueden obtener de la web de MICROSOFT.

Bottom of Form 1

EL DISCO DURO

Top of Form 2

Bottom of Form 2

El disco duro de tu equipo es el dispositivo donde se almacenan todos tus datos de manera permanente, además de tener instalados el sistema operativo (DOS, WINDOWS 3.1/3.11/95) y los programas que utilizas habitualmente en tu ordenador (procesador de textos, hoja de cálculo, base de datos, etc.)

La estructura física de un disco es la siguiente: un disco duro se organiza en platos (PLATTERS), y en la superficie de cada una de sus dos caras existen pistas (TRACKS) concéntricas, como surcos de un disco de vinilo, y las pistas se dividen en sectores (SECTORS). El disco duro tiene una cabeza (HEAD) en cada lado de cada plato, y esta cabeza es movida por un motor servo cuando busca los datos almacenados en una pista y un sector concreto.

El concepto "cilindro" (CYLINDER) es un parámetro de organización: el cilindro está formado por las pistas concéntricas de cada cara de cada plato que están situadas unas justo encima de las otras, de modo que la cabeza no tiene que moverse para acceder a las diferentes pistas de un mismo cilindro.

En cuanto a organización lógica, cuando damos formato lógico (el físico, o a bajo nivel, viene hecho de fábrica y no es recomendable hacerlo de nuevo, excepto en casos excepcionales, pues podría dejar inutilizado el disco) lo que hacemos es agrupar los sectores en unidades de asignación (CLUSTERS) que es donde se almacenan los datos de manera organizada. Cada unidad de asignación sólo puede ser ocupado por un archivo (nunca dos diferentes), pero un archivo puede ocupar más de una unidad de asignación.

Cuando se buscan datos en un disco duro, la cabeza lee primero la FAT (tabla de asignación de archivos), que está situada al comienzo de la partición. La FAT le dice en qué pista, en qué sector y en que unidad de asignación están los datos, y la cabeza se dirige a ese punto a buscarlos.

Un ordenador funciona al ritmo marcado por su componente más lento, y por eso un disco duro lento puede hacer que tu MAQUINA sea vencida en prestaciones por otro equipo menos equipado en cuanto a procesador y cantidad de memoria, pues de la velocidad del disco duro depende el tiempo necesario para cargar tus programas y para recuperar y almacenar tus datos.

A continuación vamos a indicar los factores que debes tener en cuenta a la hora de comprar un disco duro.

CAPACIDAD

Comprar menos de 3,5 GIGAS dará lugar a que pronto te veas corto de espacio, pues entre el sistema operativo y una suite ofimática básica (procesador de texto, base de datos, hoja de cálculo y programa de presentaciones) se consumen en torno a 400 MB; si instalas los navegadores de MICROSOFT y NETSCAPE suma otros 100MB; una buena suite de tratamiento gráfico ocupa en torno a 300MB y hoy en día muchos juegos ocupan más de 200MB en el disco duro. Ya tenemos en torno a 1,5 GIGAS ocupados y aún no hemos empezado a trabajar con nuestro ordenador.

Si nos conectamos a Internet, veremos que nuestro disco duro empieza a tener cada vez menos espacio libre, debido a esas páginas tan interesantes que vamos guardando, esas imágenes que resultarán muy útiles cuando diseñemos nuestra primera Página WEB y esas utilidades y programas SHAREWARE que hacen nuestro trabajo más fácil.

Antes de que nos demos cuenta, estaremos en la tienda de informática donde compramos el equipo preguntando por el precio de un disco duro adicional. Tranquilo, si tienes CD-ROM, aun puedes instalar 2 discos duros más en tu ordenador, si no lo tienes (¿Quién no lo tiene?), tres.

VELOCIDAD DE ROTACION (RPM)

Es la velocidad a la que gira el disco duro, más exactamente, la velocidad a la que giran el/los platos del disco, que es donde se almacenan magnéticamente los datos. La regla es: a mayor velocidad de rotación, más alta será la transferencia de datos, pero también mayor será el ruido y mayor será el calor generado por el disco duro. Cuidado con poner los discos duros muy pegados entre sí o encerrados entre el CD-ROM y la disquetera: necesitan una ventilación adecuada.

No compres un disco duro IDE de menos de 5400RPM (ya hay discos IDE de 7200RPM), a menos que te lo den a un muy buen precio, ni un disco SCSI de menos de 7200RPM (los hay de 10.000RPM). Una velocidad de 5400RPM permitirá una transferencia entre 10MB y 16MB por segundo con los datos que están en la parte exterior del cilindro o plato, algo menos en el interior.

TIEMPO DE ACCESO (Access Time)

Es el tiempo medio necesario que tarda la cabeza del disco en acceder a los datos que necesitamos. Realmente es la suma de varias velocidades:

  • El tiempo que tarda el disco en cambiar de una cabeza a otra cuando busca datos.

  • El tiempo que tarda la cabeza lectora en buscar la pista con los datos saltando de una a otra.

  • El tiempo que tarda la cabeza en buscar el sector correcto dentro de la pista.

Es uno de los factores más importantes a la hora de escoger un disco duro. Cuando se oye hacer ligeros clicks al disco duro, es que está buscando los datos que le hemos pedido. Hoy en día en un disco moderno, lo normal es 10 milisegundos.

TAMAÑO DEL BUFFER

El BUFFER o CACHE es una memoria que va incluida en la controladora interna del disco duro, de modo que todos los datos que se leen y escriben a disco duro se almacenan primeramente en el buffer.

Si un disco duro está bien organizado (sino, utilizar una utilidad desfragmentadora: DEFRAG, NORTON SPEEDISK, etc.), la serie de datos que se va a necesitar a continuación de una lectura estará situada en una posición físicamente contigua a la última lectura, por eso los discos duros almacenas en la caché los datos contiguos, para proporcionar un acceso más rápido sin tener que buscarlos. De ahí la conveniencia de desfragmentar el disco duro con cierta frecuencia.

El buffer es muy útil cuando se está grabando de un disco duro a un CD-ROM, pero en general, cuanto más grande mejor, pues contribuye de modo importante a la velocidad de búsqueda de datos.

TASA DE TRANSFERENCIA (Transfer Rate)

Este número indica la cantidad de datos un disco puede leer o escribir en la parte más exterior del disco o plato en un periodo de un segundo. Normalmente se mide en Mbits/segundo, y hoy en día, en un disco de 5400RPM, un valor habitual es 100Mbits/s, que equivale a 10MB/s.

INTERFAZ (Interface)

Es el método utilizado por el disco duro para conectarse al equipo, y puede ser de dos tipos: IDE o SCSI.

Todas las placas bases relativamente recientes, incluso desde las placas 486, integran una controladora de disco duro para interfaz IDE (normalmente con Bus PCI) que soporta dos canales IDE, con capacidad para dos discos cada una, lo que hace un total de hasta cuatro unidades IDE (disco duro, CD-ROM, unidad de backup, etc.)

Debemos recordar, sin embargo, que si colocamos en un mismo canal dos dispositivos IDE (e.g. disco duro + CD-ROM), para transferir datos uno tiene que esperar a que el otro haya terminado de enviar o recibir datos, y debido a la comparativa lentitud del CD-ROM con respecto a un disco duro, esto ralentiza mucho los procesos, por lo que es muy aconsejable colocar el CD-ROM en un canal diferente al de el/los discos duros.

La velocidad de un disco duro con interfaz IDE también se mide por el PIO (modo programado de entrada y salida de datos), de modo que un disco duro con PIO-0 transfiere hasta 3,3MB/s, PIO-1 hasta 5,2MB/s, PIO-2 hasta 8,3MB/s. Estos modos anteriores pertenecen a la especificación ATA, pero en la especificación ATA-2 o EIDE, los discos duros pueden alcanzar PIO-3, hasta 11,1MB/s, o PIO-4, hasta 16,6MB/s. Los discos duros modernos soportan en su mayoría PIO-4.

Recientemente se ha implementado la especificación ULTRA-ATA o ULTRA DMA/33, que puede llegar a picos de transferencia de hasta 33,3MB/s. Este es el tipo de disco duro que hay que comprar, aunque nuestra controladora IDE no soporte este modo (sólo las placas base Pentium con chipset 430TX y las nuevas placas con chipsets de VIA y ALI, y la placas Pentium II con chipset 440LX y 440BX lo soportan), pues estos discos duros son totalmente compatibles con los modos anteriores, aunque no les sacaremos todo el provecho hasta que actualicemos nuestro equipo.

En cuanto al interfaz SCSI, una controladora de este tipo suele tener que comprarse aparte (aunque algunas placas de altas prestaciones integran este interfaz) y a pesar de su precio presenta muchas ventajas.

Se pueden conectar a una controladora SCSI hasta 7 dispositivos (o 15 si es WIDE SCSI)de tipo SCSI (ninguno IDE), pero no solo discos duros, CD-ROMs y unidades de BACKUP, sino también grabadoras de CD-ROM (las hay también con interfaz IDE), scanners, muchas de las unidades de BACKUP, etc.

Otra ventaja muy importante es que la controladora SCSI puede acceder a varios dispositivos simultáneamente, sin esperar a que cada uno acabe su transferencia, como en el caso de la interfaz IDE, aumentando en general la velocidad de todos los procesos.

Las tasas de transferencia del interfaz SCSI vienen determinados por su tipo (SCSI-1, Fast SCSI o SCSI-2, ULTRA SCSI, ULTRA WIDE SCSI), oscilando entre 5MB/s hasta 80MB/s. Si el equipo va a funcionar como servidor, como servidor de base de datos o como estación gráfica, por cuestiones de velocidad, el interfaz SCSI es el más recomendable.

RECOMENDACIONES FINALES

PARA UN USUARIO NORMAL

  • 4,5GB mínimo

  • 5400RPM

  • 10ms de tiempo de acceso

  • Buffer de 128KB

  • Modo Ultra DMA-33

PARA UN USUARIO DE ALTAS PRESTACIONES

  • 6,5GB mínimo

  • 7200RPM

  • 8ms de tiempo de acceso

  • Buffer de 512KB

  • Modo Ultra DMA-33 o SCSI

PARA UN SERVIDOR O UNA ESTACÍON GRAFICA

  • 6,5GB mínimo

  • 7200RPM a 10.000rpm

  • 8ms de tiempo de acceso

  • Buffer de 1MB

  • Modo ULTRA-SCSI o ULTRA-WIDE SCSI

EL MONITOR

Top of Form 2

Bottom of Form 2

El monitor está formado por un tubo de rayos catódicos (CRT) cubierto de fósforo en tres colores, rojo, verde y azul, sobre los que impactan tres haces de electrones de distinta intensidad, de manera que la combinación de intensidad sobre cada uno de estos tres colores básicos da lugar al color final representado en pantalla.

Cada celda de fósforo que contiene los tres colores es lo que se llamará más abajo PIXEL, y a mayor número de pixeles, mayor definición tendrá la imagen en cuanto a color y detalle.

Además, la imagen está siendo redibujada constantemente en la pantalla debido al continuo envío de información, y a este redibujamiento se le llama REFRESCO.

¿Qué aspectos hay que tener en cuenta a la hora de comprar un monitor?

TAMAÑO - PULGADAS

Se mide en número de pulgadas en diagonal, y nos indica el tamaño visible del tubo de imagen.

El tamaño del monitor no debe elegirse a la ligera, pues depende directamente de la resolución a la que se vaya a trabajar, aunque también es cierto que a mayor tamaño, más número de programas o aplicaciones podremos tener abiertas y visibles simultáneamente en pantalla.

Si solemos trabajar con más de una aplicación al mismo tiempo, nos conviene un monitor de 17'' (pulgadas).

Si vamos a hacer con el equipo un trabajo ocasional, con una sola aplicación, es suficiente con un monitor de 14'', pero vale la pena, por la escasa diferencia de precio, estirar nuestro presupuesto hasta un monitor de 15'', pues aunque la diferencia de tamaño es mínima, estos últimos suelen incluir prestaciones que se omiten en los de 14'' para abaratar costos, como la pantalla plana (o casi plana) y cuadrada, mayores frecuencias de refresco, controles digitales con memoria, soporte de la norma DDC, etc.

RESOLUCION

Es el número de PIXELES que forman la imagen representada en la pantalla, y a mayor número de pixeles representados, mayor es la definición y el nivel de detalle de las imágenes presentadas. Se mide en PIXELES por pulgada (o puntos por pulgada - ppp).

Al hablar de resoluciones, siempre se mencionan dos cifras, la horizontal y la vertical (640x480, 800x600, 1024x768, 1280x1024...). La segunda cifra indica el número de veces que el haz de electrones ha de recorrer la pantalla hasta completar la representación de la imagen en la pantalla.

Un monitor de 14'' es válido para trabajar a resoluciones de 640x480 e incluso a 800x600, aunque en la mayoría de los casos con una notable falta de definición. Los monitores de 14'' más antiguos no solían soportar mayores resoluciones, y aunque algunos modernos soportan 1024x768, a esta resolución las letras son casi ilegibles en la mayoría de los casos.

Un monitor de 15'' debe ser un mínimo hoy en día, para poder trabajar cómodamente a 800x600, y ocasionalmente a 1024x768. La primera de ellas es la resolución recomendada para ver la mayoría de las páginas WEB, y en trabajo con aplicaciones estándar nos permite presentar todas las barras de menús e iconos sin que nos ocupen cerca de la mitad de la pantalla visible.

Un monitor de 17'' es el monitor ideal por prestaciones y por precio tanto para particulares como para profesionales. Permite trabajar cómodamente a 1024x768 e incluso a 1280x1024, esta última sobre todo para el tratamiento de imágenes o para trabajar con dos aplicaciones abiertas simultáneamente. Es también el tamaño mínimo para trabajo con programas de CAD (AUTOCAD, 3D Studio, etc.) y para autoedición (Pagemaker, Quark Xpress, etc.). Ultimamente el precio de estos monitores ha bajado considerablemente, por lo que empieza a ser una opción a tener muy en cuenta por usuarios particulares que pasan mucho tiempo delante de su ordenador.

Los monitores de 21'' son excesivamente caros, y solamente son necesarios para un trabajo profesional de fotografía, CAD, autoedición o cualquier programa de ingeniería o arquitectura.

Recientemente han aparecido en el mercado los monitores de 19'' con prestaciones propias de monitores de 21'' y con unos precios muy atractivos, pero debemos recordar que esta aparición ha provocado la bajada de precio de los monitores de 17'', que por lo tanto se convierten en una opción razonable a poco que apreciemos nuestra vista y siempre que dediquemos cierto tiempo al trabajo con nuestro equipo.

FRECUENCIA DE REFRESCO

La frecuencia de refresco vertical (REFRESH RATE) es el número de veces por segundo que la tarjeta gráfica redibuja la imagen que tenemos en la pantalla. Se expresa en Hz, y si esta cifra es muy baja, la imagen da una sensación de parpadeo.

La frecuencia de refresco mínima exigible para un trabajo prolongado delante del monitor debe ser 75Hz, aunque deberíamos exigir 85Hz a la resolución a la que vamos a trabajar normalmente.

La frecuencia del refresco también depende del RAMDAC de la tarjeta gráfica, pues es el que suministra las frecuencias de refresco al monitor, por lo que la tarjeta gráfica y el monitor del equipo deben elegirse en consonancia, debiendo ser mayores las frecuencias de refresco que es capaz de suministrar el RAMDAC, aunque si forzamos el monitor a una frecuencia mayor de la que soporta acabaremos estropeándolo.

La mayoría de los monitores de 14' no alcanzan 75Hz, y ni siquiera todos los de 15'' a resoluciones de 1024x768. Lo más importante de un monitor no es la resolución máxima que alcanza, sino la resolución máxima alcanzada con un refresco de 75Hz. Hay monitores de 15'' que alcanzan 1280x1024, pero con un refresco de 60Hz, por lo que notaremos al cabo de poco tiempo una cierta vibración incómoda, que nos impedirá seguir trabajando a esta resolución.

Debemos tener mucho cuidado, pues existen en el mercado monitores que soportan 87iHz a altas resoluciones, pero la "i" pequeñita nos indica que este refresco lo alcanzan en modo entrelazado, lo cual es muchísimo peor, visualmente hablando, que 60Hz.

ENTRELAZADO / NO ENTRELAZADO

Los modos ENTRELAZADO y NO ENTRELAZADO nos indican el modo en el que la tarjeta gráfica hace el redibujado de la pantalla.

El modo ENTRELAZADO, habitual en monitores antiguos y a altas resoluciones de otros monitores relativamente modernos, la tarjeta gráfica redibuja de una pasada las líneas impares y en la siguiente las líneas pares. Esto hace que al cabo de poco tiempo se perciba una cierta vibración en la pantalla, con la consiguiente dificultad para leer, especialmente las fuentes de letra pequeña, y para observar los detalles de la imagen. De ningún modo debe aceptarse una resolución habitual de trabajo en modo entrelazado.

El modo NO ENTRELAZADO consiste en redibujar todas las líneas de la pantalla en cada pasada, pero para que la imagen no muestre un leve parpadeo, este redibujado debe hacerse a una velocidad mínima de 75 veces por segundo (75Hz), al menos en la resolución a la que vamos a trabajar normalmente.

CONTROLES DE AJUSTE

Todos los monitores incluyen unos mandos o botones de ajuste, pero los que hemos sufrido un monitor viejo hemos visto como se nos ha ido achicando la pantalla sin poder remediarlo; por eso, cuantos más controles mejor. Aquí enunciamos algunos de los imprescindibles y los más útiles, aunque hay que recordar que algunos de ellos solamente los encontraremos en monitores de gama alta y de un mínimo de 17''.

  • BRILLO y CONTRASTE: Imprescindibles

  • TAMAÑO y POSICION de la imagen: Imprescindibles. Muchos monitores antiguos

  • No incluían el ajuste de tamaño horizontal de pantalla: Imperdonable.

  • CONTROL DE EFECTO COJIN: evita el estrechamiento o ensanchamiento en el

  • Centro: Imprescindible.

  • CONTROL DE ROTACION: para evitar que la imagen esté más cerca del borde por

  • Un lado que por otro: Muy recomendable.

  • CONTROL DE CONVERGENCIA: Cuando la convergencia de un monitor falla, las imágenes parecen tener como una sombra, debido a que los tres haces de electrones no están alineados. Si el monitor no tiene este control para corregirlo, debemos devolver el monitor como defectuoso.

  • AJUSTE DE TRAPECIO: cuando la imagen está desplazada hacia un lado en la parte superior o inferior: Muy recomendable.

  • AJUSTE DE TEMPERATURA DE COLOR: para ajustar la tonalidad del color blanco: Recomendable.

  • AJUSTE DE PUREZA DEL COLOR: para conseguir que un mismo color tenga una tonalidad uniforme en toda la pantalla: Recomendable.

  • CONTROL DE EFECTO MOIRE: da la sensación de que se desplazan unas olas por la pantalla: Recomendable.

  • Muchos monitores llevan el calificativo de DIGITALES, pero no debemos engañarnos, pues en un monitor de 14'' o 15'' barato, lo único digital son los controles o potenciómetros, con OSD (presentación de menús en pantalla), pero no el monitor. Un monitor digital se caracteriza por poder memorizar no sólo las frecuencias de refresco para cada resolución de acuerdo con la tarjeta gráfica, sino también los ajustes de pantalla. Además, cuando cambiamos la resolución se les puede oir emitir un característico chasquido que nos indica el ajuste del módulo digital.

TAMAÑO DE PUNTO

Hoy en día es difícil encontrar en el mercado un monitor nuevo con un TAMAÑO DE PUNTO (DOT PITCH) mayor de 0,28mm, que se refiere realmente a la separación entre pixeles, y en algunos monitores modernos a la separación de la rejilla. Si el TAMAÑO DE PUNTO ES 0,27mm, O,26mm o incluso 0,25mm (habitual en todos los monitores SONY), muchísimo mejor, pues la definición a altas resoluciones será mayor.

OTRAS PRESTACIONES

Hoy en día la mayoría de los monitores de 15'' o superiores ofrecen una PANTALLA PLANA Y CUADRADA (FST - Flat Square Tube).

La pantalla plana (aunque no lo es totalmente - hay en el mercado un monitor PANASONIC que dice ser totalmente plano?) permite reducir la deformación de las imágenes en las esquinas, y el formato cuadrado, no de la carcasa del monitor, sino de la pantalla permite un mayor aprovechamiento de las esquinas para estirar la imagen hasta el borde de la carcasa del tubo.

Hoy en día es habitual que los monitores soporten la NORMA DDC (canal de datos de visualización), una extensión de la norma PLUG'N'PLAY, la cual permite que la tarjeta gráfica se comunique directamente con el monitor, detectándose mutuamente y ajustando las resoluciones y las frecuencias de refresco máximas sin intervención del usuario. Esto facilita la instalación del monitor, pero en caso de no soportar esta norma, debemos instalar los drivers suministrados con el monitor o ajustar manualmente en la configuración de la tarjeta gráfica las frecuencias de refresco soportadas, atendiendo siempre al manual del monitor.

Por último, prácticamente todos los monitores actualmente a la venta soportan los MODOS VESA DE AHORRO DE ENERGÍA (ENERGY STAR), que posibilitan el paso del monitor a modo de ahorro de energía o a modo STANDBY(dormido - como los televisores) de modo automático tras el espacio de tiempo programado en la BIOS o en el sistema operativo.

http://www.galiciacity.com/banners.htmlBottom of Form 1

MONITORES LCD Pantallas planas

Top of Form 2

Bottom of Form 2

Desde su aparición en 1971, los monitores de cristal líquido han aparecido en multitud de campos, como televisores, cámaras digitales, calculadoras y monitores para ordenadores portátiles, y ahora esta tecnología se lanza al mundo de los monitores de sobremesa.

Muchos creen que a corto plazo, la tecnología LCD (Liquid Crystal Display - Pantalla de Cristal Líquido) reemplazará a los monitores tradicionales (CRT- Cathodic Ray Tube - Tubo de Rayos Catódicos), lo que vienen avalado por la continua bajada de precio de estos dispositivos, que los están convirtiendo en accesorios imprescindibles en vez de artilugios tecnológicos para los más originales.

¿Cómo funciona?

Básicamente, los cristales líquidos son sustancias transparentes con cualidades propias de líquidos y de sólidos.

Al igual que los sólidos, una luz que atraviesa un cristal líquido sigue el alineamiento de las moléculas, pero al igual que los líquidos, aplicando una carga eléctrica a estos cristales, se produce un cambio en la alineación de las moléculas, y por tanto en el modo en que la luz pasa a través de ellas.

Una pantalla LCD está formada por dos filtros polarizantes con filas de cristales líquidos alineadas perpendicularmente entre sí, de modo que al aplicar o dejar de aplicar una corriente eléctrica a los filtros, se consigue que la luz pase o no pase a través de ellos, según el segundo filtro bloquee o no el paso de la luz que ha atravesado el primero.

El COLOR se consigue añadiendo 3 filtros adicionales de color (uno rojo, uno verde, uno azul). Sin embargo, para la reproducción de varias tonalidades de color, se deben aplicar diferentes niveles de brillo intermedios entre luz y no-luz, lo cual se consigue con variaciones en el voltaje que se aplica a los filtros.

Ventajas y desventajas de las pantallas LCD frente a las CRT

Las VENTAJAS de los LCD frente a los CRT son de tamaño, consumo, parpadeo y geometría.

Al no requerir el uso de un único tubo de imagen, los monitores LCD tienen un TAMAÑO, especialmente un fondo mucho menor, haciéndolos ideales para ordenadores portátiles o en entornos donde escasea el espacio.

El CONSUMO de estos monitores es también mucho menor, de ahí su adecuación al mundo de los portátiles, donde la durabilidad de las baterías es de crucial importancia.

El PARPADEO en las pantallas LCD queda sumamente reducido por el hecho de que cada celda donde se alojan los cristales líquidos está encendida o apagada, de modo que la imagen no necesita una renovación (refresco) sino que se enciende o se apaga.

La GEOMETRIA PERFECTA viene dada porque cada celda que contiene un cristal líquido se enciende o apaga individualmente, y por lo tanto no hay problemas de convergencia.

Las DESVENTAJAS vienen dadas por el costo, el ángulo de visión, la menor gama de colores y la pureza del color.

El COSTO de fabricación de los monitores LCD es superior al de las pantallas CRT, no sólo por la tecnología empleada, sino también por su escasa implantación que hace que los volúmenes de fabricación sean pequeños.

Puesto que la luz de las pantallas LCD es producida por tubos fluorescentes situados detrás de los filtros, en vez de iluminar la parte anterior como en los monitores CRT, con una visión diagonal la luz pasa a través de los pixeles (cristales) contiguos, por lo que la imagen se distorsiona a partir de un ANGULO DE VISION de 100º en los monitores de matriz pasiva (DSTN) y a partir de 140º en los monitores de matriz activa (TFT).

Las variaciones de voltaje de las pantallas LCD actuales, que es lo que genera los tonos de color, solamente permite 64 niveles por cada color (6 bit) frente a los 256 niveles (8 bit) de los monitores CRT, por lo que con tres colores se consiguen un máximo de 262.144 colores diferentes (18 bit) frente a los 16.777.216 colores (24 bit) de los monitores CRT. Aunque 262.144 colores son suficientes para la mayoría de las aplicaciones, esta GAMA DE COLORES es claramente insuficiente para trabajos fotográficos o para reproducción y trabajo con vídeo.

debido al sistema de iluminación con fluorescentes, las pantallas LCD mustran inevitablemente una menor PUREZA DEL COLOR, ya que muestran zonas más brillantes que otras, lo que da lugar a que una imagen muy clara o muy oscura afecte a las áreas contiguas de la pantalla, creando un efecto un poco desagradable.

Un problema adicional que afecta a la calidad de imagen en las pantallas LCD vienen dada por el funcionameinto actual de las tarjetas gráficas y las pantallas LCD: la tarjeta gráfica recibe una señal digital del procesador y la transforma a analógica para enviarla a la salida de señal; por su parte la pantalla LCD recibe esa señal analógica y la debe transformar a señal digital, con la lógica perdida que se produce entre ambas transformaciones.

Las pantallas LCD actuales se conectan a puertos analógicos VGA, pero se espera que en un futuro todas las tarjetas gráficas incorporen también una salida digital.

¿Qué aspectos hay que tener en cuenta a la hora de comprar un monitor?

RESOLUCION

La resolución máxima de una pantalla LCD viene dada por el número de celdas de cristal líquido. Las resoluciones menores se consiguen por un sistema de escalado, pero no se pueden obtener resoluciones superiores.

TAMAÑO

El tamaño de una pantalla es un dato sumamente importante, pero, a diferencia de los monitores CRT, debemos tener en cuenta que la medida diagonal de una pantalla LCD equivale al área de visión.

Es decir, el tamaño diagonal de la pantalla LCD equivale a un monitor CRT de tamaño superior. Aquí tenemos las equivalencias, junto con las resoluciones soportadas habitualmente:

LCD

CRT

RESOLUCION LCD

13.5''

15''

800x600

14.5''/15''

17''

1024x768

17''

21''

1280x1024/1600x1280

Con la popularización de las pantallas LCD de 13'5 pulgadas en ordenadores portátiles, el usuario obtiene una facilidad y efecto de visualización de monitor de sobremesa.

DSTN (matriz pasiva) o TFT (matriz activa)

Básicamente la construcción y funcionamiento de ambos tipos de pantalla es el mismo, pero las pantallas TFT añaden a las pantallas LCD básicas (representadas por las pantallas DSTN) una matriz extra de transistores, un transistor por cada color de cada píxel, eliminando los problemas de pureza de color y bajo ángulo de visión, y mejorando la pureza del color, el contraste (a más contraste, más fina es la imagen y más puro es el color blanco) y la velocidad de respuesta a la renovación de las imágenes (lo que tarda la pantalla en mostrar la señal enviada por la controladora gráfica).

La diferencia entre ambas pantallas se puede observar en el siguiente cuadro:

Angulo de visión

Contraste

Velocidad de respuesta

DSTN

49º - 100º

40:1

300 milisegundos

TFT

más de 140º

140:1

25 milisegundos

La mayoría de los monitores actuales LCD de sobremesa utilizan tecnología TFT, de ahí su precio, (pero no debemos de olvidarnos de comprobar este dato) pero el aumento de ventas de este tipo de monitores está abaratando progresivamente su precio.

El mundo de los portátiles, sin embargo, está mostrando una bajada de precio más tímida, pero ello de debe a la necesidad imperiosa y a la cada vez más buscada miniaturización de las pantallas (en cuanto a su grosor) lo que hace que la diferencia de precio entre ambos tipos de pantalla sea aún importante.

OTRAS TECNOLOGÍAS LCD

Mejoras LCD

Ciertas compañías como TOSHIBA y SHAROP, con su sistema HDP (Hybrid Passive Display) están intentando introducir tecnologías puente entre DSTN y TFT, utilizando cristales líquidos de menor viscosidad, de modo que el tiempo de respuesta es menor (150ms) y su contraste mayor (50:1) con un pequeño incremento de costo sobre las pantallas DSTN.

Por su parte, HITACHI, con su tecnología HPA (High Performance Addressing) consigue aproximar la tecnología DSTN a la TFT en cuanto a calidad de reproducción de vídeo y en ángulo de visión.

CANON ha probado el uso de cristales ferro-eléctricos, reduciendo considerablemente el tiempo de respuesta y permitiendo que los cristales no necesiten recibir electricidad constantemente, sino solamente para cambiar su voltaje, reduciendo así el consumo (de especial importancia en los ordenadores portátiles), pero su costo de fabricación está demasiado cerca de las pantallas TFT con lo que su futuro es algo incierto.

Por último, algunos fabricantes japoneses hablan de pantallas LCD reflectantes, en vez de paneles retro-iluminados. Su únicas ventajas son el bajo consumo, su delgadez y su ligereza, pero su costo las hace más apropiadas para los PALMTOP y los SUB-NOTEBOOKs.

PANTALLAS DE PLASMA

Se basan en el principio de que haciendo pasar un alto voltaje por un gas a baja presión se genera luz. Esta pantallas usan fósforo como los monitores CRT pero son emisivas como las LCD, y, frente a las pantallas LCD, consiguen una gran mejora del color y un estupendo ángulo de visión.

Estas pantallas son como fluorescentes, y cada pixel es como una pequeña bombilla de color. Un gas, como el XENON, almacenado en celdas, se convierte en plasma por la acción de una corriente eléctrica y produce luz ultravioleta que incide sobre el fósforo rojo, verde y azul, y al volver a su estado original el fósforo emite luz.

El problema de esta tecnología son la duración y el tamaño de los pixeles, por lo que su implantación más común es en grandes pantallas de TV de hasta 70''. Su ventaja está en su bajo costo de fabricación, similar al de los monitores CRT.

FED

Las pantallas de emisión de campo (FED) combinan el fósforo con la estructura de celdas de las pantallas LCD.Se utilizan minitubos ( en vez del voluminoso tubo de los monitores CRT) para cada pixel y se permite conseguir un grosor similar al de las pantallas LCD.

La luz se genera delante del pixel (como en los monitores CRT) a diferencia de los monitores LCD, con lo que se consigue un excelente ángulo de visión.

Estos monitores tienen una velocidad de respuesta mejor que las pantallas TFT y una reproducción de color similar a los monitores CRT, pero el costo y la dificultad de fabricación (480.000 tubos de vacío pequeños por pantalla) y la necesidad de un blindaje de la pantalla hace su viabilidad dudosa.

Si se consiguen abaratar costos y mejorar la fiabilidad, esta tecnología puede amenazar a la tecnología LCD en el futuro.

Thin CRT

Los tubos catódicos finos se basan en la tecnología FED y utilizan un tubo de 3'5mm de grosor en vez del voluminoso tubo CRT.

Para 1999 se esperan las primeras pantallas con esta tecnología y se espera que su costo será similar al de las pantallas TFT.

LEP

Se basa en la aplicación de un voltaje a una superficie plástica.

Las ventajas sobre las pantallas LCD es que solamente se requiere una capa de plástico, frente a dos de cristal para las LCD, no necesitan retro-alimentación, pues es la superficie la que emite luz, tienen un bajo consumo y un ángulo de visión bueno.

Además, esta tecnología permite pantallas curvas e incluso flexibles, pro esta tecnología está todavía muy verde, aunque el interés mostrado por INTEL le augura un futuro prometedor.

DLP

Es una tecnología propietaria de TEXAS INSTRUMENTS y actualmente solamente se utiliza en proyectores.

Es un diseño de memoria estática en la que los bits se almacenan en celdas de silicona en forma de carga eléctrica y la imagen se consigue por medio de unas ópticas muy complejas.

Los problemas de esta tecnología surgen por el calor producido y la necesidad de enfriamiento, que genera bastante ruido. Además, la tecnología de color supone una complicación importante, al utilizar lentes triples giratorias, y su lentitud la hace poco adecuada para la reproducción de vídeo.

Floppy Disk o disco flexible

Un disquete es un disco de plástico recubierto por una capa de óxido magnetizable, localizado dentro de una funda de protección, también plástica. Además, como su nombre indica, el material sobre el que esta fabricado es flexible. En la actualidad es el soporte de memoria masiva más extendido en el ámbito de los ordenadores personales. Los tamaños estándar y más usuales, son atendiendo al diámetro del disco, estos son de 5¼ y de 3½ pulgadas. Aunque en la actualidad casi solo se utilizan los discos de 3½. La principal característica de estos es que son fáciles de transportar de una computadora a otra, es decir, son intercambiables.

Existen dos tipos de discos atendiendo a la capacidad de almacenamiento:

Los disquetes de 3 ½ pulgadas vienen en capacidades en el rango de

Baja densidad o doble densidad 720 KB

Alta densidad 1.44 MB

Extra alta densidad 2.88 MB.

'Dispositivos de los ordenadores'

Los disquetes de 5 ¼ pulgadas vienen en capacidades en el rango de

  • Baja densidad o doble densidad 360 Kb

  • Alta densidad 1.2 MB

El disco flexible interno:

'Dispositivos de los ordenadores'
La capacidad mas utilizada es la de 1.44 MB ya que posee una cubierta dura de plástico que ayuda a proteger el disco, haciéndolo mas confiable que el viejo disquete de 5 ¼.

EL TECLADO

Top of Form 2

Bottom of Form 2

Quizás sea el componente al que menos prestamos atención a la hora de comprar un equipo o actualizar el nuestro, pero, juntamente con el ratón y el monitor, es uno de los elementos de interacción entre el usuario y el ordenador, y, por lo tanto, de sus características también depende en gran parte la satisfacción y el nivel de cansancio producido por el uso continuado de nuestro equipo.

La elección de un buen teclado condiciona en gran parte la velocidad con la que escribimos y la existencia o no de dolores de muñeca e incluso cervicales.

¿Cómo funciona?

Un teclado no es más que un conjunto de interruptores dispuestos de un modo determinado, cada uno de los cuales envía al ordenador una señal única cuando se pulsa una tecla determinada.

Las teclas forman una matriz y su identificación mediante línea y columna envían una señal al microcontrolador del propio teclado, que está en un circuito integrado en el propio teclado, y que interpreta las señales que recibe mediante un programa incluido en el propio controlador (por ejemplo, fila3-columna B = letra A). Este microcontrolador envía una señal al ordenador que es recibida por el controlador de teclado de la propia placa base con una transferencia entre ambos controladores en modo asíncrono.

El controlador de teclado de la placa base es a su vez el encargado de comunicarse con la BIOS del equipo, para activar o desactivar, por ejemplo, el bloqueo numérico, o para comprobar que el teclado está conectado al equipo.

¿Qué aspectos hay que tener en cuenta de un TECLADO?

MECANICO ó DE MEMBRANA

Los teclados MECANICOS constan de una serie de teclas con unos interruptores mecánicos colocadas encima de unos muelles, que son los que hacen retornar las teclas a la posición original, de modo que al ser pulsadas éstas hacen contacto con unas terminaciones metálicas del circuito impreso del propio teclado, cerrando así el circuito, y volviendo a abrirlo al dejar de pulsar por el efecto de retorno del muelle. El contacto establecido entre los terminales metálicos de las teclas y el del circuito impreso determina la señal diferenciada.

Los teclados de MEMBRANA se componen de cuatro capas: la inferior tiene una serie de pistas conductores impresas; encima de ella, se coloca una capa de separación con agujeros justo debajo de cada una de las teclas; encima de esta se coloca una capa conductora con pequeñas montañitas debajo de cada una de las teclas y en cada montañita un contactor metálico; encima de éstas se coloca una capa de goma para producir el efecto de retorno a la posición inicial (en vez del muelle). Cuando pulsamos una tecla, lo que hacemos es poner en contacto las dos capas conductoras (la primera con el circuito y la tercera con los contactores) haciendo que el circuito se cierre, y la membrana de goma hace que se separen las capas al impulsar la tecla hacia su posición inicial.

Tanto en los teclados mecánicos como en los de membrana, existen diferentes grados de dureza de las teclas, con variaciones incluso durante el periodo de pulsación. Es este factor, y no solamente el tipo de teclado, el que, en la mayoría de los casos, determina la comodidad y facilidad de uso del teclado.

Sin embargo, los teclados mecánicos suelen requerir una pulsación más suave y con una fuerza continuada, aunque la profundidad de hundimiento de cada tecla puede hacerlo más o menos agradable dependiendo de la velocidad (pulsaciones por minuto) que queremos alcanzar al escribir.

Por el contrario, los teclados de membrana requieren una mayor fuerza en el tramo final de la pulsación para vencer la resistencia de la capa de goma de cubre las capas puramente electrónicas. Esta mayor resistencia no supone un óbice para aquellas personas no acostumbradas a un teclado profesional de máquina de escribir eléctrica, dándoles mayor seguridad y provocando un menor número de errores al "acariciar" las teclas contiguas. Debemos recordar, sin embargo, que el teclado de membrana aguanta peor el paso del tiempo y el uso continuado, dando lugar a que ciertas teclas más usadas pierdan parte de esa resistencia a la pulsación, con la consiguiente desigualdad que notaremos al escribir e incluso llegando al extermo de que ciertas teclas pueden quedar pulsadas por la pérdida de capacidad de retorno de ciertas zonas de la membrana de goma.

Para un uso continuado y/o profesional del teclado, para oficinistas, secretarias, escritores, etc., la elección es clara: TECLADO MECÁNICO.

TECLADOS ERGONOMICOS

Se basan en el principio de que dividendo el teclado principal colocando en ángulo cada una de las mitades los codos descansan en una posición mucho más natural, y cambiando la curvatura del teclado y añadiendo un pequeño reposamuñecas, el ángulo de escritura es mucho más cómodo para el usuario.

Existen modelos económicos con un simple (o espectacular y de dudosa utilidad) reposamuñecas y otros con el teclado dividido con o sin reposamuñecas. Sin embargo los teclados que tienen las teclas divididas en dos mitades tienen un "pequeño" defecto: si utilizamos simultáneamente el ratón en una mano y el teclado en la otra, la mano del teclado tiene q veces que hacer unos desplazamientos bastante incómodos y antinaturales, porque las teclas de la mitad contraria nos quedan en una posición de difícil acceso.

TECLADOS PROGRAMABLES

Como ya hemos dicho, el propio teclado lleva una microcontroladora interna (que se comunica con la controladora de teclado de la placa base) con un programa integrado que interpreta las señales producidas al cerrarse el circuito cuando dos terminales (tecla y circuito integrado) entran en contacto.

Este programa reside en una ROM (memoria de sólo lectura), la cual puede almacenar muchos otros datos, además del código del teclado (país) y la posición de las teclas, pero para interpretarlos, se ha de instalar un driver (controlador de dispositivo) que interprete las señales.

La mayoría de los teclados que se venden actualmente tienen teclas específicas para WINDOWS 9x, que son interpretadas por el propio sistema operativo sin un driver adicional, pero existen teclados desde los cuales podemos manejar parámetros concernientes al sonido, la reproducción de CDs musicales, etc. Recientemente han aparecido en el mercado, especialmente de la mano de grandes fabricantes (IBM, PACKARD BELL, etc.) teclados con teclas adicionales programables sin una función específica, a las que nosotros podremos asignar la ejecución de nuestras aplicaciones favoritas, el guardado de documentos, impresión, etc.

Realmente estas características suponen un valor añadido para un teclado, pero no deja de ser un argumento para encarecer el componente, cuya utilidad debe determinar el propio usuario.

TECLADOS ESPECIALES

En primer lugar, debemos recordaroas que un teclado AT no se diferencia de un teclado PS/2 en nada más que el conector utilizado para conectarlo a la placa base, de modo que si ampliamos o compramos un nuevo equipo podemos utilizar nuestro amado teclado de siempre comprando un adaptador que en ningún caso debe superar las 500pts. Yo he utilizado mi amado teclado IBM (sí, aquellos teclados del IBM PS/2 que parecían hechos de piedra y parece que están diseñados para un naufragio, y si no que se lo pregunten a mi ceniza, mis cafés y mis refrescos) tanto en mi 486, como en mi Pentium y en mi actual Pentium II ATX.

¿Y los teclados inalámbricos? Pueden fallar si están mal orientados, pero no existe diferencia con un teclado normal. En vez de enviar la señal mediante cable, lo hacen mediante infrarrojos, y la controladora no reside en el propio teclado, sino en el receptor que se conecta al conector de teclado en el PC.

Existen también teclado industriales de alta resistencia a "todo lo que caiga", pero a menos que la casa amenace ruina, no vale la pena gastarse el dinero en ellos. Siempre hay quien le tiene tanto cariño a su máquina de escribir que tiene que gastarse en un CHERRY para sentirse como siempre.

Si queremos conectar a nuestro equipo un teclado USB, primero debemos tener una BIOS que soporte un teclado USB y en segundo lugar debemos tener instalado Windows 98 o al menos Windows 95 OSR2.X con el "Suplemento USB". Pero, ¡Cuidado!, un buen teclado USB debe tener en su parte posterior al menos un conector USB adicional para poderlo aprovechar como HUB y poder conectar a él otros dispositivos USB como ratones, altavoces, etc. Si no, la verdad es una tontería comprarlo, pues no liberamos posibilidades de expansión del equipo al tener el teclado su propio conector.

Una vez decidido el tipo, ¿en qué aspectos hemos de fijarnos a la hora de escoger un teclado?

Buffer de teclado

El "Buffer de teclado" permite pulsar simultáneamente varias teclas, por ejemplo CONTROL+ALT+SUPR, de manera que responda a la orden procesando simultáneamente las tres pulsaciones. Sin embargo, si vamos a utilizar el teclado para algunos juegos modernos (mejor tener un joystick o un gamepad), necesitaremos poder pulsar simultáneamente a veces incluso hasta 6 teclas, por lo que sería conveniente escoger un teclado que permita esas 6 pulsaciones, aunque los hay que incluso permiten pulsar un número ilimitado de teclas simultáneamente y procesarlas juntas.

Peso

Un teclado pesado suele ser sinónimo de calidad, porque suele indicar el uso de piezas metálicas en vez de las cada vez más abundantes piezas plásticas, o al menos indica que el plástico es de un cierto grosor que le hace más resistente.

No es plan de hacer la prueba con nuestro amado teclado, pero si probamos a coger el teclado por los extremos y girar ambas manos en sentido contrario una de la otra, un teclado de baja calidad se retorcerá ostensiblemente, mientras que uno de buena calidad apenas variará de forma. ¡Tampoco nos pasemos!

Además, el peso permitirá que el teclado no vaya desplazándose por la mesa al teclear, lo que le dará mayor estabilidad. Para ello algunos teclados tienen en la parte inferior una chapa de metal.

AT o ATX/PS2

Si tenemos una placa AT, muy probable si nuestro equipo es un Pentium o anterior, o incluso si tenemos un AMD K6-2, nuestro teclado debe ser de tipo AT, es decir, con conector DIN.

Si tenemos una placa ATX, probable si nuestro equipo es reciente, y casi seguro si es un Pentium II (Celeron o normal), o muy probable con el AMD K6-2, el teclado debe ser de tipo ATX, es decir, con conector PS2.

Sin embargo, podéis estar tranquilos: si estáis actualizando vuestro equipo a tecnología moderna (Pentium II o equivalente) con placa ATX, no hace falta cambiar el teclado, pues existen adaptadores de DIN a PS2 que cuestan menos de 500pts. Y, por el contrario, si queréis comprar un flamante y nuevo teclado que sólo tiene conector PS2, no hay tampoco problema, pues también hay un conversor PS2 a DIN, y al mismo precio.

Otro problema diferente son los teclados USB (Ver la sección correspondiente a TECLADOS ESPECIALES). Sin embargo, los primeros teclados USB (como el Microsoft Natural Keyboard Elite) son teclados PS2 que incluyen un adaptador para el puerto USB, pero los nuevos teclados USB nativos serán un problema, por lo menos hasta que exista un adaptador USB a DIN y USB a PS2, suponiendo que existan alguna vez.

Sin embargo, yo recomiendo escoger el teclado adecuado a nuestra placa base, porque el adaptador es una fuente más de posibles errores y además alarga por la parte posterior del equipo el espacio libre que se debe dejar, por lo que al aproximar el equipo sin querer contra la pared podemos dañar el cable del teclado o, lo que es más grave porque nos obliga a cambiar la placa base, el conector del teclado de la placa base.

Teclas

Por un lado el tamaño: hay muchos tamaños de teclas, al igual que muchos tamaños de dedos, por lo que si las teclas son muy pequeñas y además están relativamente juntas, y nuestros dedos son gordos, tendremos problemas de letras indeseadas al teclear.

De especial importancia es el tamaño de las teclas ENTER/INTRO (cambio de línea, ejecutar, tec.) y BACKSPACE (borrado hacia atrás), que deben ser de mayor tamaño que las demás teclas, no sólo para que se distingan bien, sino para hacer más cómoda su pulsación, pues, con mucho, son las teclas que más se pulsan.

Por otro lado está el tema de las tapas de las teclas y la calidad de impresión de los caracteres sobre ellas. Mi teclado IBM PS2 (de los antiguos MicroChannel) permite quitar las tapas a las teclas y limpiarlas cuidadosamente (sumergirlas en agua jabonosa es el mejor método de limpieza), pero ningún teclado moderno, que yo sepa, lo permite, pues las teclas no suelen ser fundas, sino una sola pieza que está enganchada y si las quitamos una vez, a partir de ese momento se caerán con facilidad.

En cuanto a los caracteres impresos, si nos parecen demasiado endebles, seguro que lo serán, y a poco que usemos el teclado, o tengamos que limpiarlo de vez en cuando, empezaremos a tener teclas misteriosas: ¡Una buena razón para aprender mecanografía y acostumbrarnos así a escribir sin mirar al teclado!

Por último está la posición y distribución de algunas teclas. Sería de agradecer que las teclas de función (Fxx) estuviesen en el lateral izquierdo en vez de en la parte superior (como los primeros teclados extendidos), pero los teclados actuales con esta disposición no suelen ser baratos. Las teclas del CURSOR (las flechitas) suelen formar una "T invertida"; si formasen una cruz, evitarían algunos errores, sobre todo en los juegos, pero el caso de algunos teclados ergonómicos partidos es sangrante: usar el ratón o el joystick con la mano derecha y el cursor con la mano izquierda nos obliga a colocar el teclado verticalmente (¡Suerte que tienen los zurdos! ¡Por una vez!). Finalmente, las nuevas teclas WINDOWS son muy cómodas, pero dentro de poco casi no veremos la barra espaciadora.

EL RATON

Top of Form 2

Bottom of Form 2


Debemos recordar que juntamente con el teclado y el monitor, es uno de los elementos de interacción entre el usuario y el ordenador, y, por lo tanto, de sus características también depende en gran parte la satisfacción y el nivel de cansancio (o cabreo) producido por el uso continuado de nuestro equipo.

Un ratón barato empezará a dar saltos por la pantalla al cabo de pocos meses por mucho que lo limpiemos a menudo, o uno de sus botones casi no funcionará de tanto usarlo para jugar (¿Para qué estarán los joystick?) y llegará el momento de tener que comprar uno nuevo. Veamos qué es un ratón y cómo escogerlo

¿Cómo funciona?

El ratón más común hoy en día es de tipo optico-electrónico, y esta formado por una bola de acero (necesita peso) recubierta de goma (para que se agarre sobre las superficies) que al moverse hace girar dos ejes cilíndricos (uno para el movimiento horizontal y otro para el movimiento vertical), y que se mantiene en una posición fija al girar gracias a un eje que lleva un muelle.

Estos ejes mueven dos ruedas dentadas que pasan cada una por delante de una célula fotoeléctrica que contiene un diodo y un sensor de luz, el cual percibe el reflejo de la luz al girar las ruedas y lo identifica como movimiento, y la combinación de ambos diodos establece el movimiento vertical y horizontal.

Además en la parte superior, y a veces en los laterales, el ratón posee unos interruptores conectados a unos botones que son los que pulsa el usuario.

El ratón tiene un microcontrolador interno que interpreta las señales de los sensores de luz y los interruptores y envía estas señales al ordenador que son interpretadas por el sistema operativo (Windows), por cada programa o por un driver genérico (como el de DOS) o un driver específico del fabricante del ratón.

¿Qué aspectos hay que tener en cuenta a la hora de comprar un RATON?

DOS, TRES ó MÁS BOTONES

Los usuarios de DOS y WINDOWS tienen más que suficiente con DOS botones, y felices los usuarios de MAC que sólo necesitan UNO.

Algunos programas de CAD/CAI hacen uso del tercer botón, pero no es imprescindible, y este tercer botón quedará en desuso en la mayoría de los casos a menos que el ratón venga acompañado de un driver específico para WINDOWS.

Hay ratones con más de DOS y de TRES BOTONES, pero como ya he dicho, necesitan de un driver específico del fabricante, de modo que podamos nosotros mismos asignar funciones especiales a los botones adicionales (botón 3 = doble-click, click en el botón lateral para abrir el programa X, etc.)

ESA RUEDITA

El último invento de MICROSOFT, pero realmente útil.

Los que pasamos por las generaciones anteriores de procesadores nos acostumbramos a seleccionar texto haciendo click con el ratón y arrastrando el cursor sin dejar de pulsar, pero de repente, desde la llegada del Pentium, nos costaba parar en el punto donde queríamos, y ahora con el Pentium II, cuando queremos seleccionar media página, a poco que nos despistemos, hemos seleccionado las 84 páginas de todo el documento y no somos capaces de parar en el punto deseado.

¡Ya sé! Lo que tenemos que hacer es MAYÚSCULA+CURSOR para ir línea a línea y MAYÚSCULA+AvPag para ir de cuarto en cuarto de página.

La ruedita es muy práctica porque, pulsando el botón izquierdo (o la tecla MAYÚSCULA) y moviendo la ruedita, podemos ir seleccionando el texto que queramos.

Además, en las aplicaciones de MICROSOFT (incluido el EXPLORER, pero también en otras si en vez del ratón de Microsoft, adquirimos el de LOGITECH) nos olvidaremos de pulsar la barra de desplazamiento lateral para ir viendo o revisando el documento o página WEB que ocupa más que la pantalla.

RATÓN ó TRACKBALL

Cuestión de gustos: hay quien argumenta que el ratón tiene la "curiosa" habilidad de comerse todos los restos de "sabe Dios qué" (¡Jolín cómo se me cae el pelo!), y el trackball es más limpio porque la bolita está para arriba. Bueno, ¿quién no está comiendo algo mientras trabaja con el equipo?

A mí personalmente me parece endemoniadamente difícil manejar el trackball (otros dicen que es una maravilla), pero no he oído a nadie decir algo parecido del ratón tradicional.

LOS PORTATILES

Un caso aparte son los portátiles. ¿Quién no se ha vuelto loco con esa pantallita táctil que no es tan táctil como parece? ¿Quién no ha pulsado una tecla no deseada con ese puntero de los IBM THINKPAD?

Recordad que todos los portátiles tienen un puerto para ratón externo. Yo personalmente añoro aquel mini-trackball de los TOSHIBA.

Recordad que la pantallita táctil tiene la curiosa habilidad de perder su sensibilidad con el paso del tiempo (¿Será que ya tenemos callo en el dedo?) y los fabricantes son unos estafadores a la hora de cobrar ciertos componentes. Usadla cuando realmente no tengais la oportunidad de conectar un ratón externo

RATONES ESPECIALES

Un ratón INALÁMBRICO es un artilugio espectacular y el cable no se me enreda con todo y no se me queda corto de repente. Tampoco tengo el problema de tener que hacer contorsiones sobre una pequeña mesa, pues puedo levantarlo y colocarlo donde más me plazca en cada momento, pero, ¡A qué precio!

Para los sibaritas o los indecisos existe un ratón MOUSE+TRACKBALL, que combina ambas tecnologías, ¡Para volverse loco, oiga!

Existen ratones industriales de un alto costo que podemos tirar a la cabeza del vecino, que son totalmente estancos y que no llevan bolita sino unos sensores de luz que detectan el movimiento sobre cualquier superficie. Son ideales para entornos de trabajo donde existen mucho polvillo, carbonilla, etc., pero, por favor, ¡No seamos tan guarros!, y pasemos un paño o la aspiradora de vez en cuando por nuestro escritorio o nuestra habitación de trabajo.

¿Y un ratón USB? Lo mismo que el teclado: o tienes Windows 98 o Windows 95 OSR 2.x con el suplemento USB o no funcionará. Sin embargo, a diferencia del teclado, no puedes conectar a un ratón USB otro dispositivo USB (sería cómico ver el movimiento acompasado de los dos dispositivos), por lo que su compra es más bien por razones de "tecnología" (vas al vecino y le pones los dientes largos). Además, si no tienes una placa base ATX, es difícil que te hayan dado los conectores USB.

Pero, ¡ojo al dato!, si compras un ratón USB, sí tienes una ventaja. El ratón PS/2 consume una IRQ (normalmente la IRQ12) y si lo conectas al COM1/2, pierdes un puerto serie (que sino utilizas puedes anular en la BIOS de la placa base y recuperar una IRQ para otros dispositivos). Cierto que el puerto USB también consume una IRQ, pero si te compras un HUB USB o tienes otro dispositivo USB (dos dispositivos en 2 puertos USB sin un HUB), con dos (o hasta 128 usando HUBs) dispositivos USB sólo consumes una IRQ, y si lo puedes conectar al puerto USB del teclado, no gastas una IRQ adicional ni el otro puerto USB.

Bottom of Form 1

EL MODEM

Top of Form 2

Bottom of Form 2


Actualmente el módem está convirtiéndose en un complemento indispensable para cualquier usuario de informática, no sólo para aquellos que quieran conectarse a INTERNET, sino también para las empresas, y particulares, que necesiten hacer envíos de cantidades importantes de datos a destinos más o menos lejanos de su lugar de residencia, reduciendo drásticamente el gasto telefónico, de modo que el correo electrónico (E-Mail) está desbancando paulatinamente el uso del FAX tradicional.

Debemos recordar que, aunque los MODEM actuales pueden hacer funciones de FAX, todavía aún no está resuelto el tema de la verificación de autenticidad de los documentos enviados por FAX.

Otros usos importantes del MODEM, generalmente descuidados tanto por particulares como por empresas, es la posibilidad de realizar VIDEOCONFERENCIA a precio de llamada local (lo cual está siendo un quebradero de cabeza para las empresas telefónicas norteamericanas) o conectarse a un grupo de NEWS (público o de pago) para mantenerse informado de los temas que nos interesen de manera automática, recibiendo en nuestro ordenador los mensajes de manera automatizada.

Otros aspectos más lúdicos o de entretenimiento son los juegos en línea (ON-LINE) y las charlas vía Internet (IRC).

¿Cómo funciona?

El MODEM (abreviatura de MOdulador/DEModulador) recibe los datos del ordenador en formato digital (los datos se almacenan en el disco duro en forma de unos y ceros -- 101110), los convierte a formato analógico y los envía por la línea telefónica. El MODEM de destino recibe las señales analógicas y las transforma a formato digital antes de enviarlos al ordenador.

¿Qué aspectos hay que tener en cuenta de un MODEM?

ANALOGICO o DIGITAL

Los MODEMS ANALOGICOS actuales (hasta 56K) llegan a utilizar la anchura máxima de las líneas telefónicas estándar, y según las condiciones de la línea puede que incluso no se llegue a alcanzar la velocidad máxima de transmisión y recepción del modem.

Los MODEMS DIGITALES (hasta 64K) necesitan una línea telefónica RDSI (Red Digital de Servicios Integrados), totalmente digital, que nos permite dos canales de 64KB para voz y datos, llegando así a una transferencia máxima de 128K.

Mientras que las llamadas por ambos tipos de líneas, analógica (la de todas las casas) y digital (RDSI), cuestan exactamente lo mismo, el costo de instalación y la cota mensual son ciertamente muy caras en el caso de la línea RDSI, siendo realmente las empresas a quienes les interesa este tipo de línea por la necesidad de transmitir o recibir gran cantidad de datos y por la posibilidad de utilizar una sola conexión RDSI y un solo MODEM RDSI que permite la conexión a INTERNET de varios usuarios simultáneamente desde una RED LOCAL a través de un SERVIDOR.

INTERNO y EXTERNO

El MODEM INTERNO es una tarjeta que se inserta en uno de las ranuras ISA de expansión de nuestro ordenador y presenta las siguientes ventajas:

  • Son más baratos que los externos, por no tener caja ni fuente de alimentación externa.

  • Tienen su propia UART, por lo que no debemos preocuparnos por el tipo de ésta.

  • No consumen espacio sobre el escritorio y no existe la posibilidad de que se caigan y se estropeen.

Pero también existen desventajas:

  • Ocupan una ranura de expansión ISA, que puede que no tengamos libre debido a la escasez de éstas en las placas bases modernas (3 o incluso 2 en algunas placas para Pentium II).

  • A veces son muy difíciles de configurar por conflictos con las IRQ.

  • No sabemos el estado de nuestras comunicaciones.

  • En caso de tormenta pueden recibir una descarga eléctrica a través de la línea telefónica que puede afectarles a ellos mismos o a algún otro componente del equipo. Al ser internos, no se pueden apagar o desconectar.

El MODEM EXTERNO es una caja dentro de la cual encontramos los mismos circuitos que en un modem interno y se conecta a unos de los puertos serie (COM) de nuestro equipo. Sus ventajas son:

  • No consumen una ranura ISA, que podemos necesitar para otros componentes (tarjeta de sonido, tarjeta de red, tarjeta capturadora de vídeo, scanner, etc.).

  • No plantean problemas de configuración, pues utilizan las IRQ del puerto serie correspondiente.

  • Podemos usarlo con varios equipos diferentes, incluso portátiles.

  • Disponen de un panel frontal con luces, o incluso una pantalla digital, donde podemos ver información sobre la conexión (estado, corrección de errores, incluso sobre la velocidad de transmisión).

  • Se pueden apagar independientemente, especialmente útil en caso de tormenta o cuando una conexión está bloqueada.

Pero obviamente también tienen sus desventajas:

  • Necesitamos una UART 16550 para que nuestro puerto serie no provoque errores o embudos en la conexión.

  • Pueden hacer que nuestra mesa de trabajo sea una maraña de cables.

  • La mayoría tienen una fuente de alimentación externa, que es un estorbo más.

  • Necesitamos un nuevo enchufe para conectarlo a la corriente eléctrica (otro más, además de equipo, monitor, altavoces, escáner, etc.)

MODEMS ESPECIALES

Existen el mercado dos tipos especiales de MODEM, aparte de los modems analógicos estándar y los modems digitales (RDSI), que son los MODEM RPI y los WINMODEM.

Los MODEM RPI, normalmente de 14,4K aunque los hay de 28,8K, se caracterizan por utilizar un chipset especial de ROCKWELL que no incluye el protocolo de compresión de datos y corrección de errores (habitual en todos los chipsets de 28,8K, 33,6K y 56K), sino que hacen estas funciones mediante software, instalando un driver que se puede obtener en este enlace, abaratando así sensiblemente el costo del MODEM. Los WINMODEM, un concepto introducido por USRobotics, se caracterizan por funcionar solamente en WINDOWS 3.x/95/98 (no en MS-DOS, LINUX, WINDOWS NT, OSR/2) y utilizar la potencia del procesador para realizar ciertas funciones propias del chipset interno del modem. Para utilizarlos, es recomendable que el procesador del equipo sea al menos un Pentium 166MHz y tener al menos 16MB de RAM, pero debemos recordar que si estamos utilizando varios programas durante la conexión, el rendimiento del modem desciende. La ventaja de este tipo de modem es su actualización por software a nuevos protocolos y su muy bajo precio. Si nos ofrecen un modem a un precio inusualmente bajo, comprobar que en la caja no se lea HSP MODEM o WINMODEM, en tal caso estamos ante un WINMODEM. Si buscamos un modem económico, para un uso ocasional, no utilizamos programas de comunicaciones para DOS, nuestro sistema operativo es WINDOWS y tenemos un procesador potente y bastante memoria RAM, ésta es una opción muy válida.

MODEMS PCI

Los modems con conexión PCI, frente a los tradicionales modems ISA internos, ofrecen las ventajas propias del bus PCI: menor carga de trabajo para el procesador, transferencia de datos más rápida, habilidad para ejecutar operaciones en modo busmaster, etc.

Este tipo de conexión es muy interesante para los modems tipo WINMODEM, pues consume muchos menos recursos y mejora sensiblemente las prestaciones.

Por último, aunque no menos importante como saben los que han sufrido para instalar un modem interno, solamente los dispositivos PCI son puramente PLUG'N'PLAY, con lo que la instalación de un modem se reduce a colocarlo en una ranura PCI y dejar que el sistema operativo lo detecte, nos pida el disco de instalación y lo configure automáticamente sin apenas intervención del usuario, dando lugar a conexiones sin fallos y sin tener que navegar por el registro o probar con cadenas ininteligibles.

Y una GRAN ventaja adicional: el costo de los primeros modems PCI es menor que el de los equivalentes ISA.

MODEMS USB

Los puertos USB de las placas base modernas, incorporados de serie en las placas con formato ATX, están pensados para conectar al equipo hasta 127 dispositivos, por supuesto interconectados entre sí o utilizando HUBS (replicadores de puertos) USB.

Una de las ventajas del modem USB es que no consume ranuras de expansión ni puertos COM (tampoco pasa nada, ya que hay dos y apenas se utilizan, excepto para el ratón, y con el formato ATX ni siquiera para eso), pero la más importante es que no consume las valiosas IRQ (peticiones de interrupción).

Como sabéis, un equipo dispone de 15 IRQs, de las cuales la mayoría están ocupadas por dispositivos de la placa base o por otros como la tarjeta gráfica, la tarjeta de sonido, etc. El puerto USB, sin embargo, nos permite conectar 127 dispositivos utilizando una sola IRQ, con lo que en los equipos con muchas tarjetas instaladas (SCSI, red, etc.) nos podemos encontrar algo faltos de IRQs, teniendo que anular alguna en la BIOS del equipo.

Otra ventaja que ofrece el puerto USB es la tasa de transferencia, superior a la de los puertos serie (COM). Con un modem a 33'6K externo, se alcanza el límite de transferencia de los puertos serie, 112'5Kb/s, por lo que con un modem 56K o V.90, el modem, en algunos momentos, debe esperar a vaciar su memoria interna antes de solicitar más datos. El puerto USB permite transferencias entre 1'5MB/s y 12MB/s, evitando posibles esperas del modem.

Por último, el modem USB permite ser conectado y desconectado con el equipo encendido, de modo que el sistema operativo lo detecta al momento e instala o pide los drivers adecuados.

MODEMS ADSL

La tecnología ADSL se basa en el hecho de que en una línea telefónica la voz no utiliza todo el ancho de banda disponible, por lo que es posible tener una conexión de datos de alta velocidad al mismo tiempo.

Este sistema permite transportar tres canales de frecuencia por la misma línea: un canal de voz tradicional, un segundo canal de datos entre 64KB/s y 640KB/s y un tercer canal de alta velocidad con transferencias entre 1MB/s y 6'3MB/s.

Básicamente ADSL se parece mucho a las líneas RDSI, y tienen sus mismos requisitos: una línea limpia sin ruidos y una cable de menos de 5Km de longitud hasta la central telefónica.

Las ventajas de este sistema, es que las compañías telefónicas no necesitan ampliar el cableado para ofrecer este servicio y el usuario final solamente necesita adquirir un modem compatible ADSL para obtener este servicio, que por supuesto debe ser también ofrecido por los proveedores.

Esta tecnología, sin embargo tiene una seria competencia por parte del MODEM CABLE.

CABLE MODEMS

Este tipo de modems, asociados a una conexión por medio de cable de fibra óptica nos presentan la opción de un servicio de Internet de alta velocidad y de bajo costo, utilizando las redes de cable de TV.

Esta tecnología es más aplicable a los hogares que a las empresas por la posibilidad de utilizar la infraestructura de la televisión por cable para la conexión.

Actualmente los modems cable se conectan por medio de una tarjeta de red Ethernet, pero se esperan próximamente modems cable con conexión USB.

La desventaja vienen de la mano de la compatibilidad entre los modems, de modo que la propia compañía que ofrece el acceso a Internet es la que debe instalarnos un modem compatible con el del proveedor, con el costo que esto supone al no poder elegir el modelo más acorde a nuestras necesidades y presupuesto. Sin embargo, en urbanizaciones sería posible instalar un solo modem conectado a un HUB o ROUTER que proporciona acceso a cada uno de los hogares conectados, lo que abarataría el costo de la instalación, aunque obviamente, disminuiría la velocidad de transferencia.

con un modem cable se pueden alcanzar entre 500KB/s y 30MB/s cuando descargamos archivos o navegamos, y entre 96Kb/s y 10MB/s cuando enviamos información, como ficheros, faxes, etc. Debido a ello el uso de un HUB para varios hogares, compartiendo este ancho de banda no debería ser un problema a menos que el número de conexiones sea demasiado alta.

La desventaja: el cable no llega y tardará en llegar a algunas partes, por lo que en este momento es una tecnología para unos pocos, mientras que la conexión ADSL está al alcance de todo el mundo.

VELOCIDAD

Actualmente no tiene sentido comprar un modem de 14,4K, aunque sólo se vaya a utilizar como FAX y para una conexión ocasional a INTERNET. En caso de buscar un precio muy bajo, es preferible un WINMODEM. Si tenemos en nuestro equipo uno, es momento de cambiarlo.

Tampoco tiene ningún sentido comprar un modem de 28,8K, aunque si tenemos uno en nuestro equipo, debemos hacer lo siguiente:

  • En primer lugar, comprobar en la página WEB del fabricante si es posible una actualización por software a 33,6K o incluso 56K; para ello, podemos buscar la página WEB de los fabricantes en este enlace o dirigirnos a este otro enlace para ver si podemos actualizarlo a 56K.

  • Si no hemos tenido suerte, podemos dirigirnos a este enlace, e instalar alguna de las utilidades que podemos encontrar allí.

En todo caso, no compensa cambiarlo por un 33,6K, sino por un 56K, aunque ya que se ha llegado a un acuerdo sobre el estándar a utilizar, el V.90, debemos comprobar que sea compatible o actualizable a este estándar.

Sin embargo debemos recordar que si nuestro proveedor de Internet no ha actualizado sus equipos al estándar V.90, nuestro modem V.90 no conectará a más de 33,6K. Existen modems que conmutan automáticamente entre V.90 y 56K al detectar el modem remoto, pero otros no lo hacen, por lo que tendríamos que volver a actualizarlo a 56K y esperar a nuestro proveedor para actualizar a V.90.

Ten en cuenta que los modem 56K son compatibles con los protocolos anteriores, y por tanto capaces de funcionar también a 14,4K, 28,8K y 33,6K por lo que, aunque INFOVIA actualmente no soporte velocidades de 56K y tu proveedor (si te conectas a un nodo local) tampoco, podrás utilizarlo sin problemas.

En resumen:

  • Si tenemos un 14,4K, es hora de cambiarlo por otro más rápido.

  • Si tenemos un 28,8K, comprobar si es actualizable a, 33,6K, 56K o incluso a V.90. Si no, buen momento para cambiar.

  • Si tenemos un 33,6K, comprobar primero si se puede actualizar a 56K o a V.90 en la página WEB del fabricante, o en todo caso invertir en un modem 56K acutalizable o V.90 de calidad.

  • Si tenemos un 56K, rezar para pueda ser actualizado al protocolo definitivo.

FABRICANTE

Existen en el mercado gran variedad de modems de diferentes marcas, algunas totalmente desconocidas, pero de una reputada fama por la calidad de sus modems. Para elegir la marca de tu modem, haz lo siguiente:

  • Busca en Internet la página WEB del fabricante. Si no tiene página WEB, no lo compres. Seguramente será un pequeño fabricante, y aunque el modem puede ser de alta calidad, no podrás conseguir drivers actualizados que corrijan posibles errores o actualizaciones del modem a velocidades y protocolos de futura aparición.

  • Comprueba en la página WEB del fabricante si el modelo que has elegido posee memoria tipo FLASH, actualizable por software. Si es así, podrás sacar el máximo rendimiento a tu modem al poder actualizarlo a nuevas velocidades o protocolos.

  • No te fíes de los precios inusualmente bajos: lo que vas a ahorrar en la compra, lo vas a acabar pagando, y con creces, en factura de teléfono, debido al bajo rendimiento del modem.

El Protocolo 56K

En primer lugar, los modems 56K y V.90 solamente alcanzan 56kbps (56.000 caracteres por segundo) cuando están recibiendo datos, pero no cuando los están enviando, por lo que su velocidad real no es la citada. Además, para poder conseguir esta velocidad, hace falta lo siguiente:

  • Un proveedor de Internet que soporte 56K, pero no sólo eso, sino que los modems instalados deben utilizar el mismo protocolo que el tuyo. Esto debes comprobarlo siempre antes de comprar un modem 56K. Además, cuando se establezca el protocolo definitivo, tu proveedor se actualizará a él.

  • Si utilizas un modem actualizado a V.90 pero tu proveedor aún no ha actualizado sus equipos, solo podrás conectar a 33,6K. Existen modems que conmutan automáticamente entre V.90 y 56K al detectar el modem remoto, pero otros no lo hacen, por lo que tendríamos que volver a actualizarlo a 56K y esperar a nuestro proveedor para actualizar a V.90.

  • Una línea telefónica con centralita digital, y el menor número de tramos analógicos. Si no es así, entre tu ordenador y tu proveedor de Internet se producirán varias transformaciones de información digital a analógica, con lo que se ralentizará progresivamente la velocidad de transmisión.

  • Un buen cableado telefónico desde la acometida de teléfono de tu casa o edificio hasta tu vivienda y un buen cableado dentro de la vivienda.

El Problema de la UART

La UART (Transmisor/receptor asíncrono universal) es un chip que convierte los datos paralelos en una corriente de datos en serie que puede ser transmitida por la línea telefónica.

Los MODEM INTERNOS tienen su propia UART, o un emulador, soldado a la tarjeta, por lo que no debemos preocuparnos. Sin embargo si tenemos un MODEM EXTERNO, y especialmente si nuestro ordenador ya tiene algún tiempo, no debemos dejar de leer lo siguiente.

La mayoría de los ordenadores que ya tienen algún tiempo, especialmente los que tienen una placa Pentium, suelen tener una UART 8250 o 16450. Estas UART son capaces de recibir y transmitir datos a velocidad suficiente para un modem de 14,4K, pero es difícil que superen los 19.200bps, con los que nuestro modem de 28,8K o 33,6K estaría siendo desaprovechado.

Además, al carecer de buffer, es posible que los datos que llegan al puerto vía modem sean reescritos por nuevos datos si el procesador no recoge los datos inmediatamente, dando lugar a errores en la transmisión y obligando al modem a volver a solicitar estos datos.

Para aprovechar las máximas prestaciones de un modem externo de 28,8K o superior, debemos tener una UART 16650, que integra un buffer de entrada y salida de 16 bytes, habitual en las placas Pentium, especialmente en las más modernas. Para comprobar el tipo de UART, en primer lugar podemos consultar las características de la placa base en nuestro manual, pero si éste no lo especifica, podemos recurrir a la utilidad MSD.EXE del sistema operativo MS-DOS o a muchas otras utilidades SHAREWARE para modem que podemos encontrar en la red.

LA IMPRESORA

Ningún equipo informático está completo sin una impresora, pues es lo que nos permite divulgar nuestros trabajos, sin detrimento de Internet, y transferir la información de un usuario a otro, independientemente de la tecnología de información utilizada.

Hasta la década de los 80, sólo existían dos métodos de impresión, láser o matricial, destinada la primera de ellas, por costo y voluminosidad, a las medianas y grandes empresas, y la segunda a las medianas y pequeñas empresas y a los usuarios particulares. Con la aparición de las impresoras de inyección de tinta en los años 80 y la introducción del color en la década de los 90, el mercado de la impresión sufrió una gran revolución, de modo que hoy en día las impresoras matriciales han prácticamente desaparecido del mercado, excepto para usos muy específicos, y las impresoras de inyección y las impresoras láser están librando una batalla en la que el primer beneficiado es el usuario final.

Aunque normalmente asociamos impresora láser a entorno empresarial, e impresora de inyección de tinta a entorno doméstico, hoy en día, la cada vez menor diferencia de precio entre ambos tipos de impresoras y la mejora de calidad y velocidad, especialmente en la impresión en color, de las impresoras de inyección de tinta, hace que cualquier usuario profesional o doméstico tenga serias dudas sobre la tecnología a escoger.

Obviamente, las posibilidades de impresión en color y el precio asequible de la impresora de inyección de tinta, la ha convertido en la reina del mercado doméstico, y el entorno empresarial está poniendo también sus ojos en esta tecnología.

¿Cómo funciona?

Para explicar el funcionamiento de una impresora, debemos distinguir las distintas tecnologías de impresión existentes en el mercado: INYECCIÓN, LASER, MATRICIAL, TINTA SOLIDA, SUBLIMACIÓN, TERMICA y DE CERA TERMICA.

IMPRESORAS DE INYECCIÓN DE TINTA

En general, la tinta es expulsada por unas boquillas, pasa a través de una serie de medios y es lanzada hacia el papel para construir una imagen.

Para completar una página, un cabezal de impresión se mueve horizontalmente a lo largo de la página gracias a un motor que lo mueve de izquierda a derecha y viceversa, mientras que otro motor hace avanzar verticalmente la página paso a paso. Sin embargo, para acelerar la impresión, el cabezal imprime más de una línea de pixeles de cada pasada, al menos un par de ellas, una al moverse de izquierda a derecha y otra al volver a su posición original de derecha a izquierda.

Por su parte, la cantidad de tinta que expulsan las boquillas viene determinada por el DRIVER controlador de la impresora, que es el que decide qué boquillas expulsan tinta y cuándo lo deben hacer.

Sin embargo, debemos distinguir dos métodos básicos para lanzar la tinta sobre el papel: TECNOLOGÍA TÉRMICA y TECNOLOGÍA PIEZOELÉCTRICA.

La TECNOLOGÍA TÉRMICA es la más extendida, y por medio de ella se utiliza calor para expulsar la tinta sobre el papel. El proceso es el siguiente: se calienta la tinta para formar una burbuja, de modo que la presión la hace reventar y estallar sobre el papel; al enfriarse el cabezal, la tinta se seca y el vacío creado por la explosión absorbe tinta del depósito para reemplazar la tinta que fue expulsada. Esta es la tecnología utilizada por grandes fabricantes como HEWLETT PACKARD y CANON.

La TECNOLOGÍA PIEZOELÉCTRICA es el sistema propietario y exclusivo de EPSON y consiste en lo siguiente: el cabezal de impresión tiene una especie de cristal detrás del depósito de tinta con la forma de un cono de altavoz que vibra cuando se le aplica una corriente eléctrica; al vibrar este cono expulsa una gota de tinta a través de la boquilla y ésta queda depositada en el papel, sin necesidad de calentar la tinta.

¿Qué sistema es el mejor? Veamos más abajo las secciones dedicadas a los aspectos a tener en cuenta para la elección.

IMPRESORAS LASER

Funcionan de modo similar a las fotocopiadoras, diferenciándose en la fuente de luz, pues en la fotocopiadora la página es escaneada con una luz brillante, mientras que en la impresora la fuente de luz es, por supuesto, un láser.

El proceso es el siguiente: la luz crea una imagen electrostática de la página sobre un fotoreceptor cargado de electricidad, que a su vez atrae el toner con la forma dibujada por la imagen electrostática. Dentro de la impresora hay un tambor octogonal con una cobertura que le permite llevar una carga electrostática y que se carga en toda su superficie rotando sobre unos electrodos. A continuación el láser emite una luz muy brillante sobre el tambor descargándolo selectivamente, de modo que sólo queda carga electrostática en los puntos que van a imprimirse sobre el papel, de modo que cada punto del tambor corresponde con un punto en el papel.

Mientras el tambor va rotando para descargar selectivamente cada línea, la línea anterior entra en contacto con el toner, un polvillo muy fino, y lo atrae a las zonas cargadas. Al final de la rotación, el tambor tiene una imagen dibujada sobre él, y cuando la hoja es introducida por los rodillos y entra en contacto con el tambor, la imagen se transfiere al papel, pero para que la imagen se fije se aplica al papel calor y presión (de ahí que las hojas impresas en una impresora láser estén calientes) y finalmente el tambor se limpia de restos para la siguiente impresión.

En algunas impresoras económicas (llamadas impresoras LED), el láser se sustituye por una matriz de LEDs (Light Emitting Diodes - diodos que emiten luz), aunque se pierde en resolución lo que se gana en precio. También existen impresoras LCD, en las que se sustituyen los diodos por un panel de cristal líquido como fuente de luz.

La principal diferencia entre una impresora de inyección de tinta y una láser es que esta última necesita tener toda la información del documento a imprimir en su propia memoria antes de empezar a imprimir, pero el lenguaje utilizado para comunicar la información del PC a la impresora, para que ésta imprima exactamente lo que se ve en la pantalla del ordenador, varía según el tipo de impresora: PostScript, PCL, GDI o ADOBE PRINTGEAR.

Las impresoras POSTCRIPT, una patente de ADOBE, fue el primer intento de un lenguaje estándar multi-plataforma (PC, MAC, ALPHA, etc.). Este lenguaje dio lugar a la aparición del término WYSIWYG (What You See Is What You Get - se imprime tal y como se ve en pantalla), y se basa en la transmisión de la página en formato vectorial para que la impresora lo transforme en puntos. La última revisión de este lenguaje, Level 2, supone un mejor nivel de compresión de datos, gestión del color y gestión de recursos y memoria de la impresora.

Las impresoras PCL usan un lenguaje creado por HP pero de carácter abierto, lo que hace que haya numerosas impresoras láser PCL y su costo sea menor que el de las PostScript. Este lenguaje fue creado inicialmente para las impresoras matriciales, e inicialmente era bastante simple, por lo que debemos buscar versiones superiores a PCL4, habitual en las impresoras de bajo costo y que ya tiene un buen soporte para gráficos, pero debemos buscar la compatibilidad PCL5 para mejorar la velocidad, para la comunicación bidireccional con el ordenador y para la gestión del color, y PCL6 si buscamos ante todo velocidad o imprimimos muchos documentos repletos de gráficos o una impresión habitual en color. La compatibilidad con PCL5 y PCL6 encarece el precio de las impresoras al necesitar un hardware interno (memoria de la impresora, procesador de la impresora, etc.) más potente.

Además es muy habitual encontrar en el mercado impresoras compatibles con el lenguaje PCL5 o PCL6 a las que se puede añadir en opción el soporte para lenguaje PostScript 2. Las impresoras láser de gama alta suelen soportar ambos lenguajes, además de otras emulaciones adicionales de HP, EPSON e IBM. Las impresoras láser GDI son la alternativa económica a los dos lenguajes anteriores. Con las impresoras Windows GDI (Grafical Device Interfaces) es el propio ordenador el que renderiza las páginas para enviarlas directamente a la impresora en formato de mapa de bits para que los documentos se impriman directamente. De este modo, las impresoras GDI son bastante económicas por no requerir en la propia impresora una gran cantidad de memoria o el típico procesador RISC. Por supuesto, hay desventajas: menor velocidad de impresión y pérdida de recursos del sistema durante la impresión. Obviamente este tipo de impresoras solamente conviene en el ámbito doméstico.

Algunos fabricantes eligen el WINDOWS PRINT SYSTEM, un lenguaje creado por Microsoft que es una variante de GDI, en el que la renderización del mapa de bits se realiza durante la propia impresión, y no previamente, por lo que se ahorran recursos. También hay fabricantes que venden impresoras de tipo mixto, en las que bajo Windows utilizan el sistema GDI y bajo DOS utilizan PCL o PostScript, siendo este un método para abaratar costos de fabricación.

Una alternativa presentada recientemente por Adobe es ADOBE PRINTGEAR. Este lenguaje está destinado a las impresoras láser personales o para pequeñas oficinas, y se basa en un procesador a 50MHz y un Driver de alta complejidad que realizan la mayoría de las funciones típicas de los procesadores RISC de impresoras láser, abaratando de manera importante el costo de la impresora.

IMPRESORAS MATRICIALES

El funcionamiento de las impresoras matriciales se basa en el golpeteo de una serie de agujas o alfileres contra una cinta de tinta, de modo que se crean sobre el papel una serie de puntos muy próximos entre sí con la forma apropiada.

La calidad de la impresión viene determinada por el número de agujas o alfileres, entre 9 y 24, de modo que a mayor número, mayor calidad, siendo las de 24 agujas las que ofrecen una calidad aceptable.

La velocidad se mide en cps (caracteres por segundo), oscilando entre 50 y 500, siendo menor la velocidad a mayor resolución.

La única ventaja frente a otras tecnologías es el poder imprimir sobre papel continuo multicopia (el papel continuo simple puede utilizarse también en algunas impresoras láser y de inyección).

OTRAS TECNOLOGÍAS DE IMPRESIÓN

La impresora de SUBLIMACIÓN DE TINTA se basa en el calentamiento de la tinta de modo que pase de estado sólido a estado gaseoso, controlando la cantidad de tinta por medio de diferentes temperaturas. La tinta se aplica con un tono continuo, en vez de con puntos como en una impresora de inyección, y se aplica cada uno de los colores a toda la página de una vez, empezando por el amarillo y acabando por el negro. El papel necesario es muy caro y la velocidad de impresión, debido a las múltiples pasadas, es muy lenta, aunque la resolución y los resultados son espectaculares.

Las impresoras de TINTA SÓLIDA, un sistema casi exclusivo de TEKTRONIX, funcionan derritiendo un cilindro de cera de tinta y esparciéndolo por un tambor de transferencia, de donde es transferido al papel de una sola pasada. Estas impresoras son típicas en redes, y suelen traer conexiones paralelo, SCSI y Ethernet, y aunque su calidad es superada por muchas impresoras láser en color y algunas de las recientes impresoras de inyección de tinta de calidad fotográfica, su costo de adquisición y mantenimiento es muy bajo e imprimen con una muy alta calidad en casi cualquier tipo de papel, y son muy utilizadas para realizar transparencias en color e impresiones de gran tamaño.

Las impresoras de CERA TERMICA son similares a las de sublimación de tinta y utilizan una película plástica recubierta de colorantes de cera, y su impresión se basa en el calentamiento de puntos de tinta sobre un papel especial térmico. Al igual que las anteriores son lentas y de baja resolución y su uso se limita a aplicaciones muy específicas.

Las impresoras TERMICAS AUTOCROMATICAS son un reciente invento que se ha creado para asociarlas directamente a las cámaras digitales. El papel térmico-autocromático tienen tres capas de pigmento (cian, magenta y amarillo) sensibles cada una de ellas a una temperatura diferente, y la impresora utiliza cabezas térmicas y ultravioleta para calentar las zonas del papel en tres pasadas sucesivas. Sus resultados son espectaculares y se afirma que su resistencia al tiempo es mejor que en el caso de las impresoras de sublimación.

¿Qué aspectos hay que tener en cuenta de una IMPRESORA?

RESOLUCIÓN

En las impresoras de inyección de tinta, la resolución viene determinada por el número o la densidad (proximidad entre ellas) de las boquillas que expulsan la tinta sobre el papel. Esta densidad oscila entre 300 y 600dpi o ppp (dots per inch - puntos por pulgada) en el caso de las de tecnología térmica y está alrededor de 720ppp en el caso de las piezoeléctricas.

Sin embargo, ambos tipos de impresoras ofrecen resoluciones mejoradas que suelen ser normalmente el doble de la resolución nativa (1.200ppp y 1.440 ppp respectivamente) que suelen conseguirse mediante pasadas múltiples o mediante complejos algoritmos de cálculo.

Sin embargo, no es siempre la resolución lo que interesa: mientras que la mayoría de los usuarios y las oficinas buscan una alta definición tanto en el texto en blanco y negro, como en las imágenes en color, los usuarios más profesionales o aquellos que desarrollan tareas gráficas, están más interesados en el número de niveles de color en cada punto, y de ahí la reciente aparición de impresoras con cartuchos de hasta 6 colores diferentes, especialmente pensadas para aquellos que buscan ante todo la calidad fotográfica.

En las impresoras láser, la resolución viene dada horizontalmente por la rotación del tambor mientras se carga selectivamente de electricidad mediante el láser, siendo normalmente cada paso de 1/600 de pulgada, lo que obviamente da lugar a una resolución de 600ppp en vertical y horizontalmente por la rapidez con la que se enciende y se apaga el láser. En el caso de las impresoras LED y las impresoras LCD la resolución suele ser menor, debido a la resolución horizontal de 300ppp fija limitada por la propia fuente de luz.

En el caso de las impresoras matriciales, la resolución viene marcada por el número de agujas (descartar las de menos de 24 agujas para conseguir una calidad casi-imprenta), y hay que tener en cuenta que la resolución es inversamente proporcional a la velocidad: a mayor resolución, más lentitud.

VELOCIDAD

La velocidad en una impresora de inyección de tinta depende de la velocidad con la que se cargan los inyectores para poder lanzar de nuevo sobre el papel una carga de tinta y de la anchura de la banda de impresión (cuántas líneas se imprimen simultáneamente en el recorrido de un lado a otro y el retorno del cartucho a la posición inicial), la cual viene determinada por la propia cabeza impresora.

Debido a las características de las impresoras de tecnología termina, en general se puede afirmar que éstas son más lentas que las de tecnología piezoeléctrica, debido a la necesidad de las primeras de un tiempo para calentar el cabezal y otro pequeño tiempo para que se enfríe, pero en muchos casos éste retraso queda compensado por la mayor anchura de la banda de impresión.

En las impresoras láser, la existencia de un procesador dedicado para la propia impresora (excepto las GDI) y las propias características del láser o los LEDs hace que la impresión sea mucho más rápida que en una impresora de inyección, lo que las hace especialmente adecuadas para el entorno ofimático donde se necesita una gran cantidad de copias o varios usuarios deben imprimir a una misma impresora, necesitando que ésta esté liberada de trabajo lo antes posible. Las impresoras GDI suelen ser más lentas, entre 4 y 8 ppp (páginas por minutos), pero las LASER y las LED con tecnología PostScript 2 o PCL5 y PCL6 llegan a alcanzar hasta 35ppp.

Las impresoras matriciales son especialmente lentas, sobre todo a altas resoluciones, pero este tipo de impresoras tienen como función primordial el poder imprimir sobre papel multicopia autocalcante, con lo que la velocidad no es el principal aspecto a tener en cuenta a la hora de la compra.

Por tanto, no debemos olvidar, especialmente en el caso de las láser el valor anunciado de número de páginas por minuto que la impresora es capaz de imprimir (teniendo en cuenta que el fabricante suele ser bastante optimista). Este valor oscila entre 2 y 10ppm en las impresoras de inyección de tinta, aunque en impresión color la velocidad siempre es bastante menor que para blanco y negro, y entre 6 y 50ppm para las impresoras láser, oscilando en torno a 6ppm para color.

COLOR

La impresión en color se consigue mediante la mezcla de tres o más colores básicos en diferentes cantidades, en un proceso conocido como DITHERING (síntesis sustantiva). Los tres colores básicos son: el cian (un color azul-verdoso complementario del rojo), el magenta (color carmesí oscuro, que se suele obtener mezclando rojo y azul) y el amarillo. Algunas impresoras añaden uno o dos colores más: el cian claro y el magenta claro, para aumentar el número de colores posibles mediante combinación.

La impresora de inyección de tinta de tres colores (un solo cartucho con tinta de tres colores) lleva ya algún tiempo en el mercado y existen modelos de muy bajo costo, desde 15.000 pts, habiendo hecho popular entre todo tipo de público la impresión en color, pero con la aparición de la impresora de cuatro colores (un cartucho de tres colores y un cartucho de negro simultáneamente) y su progresiva bajada de precio, hoy no tiene sentido comprar una de las primeras, tanto por los resultados obtenidos (el negro obtenido a partir de la mezcla de los tres colores tiene un tono violeta o grisáceo) como por la velocidad de impresión (el negro se forma combinando los tres colores, con lo que un carácter de color negro necesita el triple de tiempo para Imprimirse).

Sin embargo, las impresoras de inyección color no sólo persiguen una impresión más efectista o llamativa, sino que en muchos casos en la actualidad se busca la calidad fotográfica, o lo que es lo mismo, una impresión con un número ilimitado de colores que refleje la realidad.

Para conseguir un número ilimitado de colores (16,7 millones es más de lo que puede distinguir el ojo humano) las impresoras color son capaces de crear 256 tonos por cada punto y por cada color (es decir, con tres colores, 256x256x256=16.777.216 colores), con lo que aumentando el número de tintas de 3 a 4 o a 5, además del negro, se consigue el efecto de "tono continuo" que caracteriza a la impresión de calidad fotográfica.

Las impresoras láser en color producen el color mediante cuatro pases del papel por el tambor (una para cada color) o por cuatro tambores diferentes, colocando el toner en el papel de uno en uno. Algunas impresoras crean la imagen en color sobre una superficie de transferencia antes de pasar la impresión al papel, como es el caso de muchas de las impresoras LED, o tienen cuatro líneas de leds de modo que los cuatro toners se depositan a la vez sobre el papel.

MANTENIMIENTO

Las impresoras con un mantenimiento más barato son las impresoras matriciales, donde la cinta de impresión puede aprovecharse durante mucho tiempo hasta que está tan gastada que casi no puede leerse lo que se imprime.

Por el contrario las impresoras de inyección de tinta tienen el mantenimiento más caro, por diversos motivos:

  • Alto costo por página, tanto en blanco y negro como en color, por el elevado costo de las recargas. No debemos olvidarnos de preguntar el precio de las recargas a la hora de decantarlas por uno u otro modelo o marca de impresora de inyección de tinta.

  • Suelen combinar en un solo elemento la cabeza de impresión con el depósito de tinta, lo que, aunque asegura siempre el buen estado de la cabeza de impresión, encarece el precio del recambio.

  • Una de las posibilidades a tener en cuenta es el rellenado de los cartuchos (práctica muy popular hoy en día), pues un cabezal de impresión tiene una durabilidad muy superior a las 1000 hojas en blanco y negro y las 500 en color, que es generalmente la capacidad de impresión máxima de un depósito. Los fabricantes aseguran que la tinta de origen tiene unas características que la hacen especialmente adecuada para cada modelo de impresora y que el uso de recargas supone un riesgo y, además, anula la garantía. Con los avances actuales en la tecnología de tintas, las recargas fabricadas por muchas casa de prestigio no tienen nada que envidiar a las tintas originales.

  • Desperdicio de tinta en los cartuchos de color: cuando se agota uno de los colores antes que los demás (algo habitual) nos vemos obligados a cambiar todo el cartucho, con el desperdicio que esto supone. Hay, sin embargo, impresoras que tienen un cartucho independiente para cada color, con lo que esta opción debe tenerse en cuenta a la hora de la compra por el ahorro que supone.

  • Necesidad de papeles especiales, sobre todo para la impresión en color o a altas resoluciones, cuyo costo es bastante elevado.

  • Escasa capacidad de la bandeja de papel (entre 50 y 100 hojas) lo que supone que en una oficina necesita una atención constante, que se añade a la necesidad de cambiar cartuchos con demasiada frecuencia si la cantidad de hojas impresas es muy alta.

En cuanto a las impresoras láser, éstas presentan un mantenimiento mucho más económico, dando lugar a un mucho menor costo por página, tanto en blanco y negro como en color, no sólo por el precio de los consumibles, sino también por el hecho de poder imprimir sobre prácticamente cualquier tipo de papel con una muy alta calidad.

Sin embargo, a la hora de la compra, debemos tener en cuanta que además de cambiar el toner (tinta) cada cierto número de hojas impresas (normalmente en torno a 3.000 hojas), también es necesario cambiar el tambor sobre el que se crea el "negativo" de la página impresa mediante la carga electrostática. El problema es que algunas impresoras láser el tambor está dentro del cartucho, con lo que el consumible sube de precio considerablemente. Por otro lado, sin embargo, existen en el mercado impresoras (como las de KYOCERA) que usan un tambor de silicona que dura toda la vida de la impresora.

A la hora de comprar una impresora láser, por tanto, debemos leer atentamente las especificaciones de duración de los diferentes elementos. Estas cifras suelen oscilar entre los siguientes valores (en número de páginas): entre 2.000 y 10.000 páginas para el toner, entre 3.000 y 600.000 para el tambor, y entre 50.000 y 900.000 para el motor. En cuanto a las impresoras láser en color, el costo de mantenimiento es bastante alto, incluso superior a las de inyección de tinta, debido a que debemos cambiar periódicamente, dependiendo de cada fabricante, muchos más consumibles y componentes que en una impresora láser monocromo. Sólo la alta calidad, la rapidez y la posibilidad de impresión sobre cualquier tipo de papel compensan este gasto.

RECOMENDACIONES

Las IMPRESORAS MATRICIALES hoy en día solamente son interesantes en entornos ofimáticos, por su capacidad de impresión multicopia en papel autocalcante continuo. Preferiblemente escoger una de carro ancho y 24 agujas. Opciones inferiores pueden verse limitadas en poco tiempo.

Las IMPRESORAS DE INYECCIÓN DE TINTA son las ideales para el mercado doméstico y las pequeñas oficinas donde la impresión en color a bajo costo de compra, aunque no tanto de mantenimiento) es el factor decisivo. Evitar las impresoras de un solo cartucho intercambiable, y en caso de necesitar una impresión con calidad fotográfica, tener en cuenta las impresoras de más de cuatro colores. De todos modos, hoy en día, con el aumento del número de inyectores de cada cartucho y el software inteligente, la calidad de las impresoras de cuatro colores no difiere mucho de otros modelos más caros y con más colores. Recordar que el uso de cartuchos separados para cada color abarata considerablemente el costo de mantenimiento si se van a imprimir cantidades importantes de documentos o fotografías en color. Y antes de comprar, comprobar el precio de los consumibles.

Las IMPRESORAS LASER son las ideales para las grandes empresas con altos volúmenes de impresión, donde además de la calidad (hoy en día las de inyección han avanzado mucho en este aspecto), la velocidad es un factor importante. La IMPRESORA LÁSER EN COLOR es un requisito, no un capricho, para empresas de publicidad, aunque no hay que olvidar otras tecnologías.

Bottom of Form 1

EL CD-ROM

Top of Form 2

Bottom of Form 2

El lector de CD-ROM junto con una TARJETA DE SONIDO, unos ALTAVOCES y un MICROFONO componen un equipo multimedia, pero la utilidad del lector de CD-ROM no queda reducida a la reproducción de ficheros musicales, Compact Disc o enciclopedias multimedia.

En la superficie de un disco compacto se pueden almacenar hasta 640Mb de datos o 74 minutos de audio-video, o combinar ambos tipos de datos. Hoy en día es habitual que la mayoría de los programas informáticos se distribuyan (a veces únicamente) en formato CD-ROM, debido a las posibilidades de ofrece en cuanto a capacidad de almacenamiento (cada vez los programas son de mayor tamaño, las imágenes en alta resolución ocupan gran cantidad de espacio, etc.) y comodidad de instalación (no es necesario insertar uno a uno innumerables disketes).

La mayoría de los equipos multimedia que podemos encontrar en el mercado suelen especificar un CD-ROM de alta velocidad (32X normalmente), pero normalmente no solemos preocuparnos de otros aspectos más importantes que la velocidad (teórica en la mayoría de los casos, como veremos).

¿Cómo funciona?

El CD-ROM es un dispositivo capaz de leer datos digitales almacenados en un disco compacto.

Al igual que en los lectores de discos compactos musicales, el lector de CD-ROM utiliza una lente que emite un haz de luz láser de baja frecuencia para leer los datos almacenados. Si la luz rebota en la superficie del disco compacto, el ordenador lo registra como un "1", y si la luz no es reflejada, el ordenador lo registra como un "0", y, como ya sabemos, la combinación de 1s y 0s es la manera en que nuestro ordenador almacena e identifica los datos.

La lente se mueve del centro al borde del disco compacto mientras este gira, por la acción del motor interno del lector, de modo que se pueden leer datos en toda la superficie del disco compacto.

¿Qué aspectos hay que tener en cuenta de un CD-ROM?

VELOCIDAD

La velocidad de un CD-ROM expresa realmente la tasa de transferencia de datos (DTR) y se suele expresar con un numero seguido del signo "X", es decir, 2X, 4X, 16X, 24X, etc.

El signo "X" se utiliza para expresar que el CD-ROM alcanza una velocidad de transferencia de 2,4,16,24,etc. veces la velocidad del primer lector de CD-ROM, o si queremos, la velocidad de un lector de discos compactos de audio, a saber, 150Kb/s. Por tanto, la tasa de transferencia de datos de un CD-ROM 24X es de 3.600Kb/s.

Sin embargo, los fabricantes más serios suelen añadir a esta cifra la palabra "MAX". Esto quiere decir que la tasa de transferencia máxima que puede alcanzar el lector es, en el caso de un 24X, de 3.600KB/s pudiendo reducirse esta en la mayoría de los casos a poco más de la mitad. ¿A qué se debe esto?

En los lectores de CD-ROM con velocidades de más de 12X, el motor del CD-ROM no gira a una velocidad constante, lo que da lugar a que la tasa de transferencia de los datos que están en la zona exterior del disco compacto es mayor que la de los datos de la zona interior.

La velocidad o tasa de transferencia de datos se vuelve sumamente importante cuando se transfieren datos contiguos, como el caso de vídeo digital o cuando hacemos la instalación de un programa, pero cuando utilizamos bases de datos o enciclopedias, este dato puede ser menos importante que algunos otros que mencionaremos a continuación.

Por tanto, la velocidad no es el dato que debe condicionar exclusivamente la elección de un lector de CD-ROM, pues un lector 16X o 20X puede tener mejores prestaciones globales que un 24X o un novísimo 34X. Para una buena elección, debemos prestar atención a los apartados siguientes.

Incluso podremos encontrar en el mercado un lector anunciado como 100X, pero tal tasa de transferencia se obtiene por medio de una combinación de caché hardware y caché software (utilizando el disco duro como cache), con lo que puede que no compense el costo de tal dispositivo.

TIEMPO DE ACCESO

Expresa la suma del tiempo medio necesario para mover la cabeza lectora láser a la posición que ocupan los datos que estamos buscando y el tiempo necesario para ajustar la velocidad de rotación para que los datos puedan ser leídos. Se expresa en milisegundos.

Es uno de los datos que más condiciona la velocidad real de funcionamiento de los lectores de CD-ROM, y aunque no afecta directamente a la reproducción de vídeo digital (como sí lo hace la velocidad) o la instalación de programas desde un disco compacto, de este dato depende en gran medida la velocidad de búsqueda de datos en una enciclopedia o en una base de datos, donde la cabeza láser ha de desplazarse continuamente a diferentes puntos del disco compacto.

BUFFER y CACHE

Los datos se almacenan en la superficie del disco compacto en forma espiral, y una vez que la cabeza lectora laser localiza los datos buscados, la caché o buffer almacena los siguientes bloques de datos contiguos que son susceptibles de ser requeridos, reduciendo así el tiempo de búsqueda de los datos.

Obviamente, la existencia de un buffer y el tamaño de éste afecta de manera importante al rendimiento del lector de CD-ROM, y a mayor tamaño, mejores serán las prestaciones globales del lector.

Hoy en día, la mayoría de los lectores incluyen 128Kb, aunque cada día son más los que elevan esta cantidad a 256Kb, e incluso algunos hasta 512Kb. Cuanto mayor sea el tamaño, mejor.

INTERFAZ (IDE o SCSI)

Expresa el método de conexión del lector a nuestro equipo, y puede ser de dos tipos: IDE (llamado también EIDE o ATAPI) o SCSI.

La mayoría de los lectores son de tipo IDE, es decir, se conectan a la controladora IDE PCI de la placa base, al igual que si se tratase de un disco duro más, con el consiguiente ahorro. Los lectores SCSI necesitan de una controladora SCSI que debemos adquirir por separado (aunque podemos tener una en nuestro equipo, pero debemos recordar que las controladoras SCSI para escáner son específicas para este dispositivo, con lo que no podremos utilizarlas para otros, en este caso el CD-ROM).

Hoy en día no se encuentran fácilmente en el mercado, pero en los primeros tiempos de los CD-ROM 1X, 2X e incluso 4X, eran habituales los lectores de CD-ROM con conectores propietarios (SONY, PANASONIC, PIONEER, etc.), que necesitaban una controladora especial que se incluía con el lector, o que podían ser conectados a la tarjeta de sonido (Sound Blaster). Esta solución era la más incómoda, por necesitar un slot libre y por ofrecer unas tasas de transferencia menores debido a que tanto las tarjetas propietarias como las tarjetas de sonido eran de tipo ISA.

La ventaja del CD-ROM IDE es su bajo costo (es el que más se fabrica y se vende) y la no necesidad de un slot o tarjeta controladora adicional. Sin embargo, al conectar en el mismo canal el lector de CD-ROM y el disco duro, el rendimiento de ambos se ve penalizado, pues mientras la controladora accede al CD-ROM (ciertamente lento comparado con un disco duro) no puede acceder al disco duro y viceversa, por lo que recomendamos no conectar el/los disco/s duro/s al mismo canal IDE que el lector de CD-ROM. Además la versión OSR 2.0 de WINDOWS 95 necesitaba un parche especial para poder acceder a ambos dispositivos en un mismo canal IDE con ciertos modelos de CD-ROM.

Los lectores SCSI, al igual que todos los dispositivos conectados a una controladora SCSI, pueden ser accedidos de modo simultáneo con el disco duro o cualquier otro dispositivo. Esto, juntamente con diversas mejoras en cuanto a tiempo de acceso e incluso tamaño del buffer, hacen que los lectores SCSI sean más caros, aunque en el caso de tener una controladora SCSI en nuestro equipo, o si se va a utilizar el lector para la reproducción de archivos multimedia de gran tamaño o para almacenar y acceder a grandes bases de datos, la opción SCSI es sumamente recomendable.

COMPATIBILIDAD

El mercado de los lectores de CD-ROM está en constante evolución, lo que hace que constantemente salgan al mercado nuevas tecnologías, como es el caso de los discos compactos regrabables. Es importante que si vamos a comprar un lector de CD-ROM, éste sea compatible con todos los formatos actuales.

Prácticamente todos los lectores de CD-ROM actuales son compatibles con los siguientes formatos:

  • CD-ROM o CD datos (típico de los CD-ROM para PC)

  • CD Audio (el de los compact disc musicales)

  • CD-I (disco compacto interactivo)

  • Photo-CD (fotografías almacenadas en formato digital)

  • CD-R (discos compactos grabados por el usuario - dorados)

  • Multisession (discos compactos grabados en bloques y no todos de una vez)

  • CD-RW (disco compacto borrable y regrabable)

CLV / CAV

CLV es la abreviatura de Constant Linear Velocity (velocidad lineal constante), y es la tecnología utilizada por los lectores de CD-ROM hasta 12X, por la cual el motor del lector gira más rápido al leer la zona interna del disco que cuando lee la zona exterior, dando lugar a una tasa constante de lectura en todo el disco compacto.

CAV es la abreviatura de Constant Angular Velocity (velocidad angular constante), que es la tecnología utilizada en los lectores 16X y superiores, por la cual el lector lee datos con mayor rapidez en la zona exterior del disco que en la zona interior.

Algunos fabricantes como PIONEER utilizan simultáneamente ambas tecnologías en algunos de sus lectores, cambiando de modo CAL a CAV según la zona del disco compacto en que estén leyendo, de ahí las mejores prestaciones, especialmente en los modelos 10X y 12X que la competencia. Esta tecnología doble también fue muy utilizada en los lectores 16X.

METODO DE INSERCION

El método más utilizado es la BANDEJA MOTORIZADA, utilizada habitualmente en los lectores de discos compactos musicales, donde pulsando un botón (o incluso mediante software) hacemos salir una bandeja sobre la que depositamos el disco compacto.

En los lectores SCSI y en las grabadoras de CD era relativamente habitual el uso de CADDY, que es una especie de funda dentro de la cual se inserta el disco compacto. Este método redunda en la duración del disco y su limpieza, al no haber contacto con las manos, pero encarece el lector y los discos al ser necesario un CADDY para cada disco compacto.

Recientemente se ha adoptado la tecnología SLOT-IN, utilizada en los lectores de discos compactos musicales para automóvil, donde el lector absorbe el disco al acercarlo a su entrada. Este método evita que se pueda dañar o torcer la bandeja por un golpe, y evita también en parte la vibración típica causada por los modernos y muy rápidos lectores de CD-ROM.

La elección está servida.

CONTROLES E INDICADORES

La mayoría de los lectores de CD-ROM incluyen una luz indicadora en el frontal que nos indica que el lector está buscando o transfiriendo datos de la superficie del disco compacto, y en las grabadoras de CD-ROM a veces encontramos una segunda luz de un color diferente para diferenciar si se está realizando una operación de lectura/transferencia o de escritura (en algunos casos el indicador es único y lo que cambia es el color de la luz).

En cuanto a controles, todos los lectores incluyen un botón de expulsión/inserción de la bandeja, juntamente con una rueda (en algún muy futuristas un botón doble) de control de volumen de salida de auriculares y una entrada MINI-DIN para auriculares, si no queremos utilizar (o no tenemos) la tarjeta de sonido para escuchar la música procedente de un disco compacto de música. A esta entrada también podemos conectar unos pequeños altavoces como los que se utilizan con los lectores de discos compactos musicales portátiles.

Es interesante que el lector tenga más controles en su frontal: PLAY, AVANCE/RETROCESO de pista, STOP, etc. De este modo podemos escuchar música mientras trabajamos sin tener que utilizar cualquiera de los múltiples programas para WINDOWS (entre ellos el "Reproductor de CD" de WINDOWS 95) o para DOS que realizan estas tareas por software.

EL ESCANER

Top of Form 2

Bottom of Form 2

El escáner es un periférico que nos permite digitalizar imágenes o texto y almacenarlas en el disco duro de nuestro ordenador para su posterior tratamiento o modificación mediante una serie de aplicaciones específicas.

El escáner ha sido desde hace algún tiempo una herramienta esencial para tiendas de fotografía y vídeo, para empresas de publicidad y en general para tareas de documentación, sin olvidar a profesionales liberales como artistas, ingenieros, arquitectos o abogados.

¿Quién no ha soñado alguna vez con no tener que escribir en el teclado del ordenador?

Gracias a empresas como IBM y DRAGON SYSTEMS, con sus programas VoiceType y Dragon Dictation ya podemos hablar por un micrófono al tiempo que el ordenador escribe lo que decimos, con las lógicas limitaciones de velocidad y dicción.

Pero aún más, gracias al escáner y a los programas OCR (Optical Character Recognition - Reconocimiento óptico de caracteres), normalmente incluidos con el propio escáner, podemos no sólo copiar, sino también editar y posteriormente modificar con nuestro procesador de texto preferido un texto digitalizado de un libro, enciclopedia, manual, folleto, fax, periódico, etc.

Para aquellas personas aficionadas a la fotografía, un escáner, unido a un módulo opcional de digitalización de diapositivas, permite adentrarse en el mundo de la fotografía y el retoque profesional.

Por último, con la progresiva introducción de Internet en los hogares, el escáner se ha convertido en una herramienta imprescindible para el creador de páginas WEB.

¿Cómo funciona?

Los escáneres tienen una barra de luz que ilumina la superficie a escanear o digitalizar (ambos términos se utilizarán indistintamente a partir de ahora). Esta barra de luz contiene un número determinado de CCDs (Charge-Coupled Devices - dispositivos de acoplamiento de carga, o en palabras más sencillas, circuitos integrados sensibles a la luz) que detectan la cantidad de luz emitida por la barra que es reflejada por la superficie u objeto digitalizado y la convierte a formato analógico.

El ADC (Analog-to-Digital-Converter - Conversor Analógico-Digital) transforma dicha señal analógica en valores digitales utilizando 8, 10 o 12 bits por color (24, 30 o 36 bits en total) para codificar los tonos de color de la superficie digitalizada y enviar el resultado a la memoria RAM del equipo, para que posteriormente guardemos la imagen, modificándola previamente o no, o para que hagamos pasar el texto digitalizado por un programa OCR para que analice los caracteres y los convierta en texto editable.

¿Qué aspectos hay que tener en cuenta a la hora de comprar un ESCANER?

DE MANO O DE SOBREMESA

Con la continua bajada de precio de los escáneres de sobremesa, la compra de un escáner de mano puede parecer descabellada, sobre todo debido a sus múltiples desventajas:

  • Incomodidad de exploración.

  • Necesidad de un pulso firme para digitalizar en línea recta.

  • Necesidad de ajustar la velocidad de desplazamiento de la mano a la resolución empleada: a mayor resolución, mayor lentitud.

  • Anchura limitada del área de digitalización, necesitando posteriormente empalmar las zonas digitalizadas, lo cual en el mejor de los casos es una tarea bastante lenta y laboriosa.

  • Mayor sensibilidad a golpes y caídas.

Sin embargo este tipo de escáner ofrece innumerables ventajas a personas que sólo van a hacer digitalizaciones ocasionales de fotografías o usuarios de ordenadores portátiles. Además existen en el mercado distintas opciones de periféricos a medio camino entre los de mano y los de sobremesa que son muy dignos de consideración:

  • Escáneres motorizados que evitan los movimientos bruscos y el cambio de dirección durante la digitalización.

  • Escáneres portátiles para fotografías.

  • Escáneres de rodillo que permiten hasta tamaño folio o A4 con la posibilidad de digitalizar objetos no móviles (posters, cuadros, paredes, etc.)

  • Escáneres de rodillo con módulo de alimentación de hojas para digitalizado de documentos.

  • Escáneres de objetos sólidos.

La opción más cómoda y efectiva hoy en día es el escáner de sobremesa, que garantiza una digitalización sin errores, con cierta velocidad y que admite tamaños de original que en algunos casos supera el tamaño folio o A4 (comprobar en el manual o la página WEB del fabricante el máximo tamaño permitido).

Además, los escáneres de mano y los "híbridos" se conectan al puerto paralelo o a través de una tarjeta propietaria ISA, pues no están diseñados para una digitalización masiva, lo que puede plantear problemas no sólo de velocidad, sino también de compatibilidad con nuestro equipo, como vermos más adelante.

RESOLUCION

Es la capacidad de escáner para determinar el detalle en un objeto o superficie digitalizada, y se mide en puntos por pulgada (ppp), "dots per inch" (dpi) en inglés.

La norma es: cuanto mayor sea el número, mayor será la calidad de la digitalización.

Sin embargo hay que distinguir entre RESOLUCION OPTICA y RESOLUCION INTERPOLADA.

La RESOLUCIÓN OPTICA viene determinada por el número de CCDs por pulgada, aunque últimamente en los escáneres de sobremesa la resolución suele expresarse con dos datos: resolución vertical x resolución horizontal, por ejemplo 600x300ppp.

La resolución horizontal (300ppp) se refiere al número de CCDs por pulgada, y la resolución vertical (600ppp) se refiere al número de lecturas o avances que hace la lente en una pulgada. A la resolución vertical se la llama también "resolución mecánica". Es decir, en una pulgada (2,5cm) de digitalización se obtienen un máximo de 300 puntos horizontales y 600 puntos verticales de información.

De todos modos se puede digitalizar a una resolución menor, con lo que el escáner omite la información de ciertos CCDs o ciertos avances, o se puede digitalizar a una resolución mayor, aplicando lo que se llama resolución interpolada.

La RESOLUCION INTERPOLADA se produce al digitalizar a una resolución mayor que la que puede ofrecer el número de CCDs de la lente. Algunos escáneres mencionan, a veces en letras grandes, la resolución máxima alcanzable por medio de un logaritmo que calcula los valores de los puntos que no han podido leerse debido a las limitaciones de la lente. La resolución interpolada puede alcanzar valores de hasta 4800ppp con resoluciones ópticas de 300ppp, aumentando proporcionalmente al valor de la resolución óptica.

Una alta resolución interpolada es muy útil cuando queremos hacer ampliaciones de detalles de una fotografía o dispositiva escaneada, y así evitar el efecto de posterización de la imagen (al ampliar se verían los puntos de colores). Sin embargo, en estos casos es preferible digitalizar a la máxima resolución óptica y aplicar posteriormente el interpolado por medio de un programa como Photoshop, que suelen permitirnos fácilmente hacer pruebas con distintas resoluciones, además de otros retoques que ayudan a mejorar el efecto final, acortando así el tiempo de digitalización y el tamaño de la imagen durante el proceso de digitalización.

Por tanto la resolución óptica, así como la calidad de la lente, un dato que no podemos conocer si no probamos previamente varios escáneres y comparamos los resultados, es lo que determina la calidad de la imagen digitalizada.

NUMERO DE BITS

El número de bits nos indica las diferentes graduaciones de color o escala de grises que la lente del escáner es capaz de distinguir.

Cuando el ADC recibe la señal analógica de la lente y la transforma en valores digitales, el escáner utiliza 8, 10 0 12 bits por color, con un total de 24, 30 0 36 bits. Con 24 bits se obtienen 16'7 millones de colores, la máxima capacidad de la mayoría de las tarjetas gráficas, y en casi todos los casos los escáneres envían la información al equipo en 24 bits, aunque se digitalice en 30 o 36 bits.

¿Para qué sirve entonces? Al digitalizar fotografías a 30 o 36 bits podremos aumentar el detalle en las zonas oscuras de la digitalización manteniendo el nivel de detalle.

Si vamos a digitalizar fotografías ocasionalmente o para trabajos no fotográficos especializados 24 bits es más que suficiente. 30 bits es recomendable para un trabajo intensivo con fotografía y 36 bits sólo es necesario para digitalizar diapositivas.

Por tanto, a mayor número de bits, mejor, aunque dependiendo del uso que vayamos a dar al escáner, pues sólo los escáneres de gama media y alta ofrecen 30 bits, y muy pocos 36 bits.

UNA PASADA (Single Pass) O VARIAS PASADAS

Cuando el escáner digitaliza una imagen, debe distinguir los valores de rojo, verde y azul. Los primeros escáneres hacían una pasada para cada color, aplicando filtros para cada una de las pasadas. Los escáneres actuales en su mayoría son de una sola pasada, con una banda de luz tricolor o de color blanco con tres filtros en los CCDs.

Los escáneres de una sola pasada son más rápidos y consiguen una iluminación más uniforme que da lugar a colores más reales y parecidos al original, pero la tecnología es también más cara y la presencia de una lente de calidad se hace sumamente importante.

Sin duda, por cuestiones de tiempo, y debido a la reciente baja de precio de estos dispositivos, debemos comprar un escáner de una sola pasada.

CONEXION

Nos especifica el modo o canal que utiliza el escáner para transmitir los datos a nuestro equipo.

Los primeros escáner solían incluir una tarjeta IDE propietaria, pero hoy en día los escáneres presentan dos tipos de conexión: SCSI o puerto paralelo. Incluso algunos fabricantes ofrecen modelos de características comunes cuya única diferencia es el modo de conexión o transferencia de datos al equipo.

La conexión SCSI suele encarecer el precio del escáner, debido a la necesidad de una tarjeta controladora SCSI ISA (rara vez PCI) que suele venir incluida con el dispositivo (de ahí el incremento de precio). Sin embargo, es relativamente habitual que la tarjeta SCSI sea de tipo propietario, de modo que no podremos utilizarla con otros dispositivos SCSI (CD-ROM, disco duro, unidades de copia de seguridad, etc.), y al ser del tipo ISA su velocidad de transferencia es sustancialmente menor que la de una tarjeta SCSI PCI.

Si tenemos instalada en nuestro equipo una tarjeta controladora SCSI, podremos conectar a ella el escáner, desechando la tarjeta incluida, con el consiguiente ahorro de ranuras de expansión y la ganancia en capacidad de ampliación y velocidad. De todos modos, debemos ver el manual del escáner o visitar la WEB del fabricante para comprobar la compatibilidad de nuestra controladora SCSI actual.

La mayoría de los escáneres económicos se conectan al puerto paralelo, pero debemos recordar que éste debe ser de tipo EPP o de tipo ECP, por lo que podemos tener problemas con este tipo de escáneres si nuestro ordenador es relativamente antiguo (386, 486 o primeros Pentium), y por ello debemos comprobar en la BIOS del equipo la posibilidad de configurar el puerto paralelo como tipo EPP, tipo ECP, tipo SPP/EPP o tipo EPP/ECP.

Hay que recordar que la velocidad de transmisión de datos del escáner al equipo a través del puerto paralelo es mucho menor que a través de una controladora SCSI, aunque sea de tipo ISA, por lo que si nuestro trabajo con el escáner va a ser intensivo, debemos escoger un escáner de conexión SCSI.

En cuanto a la impresora, no es necesario comprar una tarjeta de puertos, pues los escáneres de puerto paralelo incluyen un adaptador (o "ladrón") para el puerto del equipo, o, esto último más habitual, permiten conectar la impresora a la parte posterior del escáner.

EL DRIVER TWAIN

TWAIN (Technology Without An Interesting Name - tecnología sin un nombre interesante) es un protocolo creado por una serie de fabricantes de hardware y software para que cualquier aplicación pueda adquirir imágenes a partir de un escáner desde dentro del propio programa, de modo que podamos utilizar las aplicaciones instaladas en nuestro equipo, u otras utilidades SHAREWARE o las suministradas con el propio escáner para digitalizar imágenes, modificarlas y guardarlas en el formato deseado.

Todo escáner incluye un diskette o CD-Rom con el driver TWAINB específico para cada marca, e incluso para cada modelo, pero que cumple las especificaciones necesarias parta que sea reconocido por cualquier aplicación compatible TWAIN. Hoy en día es impensable un driver propietario, como ocurría hace algunos años.

Sin embargo, como el driver está diseñado para cada marca y modelo, éste incluye más o menos opciones de exploración que nos permiten ajustar el proceso de digitalización. Cuantas más opciones tenga, mejor, pues en caso de duda siempre podremos dejar los valores por defecto, pero es recomendable que se puedan modificar los siguientes parámetros, o al menos los cuatro primeros:

  • Resolución (ppp / dpi), preferiblemente en saltos de 10 o 20ppp.

  • Tipo de imagen: color, escala de grises, blanco y negro, line art.

  • Brillo y contraste.

  • Digitalización previa: nos permite seleccionar el área a digitalizar y es especialmente importante si queremos digitalizar un área pequeña a muy alta resolución para así ahorrar tiempo.

  • Distintos niveles de ZOOM después de la digitalización previa para definir con exactitud el área a digitalizar.

  • Control de gama de color.

  • Filtros: difuminado, aclarado, resalte de bordes, etc.

  • Rotar, invertir o cortar la imagen.

Algunos escáneres de reconocidas marcas ofrecen una alta resolución óptica y una lente de buena calidad, pero se ven muy limitados por el driver TWAIN, al ajustar éste automáticamente la resolución de la digitalización a la resolución de la impresora y al digitalizar siempre en modo color, con la consiguiente pérdida de tiempo durante la digitalización y posteriormente a tener que transformar la imagen a grises o blanco y negro mediante software.

SOFTWARE INCLUIDO

Prácticamente todos los escáneres, incluso los de mano, incluyen algunas aplicaciones comerciales, normalmente en versiones "light" o reducidas, para que podamos trabajar con el escáner, y éstas suelen ser:

  • Software de tratamiento de imágenes, para retocar y modificar las imágenes digitalizadas y posteriormente guardarlas en el formato escogido.

  • Software OCR (Optical Character Recognition - Reconocimiento óptico de caracteres) para el reconocimiento de los caracteres de texto del objeto digitalizado para que posteriormente podamos editarlo y modificarlo en nuestro procesador de texto.

  • Otras utilidades: digitalización con salida directa por impresora (efecto fotocopiadora), gestión de imágenes, etc.

Aunque las versiones de los programas incluidos suelen ser versiones "light" o reducidas o versiones antiguas, no debemos olvidar que algunas de ellas son especialmente caras (como el software OCR) y son plenamente operativas (y suficientes para la mayoría de las necesidades). Además, suelen ofrecer la actualización a versiones completas o versiones posteriores a un precio muy ventajoso.

En cuanto a los programas de tratamiento de imágenes incluidos con el escáner, no debemos darle demasiada importancia, pues existen programas SHAREWARE de muy alta calidad que satisfarán las necesidades de los usuarios medios e incluso semi-profesionales a unos precios muy contenidos, como es el caso de PAINT SHOP PRO.

OTROS ASPECTOS

Otros factores muy importantes a tener en cuenta a la hora de comprar un escáner son:

  • CALIDAD DE LA LENTE: detalle muy importante, pero desconocido para el usuario final, a menos que compre un escáner de una marca de reconocido prestigio (y de alto precio), o que consulte diversas revistas especializadas. La salida más fácil es probar con varios modelos y comprobar los resultados, aunque así no podremos juzgar la fiabilidad.

  • FUENTE DE ALIMENTACION: si es externa, tendremos un estorbo más encima de la mesa de trabajo.

  • CALIDAD DE LA CAJA: el tacto manda. Un escáner robusto externamente suele serlo internamente.

  • APAGADO AUTOMATICO DE LA LENTE pasado un cierto intervalo de tiempo: esto alargará enormemente la vida útil de la lente, con mucho el componente más caro del escáner.

  • ACCESORIOS OPCIONALES: alimentador de hojas, módulo para digitalizar transparencias, módulo para diapositivas, etc. Ahora puede que no los necesitemos, o no los podamos pagar, pero más adelante...

  • VELOCIDAD DE DIGITALIZACION: la citada por el fabricante suele ser bastante optimista. Deberíamos leer revistas especializadas o comparar varios modelos nosotros mismos.

DVD(Disco de Video Digital)

DVD es la nueva generación de tecnología en almacenamiento óptico. Un DVD, respecto a un CD normal, es esencialmente mayor, más rápido y soporta vídeo, audio o datos, amenazando con convertirse en un estándar en entretenimiento doméstico e informática.

Los nuevos discos DVD proporcionan gran capacidad de almacenamiento manteniendo el tamaño ajustado de un CD convencional. Este aumento en la capacidad del disco permite almacenar 133 minutos de vídeo de alta resolución por capa, con varias bandas sonoras, subtítulos y múltiples funciones añadidas.

Si nos centramos en el propio formato, veremos que el DVD es un soporte digital que multiplica la capacidad de un CD por 4 u 8, pero que nació ante la necesidad de definir un nuevo estándar digital para vídeo. De hecho su primer nombre fue Digital Video Disc. Pero más allá del vídeo sus aplicaciones se extienden al mundo de la informática (DVD-ROM) y de la música (DVD-Audio).

¿Por qué un DVD tiene una capacidad hasta 20 veces mayor que un CD convencional, cuando aparentemente son iguales?

La respuesta es simple: más información en menos espacio. Si sólo prestamos atención a su aspecto exterior, es prácticamente imposible distinguir entre un DVD y un CD, ya que ambos tienen el mismo diámetro de 12 cm. y un espesor de 1.2 mm. Al igual que el CD, el DVD es fácil de transportar, seguro de utilizar y ocupa el tamaño justo para disfrutar de su uso en el hogar.

Sin embargo, en su interior, el DVD es totalmente diferente al CD. Sus micro cavidades son aproximadamente la mitad que las de un CD (0.4 µm frente a 0.83 µm) y el espacio entre pistas se ha reducido también a la mitad (0.74 µm frente a 1.6 µm).

Un ejemplo sencillo sería el de una hoja en blanco, en la que imprimimos en un tamaño de letra de 12. Más tarde nos damos cuenta de que aprovechamos muy poco el espacio ya que podríamos utilizar un tamaño de 10, con lo que cabría más texto en menos folios. Aunque también deberíamos 'forzar' más la vista al leer.

La información en un CD convencional, se almacena en hendiduras o 'pits' que representan un estado binario (cero o uno), y que el láser interpreta según la información se refleje o no.

Hoy en día, todas esos 'pits' pueden ser reducidos de tamaño y concentrados en espacios mucho menores del disco. Pero como antes decíamos en el ejemplo, mayor será el esfuerzo que deberá realizar el láser para 'entender' unas hendiduras tan reducidas. Así pues, el láser de un reproductor DVD comprende longitudes de onda muy pequeñas, e incluso cambio de superficie o capas.

¿Qué son las capas?

Un disco DVD puede disponer de varias capas, es decir, varios discos en uno. Esto se consigue adaptando el láser a cada una de las capas según convenga.

Podemos decir que cuando el láser necesita leer la siguiente capa, 'atraviesa' la primera y sigue leyendo la inferior. Y esto no es solo por el mero hecho de disponer de más capacidad, sino que está justificado por la duración de algunos largometrajes en DVD video. De esta forma podemos sobrepasar la barrera de los 133 minutos por capa (o 4,7 Gb) y llegar hasta las 8 horas de vídeo o 17 Gb de datos.

En un reproductor de CD, el haz láser debe explorar los datos tras atravesar una capa de plástico relativamente gruesa. En el DVD, es necesario dirigir y controlar el haz de lectura en unas micro cavidades de menor tamaño, por ello un disco DVD utiliza un sustrato de plástico de menor espesor. Por sí mismo, un disco tan delgado se curvaría o no resistiría el manejo; por ello, en los discos DVD se añade un segundo sustrato de 0.6 µm.

Sí es cierto que puede notarse el cambio de capa en algunos reproductores, sobretodo de DVD ROM, ya que el láser necesita un momento para adaptar la distancia de lectura.

Códigos regionales, Zonas o Áreas

Los estudios de producción cinematográfica americanos querían seguir controlando las fechas de lanzamiento en todo el mundo, ya que las películas de vídeo se estrenan a destiempo en todo el mundo, generalmente en América y Canadá primero, Australia y Japón 6 meses más tarde, y otros 6 meses más tarde en Europa. Los códigos de área evitan que las películas puedan ser importadas y vistas antes de su lanzamiento en Europa u otras zonas.

Todas las ventajas de un disco óptico

Al igual que un disco compacto, el DVD permite el acceso aleatorio a cualquier punto del disco. La lectura de los datos se realiza de forma óptica mediante un haz láser, de manera que no se produce desgaste en el disco de ningún tipo aunque se repita una y otra vez la misma escena. Esto significa que podrá reproducir toda su colección de DVD's miles de veces y siempre disfrutará de la misma calidad de imagen y sonido.

Amplia gama de aplicaciones

Gracias a su enorme capacidad, el DVD puede ocupar el lugar de la cintas de vídeo en la distribución de películas para ver en casa. Pero esta misma capacidad se puede aprovechar para incrementar la fidelidad del sonido, para crear video juegos de realidad virtual o para almacenar cantidades ingentes de programas multimedia de ordenador. Dependiendo de la aplicación, existen diferentes soportes DVD:

  • DVD Vídeo

Para reproducción de vídeo con resolución horizontal de hasta 500 líneas (más del doble que en el sistema de vídeo VHS) y sonido digital multienvolvente de alta fidelidad.

  • DVD Audio

Permite almacenar sonido de muy alta calidad. Mientras que los CD´s utilizan una frecuencia de muestreo de 44.1 KHz y cuantificación de 16 bits, el DVD puede utilizar una frecuencia de muestreo de 96 KHz y 24 bits que permiten obtener un ancho de banda de 44 KHz (doble que el CD actual) lo que se traduce en un sonido con mayor claridad, profundidad, resolución y nitidez.

  • DVD ROM

Está llamado a ocupar el lugar del CD-ROM. Con una capacidad de hasta 14 CD-ROM's, un único DVD-ROM puede almacenar una biblioteca entera de libros de referencia, incluyendo gráficos, sonido e imagen.

Los formatos de datos en DVD ya han sido estandarizados, de manera que el potencial es inmenso. Las emisoras de TV por cable, satélite ó terrestre pueden utilizar el DVD para ofrecer una programación más eficiente e incluso televisión a la carta. Otra aplicación posible del DVD son las publicaciones electrónicas.

Resumen de características

  • Imagen digital de alta resolución (hasta 133 minutos por capa). Diferentes ángulos de visión seleccionables para conciertos o encuentros deportivos (máximo 9).

  • Sonido Dolby ProLogic o Dolby Digital / AC-3

  • Varias pistas de audio para doblaje (hasta 8) o karaoke (hasta 32)

  • Formato mucho más compacto que el LaserDisc y el VHS, fácil de llevar y guardar, ligero y de fabricación económica

  • Discos de durabilidad excepcional en condiciones normales (más de 100 años)

  • Discos resistentes a altas temperaturas y condiciones adversas

Capacidad para reproducir discos de CD Audio o Video CD antiguos.


Bottom of Form 1

LA GRABADORA y REGRABADORA DE CDs

Top of Form 2

Bottom of Form 2


Aunque con la aparición de DVD se creyó que el CD-ROM poco a poco desaparecería del mercado, los problemas causados por la guerra de estándares DVD dieron un nuevo impulso al CD-ROM y a las grabadoras de CD-ROM.

Para muchos profesionales del entorno multimedia, el CD-ROM ofrece frente a otras unidades de almacenamiento removible la ventaja de la gran expansión y la compatibilidad de estándares, pues las unidades grabadoras (CD-R) y regrabadoras (CD-RW) de CD-ROM pueden leer cualquier tipo de CD-ROM o Compact Disc, y los discos grabados con una unidad CD-R y CD-RW pueden ser leídos por la mayoría de los lectores de CD-ROM modernos, con lo que no es necesario mover nuestra unidad en caso de querer trasladar los datos a otro equipo.

Además, el precio actual de los discos CD-RW se acerca bastante al de muchos medios de almacenamiento removible, y el precio de los CD-R alcanza niveles un tanto ridículos (desde 150pts unidad) con lo que el precio del mega de almacenamiento está por los suelos. El único inconveniente: límite de almacenamiento 640Mb de datos o 74 minutos de audio-vídeo.

¿Cómo funciona?

Los Compact Disc de música y los CD-ROMs están hechos de discos impresos recubiertos de plástico. Los datos se almacenan en pequeñas marcas sobre la superficie del disco interno y para leerlos el lector de CD-ROM utiliza un láser cuya luz se refleja sobre la superficie, y según cómo se refleja, se interpretan los datos.

Sin embargo, el láser no puede cambiar la superficie del disco plateado, por lo que no se pueden escribir datos nuevos o borrar los existentes una vez que el disco ha sido creado.

Para que se pueda escribir y sobreescribir sobre la superficie del disco, es necesario hacer ciertos cambios, tanto en la luz del láser como en la superficie del disco, y dependiendo de los cambios que se hayan hecho, tendremos dos tipos de unidades: CD-R y CD-RW.

CD-R

Este dispositivo realiza un almacenamiento tipo WORM (Write Once Read Many - una escritura múltiples lecturas).

El disco que se utiliza en estas unidades está cubierto por una capa orgánica que sustituye al aluminio reflectante de los CD-ROM, la cual suele ser de cianina (de color azul cian) o talocianina (incolora), y que además está protegida por otra capa de aleación de plata u oro de 24 kilates que es la que actúa como reflectante. Son los materiales utilizados en la fabricación del disco los que definen su color.

Cuando se graba uno de estos discos, un láser de baja intensidad hace una serie de marcas o agujeros sobre la superficie orgánica, las cuales posteriormente no pueden ser borradas. Al calentarse por encima de una determinada temperatura por la acción del láser, la superficie orgánica se vuelve opaca por efecto de una reacción química al calor. Durante la lectura, un láser de menor potencia identifica las zonas de más y menos reflectividad de luz e interpreta los datos como 1s y 0s.

El láser graba los datos de dentro a fuera sobre una pista espiral que es creada durante el proceso de fabricación, la cual da 22.188 vueltas al disco y es de 0'6mm de ancho y tiene una separación de 1'6mm, lo que garantiza la compatibilidad con los CD-ROM.

Los discos pueden almacenar entre 550MB y 650MB de datos o entre 63 minutos y 74 minutos de audio o vídeo, permitiendo mezclar en un solo disco datos, vídeo, sonido, imágenes, gráficos, etc. Además, utilizando el software adecuado, las unidades más modernas permiten escribir la información en varias sesiones en distintas zonas del disco, con lo que no es necesario llenar toda la capacidad del disco en cada grabación. El único inconveniente es que para que otras unidades lectoras o grabadoras sean capaces de leer la información grabada después de la primera sesión, éstas deben ser compatibles "Multi-sesión".

Desde el punto de vista de unidades de almacenamiento removible, las unidades CD-R permiten el acceso aleatorio a la información, lo que hace muy fácil y rápida la búsqueda y copia de archivos, y los discos CD-R son mucho más duraderos que otros tipos de medios y son mucho más resistentes a las agresiones de medios externos (calor, magnetismo, golpes, ralladuras, etc.)

La desventaja de estas unidades es que lo que se escribe es permanente y solamente dejando la sesión de grabación abierta podremos añadir datos incrementalmente.

Para paliar estos defectos, PHILIPS y SONY lanzaron al mercado las unidades CD-RW.

CD-RW

Estas unidades, nacidas en 1997, permiten escribir sobre datos ya grabados anteriormente o borrar ficheros de modo individual, y mantienen la compatibilidad con las unidades de CD-ROM y CD-R, además del DVD.

Los discos que utilizan estas unidades tienen un color gris metálico y utilizan una tecnología de cambio de fase. La superficie del disco tiene la capa de grabación orgánica hecha de un compuesto cristalino de plata, indio, antimonio y telurio rodeada de dos capas dieléctricas que absorben el calor durante la fase de grabación. Al calentarse la capa orgánica a una determinada temperatura y luego enfriarse la capa se vuelve amorfa, pero si se calienta a menos temperatura al enfriarse se vuelve cristalina, retornando así a su estado original. Para realizar este proceso de grabación, borrado y regrabación, se utilizan tres potencias de láser:

  • El láser más potente es el de escritura, que al calentar la capa de grabación la vuelve amorfa.

  • El láser de intensidad media es el de borrado, que vuelve la capa a su estructura cristalina.

  • El láser menos potente es el de lectura, que no altera la capa de grabación, sino que de acuerdo con el estado de la capa y su reflectividad de luz interpreta los datos.

El problema de los discos CD-RW es que reflejan menos luz que los CD-ROM y los CD-R, por lo que sólo las unidades de CD que soportan "MultiRead" (multi-lectura) pueden leerlos (la mayoría de las unidades modernas soportan este estándar). Algo parecido ocurre con muchas unidades DVD, que para leer estos discos necesitan un láser de longitud de onda dual.

La ventaja de estas unidades es que, por un coste poco superior al de las unidades CD-R, permiten grabar tanto discos CD-RW como discos CD-R (muchísimo más baratos).

¿Cómo se organiza la información?

La información que se almacena en un CD, si queremos que sea compatible con los lectores antiguos o con el sistema operativo MS-DOS, debe cumplir las siguientes características:

  • Los nombres de archivos pueden utilizar letras, dígitos de 0 a 9 y el carácter "_".

  • Los nombres de directorio pueden tener hasta 8 caracteres.

  • Los subdirectorios no pueden llegar a más de 8 niveles de profundidad.

Los datos se almacenan en el disco desde el punto 2'5mm del radio hasta el punto 58mm (empezando desde el interior del disco) y esta zona se divide en dos áreas: área de sistema y área de información. El área de sistema es como el sector de arranque del disco duro y ocupa los primeros 4mm del disco y se divide en:

  • Area de calibración de potencia (PCA): cuando se inserta un CD el láser calibra la potencia a utilizar para grabar el disco.

  • Area de memoria de programa (PMA): se usa para grabar los números de las 99 pistas que admite como máximo el disco, junto con las direcciones de los sectores.

El área de información, a su vez, se divide en tres áreas:

  • LEAD-IN: incluye la tabla de contenidos.

  • PROGRAM AREA: hasta 76 minutos o 650Mb de datos en 99 pistas.

  • LEAD-OUT: define el final del CD, o de la sesión si se deja abierta ésta para añadir más datos posteriormente.

Si se escriben múltiples sesiones en un solo disco, se desperdiciarán 13MB por cada sesión.


¿Qué aspectos hay que tener en cuenta a la hora de comprar una grabadora o regrabadora de CDs?

VELOCIDAD

Hoy en día abundan las unidades capaces de grabar a 4x, incluso hay unidades capaces de regrabar a 4x (la mayoría lo hacen a 2x), pero cuanto mayor es la velocidad de escritura más fácil es que se quede sin datos el BUFFER de la unidad, y nos encontremos con el fatídico mensaje "BUFFER UNDERRUN", por lo que algunas unidades permiten reducir la velocidad de grabación hasta 2x e incluso 1x. Esto nos ofrece mayor seguridad a la hora de grabar los datos, aunque aumenta el tiempo necesario para realizar una copia.

En cuanto a la velocidad de lectura de datos, la mayoría de las grabadoras/regrabadoras no superan los 6x (las hay con 24x pero son escasas), que aunque es suficiente para el uso que se suele dar a la unidad de CD-ROM, está bastante lejos de los 36x que son habituales hoy en día o los 40x de las unidades más avanzadas.

Si nos planteamos la compra de una unidad grabadora/regrabadora, de todos modos es más interesante acompañarla de una unidad DVD que de una unidad lectora CD-ROM rápida, pues resultará mucho más versátil y cubriremos un amplio espectro de especificaciones que nos permitirán utilizar cualquier tipo de disco compacto de datos, música, vídeo, etc.

En cuanto a tiempos medios de acceso y velocidades de búsqueda, estos parámetros pasan a un segundo plano cuando hablamos de unidades grabadoras/regrabadoras, por lo que no debemos asustarnos de valores que suelen doblar al de las unidades no tan recientes.

BUFFER

Uno de los errores más habituales y causa de pérdida de muchas pesetas en discos es el "BUFFER UNDERRUN". Este error se produce cuando la unidad grabadora se queda sin datos para poder escribir en el disco CD-R o CD-RW, quedando el disco inutilizado.

Esto suele deberse a una baja tasa de transferencia del disco duro o a alguna aplicación que el ordenador está ejecutando en segundo plano y que necesita demasiados recursos del equipo, con lo que éste deja de atender a la tarea de transferir datos a la grabadora.

Para evitar este tipo de error existen dos soluciones: comprar un disco duro SCSI y una grabadora SCSI, acompañados a ser posible de una controladora SCSI PCI (lo cual resultará bastante caro) o comprar una unidad grabadora/regrabadora con suficiente buffer interno.

Cuando decimos "suficiente", estamos refiriéndonos a una cantidad mínima de 1MB (aunque parezca mentira las hay con tan solo 512KB), teniendo en cuenta que 2MB es bastante habitual hoy en día y empieza a haber grabadoras con 3MB de buffer a un precio bastante razonable.

IDE o SCSI

Por velocidad y por tasa de transferencia sostenida (lo que evita que se produzcan los famosos errores del "BUFFER UNDERRUN") la grabadora con interfaz SCSI es la mejor opción, especialmente si va acompañada de un disco duro SCSI.

Además, con una unidad lectora de CD-ROM SCSI y una grabadora/regrabadora SCSI podremos hacer una copia directa de CD a CD sin tener necesidad de hacer una imagen en el disco duro (algo bastante lento cuando el CD original tiene muchos ficheros), aunque esta técnica es siempre más arriesgada que el sistema estándar de copia creando una imagen en el disco duro.

Con las prestaciones de las controladoras actuales IDE PCI integradas en las placas base de última generación y las buenas prestaciones de los discos duros IDE modernos, escogiendo una unidad grabadora/regrabadora IDE/ATAPI nos ahorraremos unas perrillas (cada vez menos) y seguro que vamos a tener muchos menos dolores de cabeza para instalar la unidad. Hoy en día, las grabadoras IDE ofrecen una alta fiabilidad comparable a la de modelos SCSI.

COMPATIBILIDAD

Hay que tener en cuenta básicamente tres especificaciones: UDF, MultiRead y RAW.

Las unidades CD-R y CD-RW que soportan la especificación UDF (Universal Disc Format - formato de disco universal) permiten grabar datos en discos de forma incrementar, llamado también "PACKET WRITING" (escritura por paquetes), por lo que no es necesario grabar todo el contenido del disco de una vez, sino que podemos dejar la sesión abierta y añadir datos a los ya grabados.

Este sistema funciona porque al final de cada sesión de grabación se graba una VFAT (Tabla de asignación de archivos virtual) en la que señala la colocación de los ficheros grabados en la sesión actual, además de la de los ficheros de sesiones anteriores. Además, este sistema es el que nos permite posteriormente borrar ficheros aislados.

Existen sin embargo dos problemas: para grabar con formato UDF es necesario un software de grabación que soporte esta especificación, y por otro lado, si vamos a trasladar nuestros datos, debemos recordar que solo los lectores de CD-ROM compatibles "MultiRead" son capaces de leer los discos grabados de este modo.

La especificación MultiRead, la cual debemos tener en cuenta a la hora de cambiar nuestra unidad lectora de CD-ROM o comprar nuestra unidad DVD, es la que nos permite poder leer los CD-RW y los CD-R grabados con formato UDF.

En el caso de los CD-RW esto se debe a que los discos utilizados para regrabar con estas unidades reflejan menos luz que los CD-ROM y los CD-R, por lo que se necesita que el lector pueda interpretar correctamente la luz reflejada por la superficie del disco.

El formato RAW tiene su importancia para aquellas personas, cada vez más, interesadas en el formato MP3. Un problema de reciente aparición es que hay personas que no consiguen "ripear" Compact Disc musicales (extraer las pistas de audio para comprimirlas a formato MP3). Solamente las unidades de CD que soportan el formato RAW pueden extraer pistas de audio. Para más información sobre el tema, dirigirse a este ENLACE y ver la lista de unidades compatibles y los programas que se deben utilizar para cada modelo.

LAS UNIDADES DE ALMACENAMIENTO REMOVIBLE

Hace 10 años, con discos duros de 20Mb, el disquete era una buena unidad para transportar archivos de un PC a otro, incluso para hacer copias de seguridad, pues en 17 disquetes de 5'25 y 1'2Mb se podía almacenar toda la información del disco duro. Hoy en día el disquete de 3'5 y 1,44 Mb es una ridiculez comparado con los discos duros actuales que en la mayoría de los casos superan los miles de megas (gigas) de capacidad, por lo que poco a poco, al ir aumentando el tamaño de los discos duros, han ido apareciendo diversos tipos de unidades con diferentes tecnologías para hacer las funciones del primitivo disquete: transporte de ficheros y copias de seguridad. Además, en muchos casos, estas unidades se utilizan como medios alternativos de almacenamiento cuando la capacidad de nuestro disco duro está llegando a sus límites, una función para la cual el disquete se muestra más que insuficiente. Básicamente podemos hablar de cuatro tipos de dispositivos: MAGNÉTICOS, OPTICOS, MAGNETO-OPTICOS y DE CAMBIO DE FASE.

Tipos de dispositivos

DISPOSITIVOS MAGNETICOS

Los dispositivos como los disquetes, los discos duros y algunas cintas de copia de seguridad se basan en la misma tecnología: un disco recubierto de unas partículas magnéticas con un grosor de una millonésima de pulgada organizadas por dominios, cada uno de los cuales actúa como un pequeño imán con polo norte y polo sur, de modo que según la orientación que tengan, representan 1s y 0s.

La información se escribe y se lee mediante una cabeza que actúa como la aguja de un plato para discos de vinilo o un cabezal de un casete, pero mientras en el caso del disquete la cabeza toca la superficie del disco, en el caso del disco duro la cabeza flota sobre un colchón de aire generado por el propio giro del disco.

El acceso a los datos es de tipo aleatorio (random access) por lo que la cabeza se mueve a cualquier parte del disco rápidamente para leer o almacenar información. Ello se debe a que la información se almacena en círculos concéntricos sobre la superficie del disco.

DISPOSITIVOS OPTICOS

Se basan en las marcas físicas permanentes hechas sobre una superficie con un láser de baja potencia, de modo que una vez escrito no se puede borrar (WORM- Write Once Read Many - una escritura múltiples lecturas).

Estos dispositivos ofrecen un medio de almacenamiento de alta capacidad, fácil transportabilidad y alta resistencia a la influencia de factores del medio. Sin embargo, sus prestaciones son muy inferiores a las de los discos duros, por lo que se han convertido en medios complementarios a éste, pero no excluyentes.

El primer intento lo realizaron IOMEGA y 3M en 1993 con su disco FLOPTICAL, pero su relativamente baja capacidad de 21Mb y su precio lo hicieron desaparecer pronto. Sin embargo, los avances en el campo de los CD-ROM y los CD-R (unidades grabadoras), posteriormente las unidades CD-RW, que permiten borrar los datos y grabar en su lugar otros, y la aparición del DVD (Digital Versatile Disc - disco versátil digital) con su alta capacidad de almacenamiento de hasta 17 GB, han hecho a esta tecnología una de las más extendidas actualmente. Por ello, debemos darle un tratamiento específico más en detalle.

DISPOSITIVOS MAGNETO-OPTICOS

Estos dispositivos utilizar un láser para calentar una superficie determinada de partículas magnéticas a una temperatura de más de 200ºC para grabar la información, cambiando la dirección de las partículas de la superficie mediante el campo magnético creado por la cabeza de lectura/escritura. Sin embargo, el disco es muy estable a temperatura ambiente, por lo que permite la lectura de datos mediante un láser de menor intensidad que interpreta los datos atendiendo a la orientación de las partículas magnéticas.

Estos dispositivos eran en principio muy lentos, requiriendo normalmente dos pasadas para la grabación, aunque conseguían una muy alta capacidad de almacenamiento a bajo precio y con una vida media de 30 años. Sin embargo en 1997 esta tecnología recibe un gran empuje de mano de PLASMON cuando esta empresa lanzó al mercado el DW260, con tecnología LIMDOW (Light Intensity Modulated Direct OverWrite) que mejoró las prestaciones de estos dispositivos acercándolas a las de un disco duro, por medio de la inclusión dentro del propio disco de los imanes magnetizadores en vez de estar en la cabeza de lectura/escritura. De este modo, la polaridad se adquiere según la temperatura del láser y el proceso de grabación se hace de una sola pasada.

Actualmente la velocidad de búsqueda en estos dispositivos está en torno a los 15ms (milisegundos) y la transferencia en torno a los 4MB/s. La capacidad actual ronda los 2,6GB, pro con algunas mejoras en el tamaño y la intensidad del láser este tamaño está empezando a aumentarse.

DISPOSITIVOS DE CAMBIO DE FASE

Este sistema es una patente de PANASONIC y fue lanzada al mercado en 1995, combinando un disco óptico de 650Mb con un lector de CD-ROM de cuádruple velocidad.

Este es el único dispositivo óptico con capacidad de sobreescritura utilizando únicamente un láser. Mediante un láser de alta intensidad, se calienta una parte de la zona activa del disco donde se van a almacenar los datos, y a enfriarse rápidamente se crea una capa amorfa de baja reflectividad. En la lectura, un láser de baja intensidad detecta la diferencia entre puntos y de acuerdo con la reflectividad identifica los datos como 1s y 0s. Además, el material de la capa activa es reversible, de modo que al volver a calentarla, ésta vuelve al estado anterior.

Todo esto se hace de una sola pasada, por lo que estos dispositivos son más rápidos que los dispositivos magneto-ópticos tradicionales, aunque no tanto como los que usan tecnología LIMDOW.

Ahora vamos a hacer un repaso a algunas de las unidades más populares de cada uno de estos tres tipos, analizando sus ventajas y sus inconvenientes, así como algunas recomendaciones.

Las unidades de almacenamiento

LA UNIDAD ZIP

Lanzada al mercado en 1995 por IOMEGA, la unidad ZIP es una de las unidades de tecnología magnética más populares hoy en día, y al igual que en el caso del disquete los datos se graban magnéticamente sobre una superficie flexible.

La unidad ZIP utiliza discos con una capacidad de 94MB que tienen el tamaño de un disco de 3'5 pulgadas y sus buenas prestaciones se deben a su alta velocidad de rotación de 3.000rpm, su buffer de 256KB y, en el caso de las unidades IDE y SCSI, su tiempo medio de búsqueda de 29ms (milisegundos), alcanzando así una transferencia de 1'4MB/s (megas por segundo). La unidad conectable al puerto paralelo el tiempo de búsqueda y la tasa de transferencia es mucho menor, pero ofrece mayor versatilidad y comodidad, al poder transportarla de un PC a otro con facilidad.

Esta unidad existe en formato externo e interno, con conexiones SCSI (tanto interno como externo), IDE (sólo interno), puerto paralelo. Además, la versión ZIP PLUS de reciente lanzamiento, permite elegir entre conexión SCSI externa o puerto paralelo, y en su próxima versión que saldrá al mercado en 1999, soporta puerto USB además de los anteriores, ampliando su capacidad hasta 250MB, siendo compatible con discos de 100MB y bajando el precio del almacenamiento a 12pts/MB.

La única desventaja de este dispositivo, a diferencia de la unidad LS-120, es que no es compatible con los discos de 3'5 pulgadas, por lo que esta unidad se presenta como complemento a la disquetera, no como sustituto. Sin embargo, aventaja a la unidad LS-120 en su fuerte y amplia implantación en el mercado, lo que le augura un largo futuro.

LA UNIDAD LS-120

La unidad LS-120 fue lanzada al mercado en 1996 por 3M, que compró la tecnología a IOMEGA (sí, el fabricante de la ZIP). En su versión interna (existe una versión externa conectable al puerto paralelo fabricada por IMATION, subsidiaria de 3M) se parece a una disquetera de 3'5, y de hecho presenta como ventaja frente a la unidad ZIP el poder también leer disquetes de 3'5 pulgadas, pudiendo utilizarse como sustituto de la disquetera tradicional, siempre que sea soportada por la BIOS de la placa base como unidad de arranque.

Utiliza una tecnología basada en el FLOPTICAL de 21MB y su nombre, de hecho, viene de la tecnología utilizada, Láser Servo (LS). Esta tecnología utiliza un láser para leer y escribir las pistas, pero c0mo la densidad de las pistas es de 24.900 tpi (pistas por pulgada), frente a las 135tpi del disquete de 3'5 pulgadas y 1'44MB de capacidad, se pueden llegar a almacenar hasta 120MB de información en un solo disco.

La velocidad de rotación de la unidad es de 720rpm y su tiempo de búsqueda de 70ms, y con un buffer se sólo 8KB alcanza tasas de transferencia de 450KB/s, que la hacen 5 veces más rápida que el disquete tradicional, pero considerablemente más lenta que la unidad ZIP.

Su ventaja es la compatibilidad con los discos de 3'5 pulgadas, su interfaz IDE interno y su posibilidad de sustituir a la disquetera, siempre que lo soporte la BIOS del sistema. Sin embargo, aunque no lo soporte la BIOS, se puede utilizar como si fuese una unidad de disco más, aunque no podremos prescindir de la disquetera, por lo que sería equivalente a una unidad ZIP. Su retraso en el lanzamiento con respecto a la ZIP y ciertos problemas iniciales con algunos equipos más antiguos, la han hecho quedar por detrás de la ZIP.

La unidad externa de puerto paralelo ofrece la misma versatilidad que la ZIP al poderse transportar de un PC a otro, y con su anunciada versión USB puede recuperar parte del mercado al que no ha llegado a convencer, a pesar de ser introducida como elemento de serie por alguna de las grandes marcas, como es el caso de COMPAQ.

Recientemente MITSUMI y SWAN han anunciado el lanzamiento de la unidad UHC-130 de 130MB de capacidad, con una tasa de transferencia de 3MB/s y compatibilidad con los disquetes de 3'5 pulgadas.

DynaMO

Este dispositivo es el primero de los que podemos llamar superdisquetes, con una capacidad entre los 200MB y los 300MB, y a la vez pueden utilizarse como complemento a la disquetera o incluso como unidad de copia de seguridad, aunque su capacidad limita su utilización a campos muy concretos.

El DynaMO de FUJITSU es una unidad magneto-óptica que ha ido apareciendo en el mercado en diversas versiones según su capacidad, que incialmente era de 128Mb, aumentó a 230MB y en su última versión ha alcanzado los 640MB.

Existen versiones IDE interna, SCSI externa y puerto paralelo, y sus prestaciones son bastante buenas. Apoyada por una caché interna de 128KB, estas unidades alcanzan una velocidad de búsqueda de 65ms y una tasa de transferencia de 1'6MB/s, aunque la versión puerto paralelo es considerablemente más lenta.

En su versión de 640MB, esta unidad alcanza los 35ms de tiempo de búsqueda y una tasa de transferencia de 2,4MB/s, debido a su velocidad de rotación de 3.600rpm y su caché interna aumentada a 2MB.

EZFlyer

La unidad EZFlyer de SYQUEST utiliza tecnología magnética para ofrecer unas prestaciones algo superiores a la unidad ZIP con un tiempo medio de búsqueda de 18ms y una tasa de transferencia de 2MB/s en su versión SCSI, aunque también existe una versión para puerto paralelo. Por su capacidad de 230MB y sus prestaciones, esta unidad es válida tanto para hacer copias de seguridad como para ejecutar aplicaciones o archivos de vídeo desde ella.

CINTAS DE BACKUP

Su utilización específica como unidades de copia de seguridad, merece que le prestemos una atención especial y le dediquemos una página en exclusiva.

OTRAS UNIDADES

Dentro del grupo de unidades de almacenamiento consideradas como complementos al disco duro, además de los CD-ROM en sus diferentes versiones, el DVD y las CINTAS DE BACKUP, y además de la versión de 640MB de la DynaMO de FUJITSU, debemos tener en cuenta los dispositivos basados en la tecnología de cambio de fase.

Tanto PANASONIC, creadora de esta tecnología, como TORAY disponen de unidades de combinan un disco óptico con una unidad de CD-ROM, en las que se detecta automáticamente el tipo de disco empleado, y por tanto se usa la intensidad de láser adecuada a cada uno.

Estas unidades ofrecen unas buenas prestaciones y una gran versatilidad, pero cuando funcionan como lector de CD-ROM sus prestaciones no van más allá de las equivalentes a un lector 6X o 8X.

JAZZ

La unidad JAZZ de IOMEGA, lanzada al mercado en 1996, ofrece discos removibles de 1GB de capacidad con tecnología magnética y ofrece unas muy buenas prestaciones: gracias a sus 256KB de caché, obtenemos un tiempo medio de búsqueda de 12ms y una tasa de transferencia de 5'4MB/s.

Existe en versiones IDE o SCSI, esta última tanto en versión interna como externa, y recientemente ha aparecido en el mercado una versión que soporta discos removibles de 2GB (además de ser compatible también con los discos de 1GB), que gracias a su conexión SCSI-3 sube la tasa de transferencia hasta los 7MB/s.

La unidad JAZZ se parece mucho a un disco duro, pero los platos dobles de datos están protegidos por un cartucho con una tapa que impide la entrada de polvo y que se abre al insertar el cartucho en la unidad para que este sea leído por las cabezas WINCHESTER que se utilizan para la lectura escritura.

SyJet

La unidad SyJet de 1'5Gb de capacidad fue lanzada al mercado por SYQUEST en 1997 y aunque su capacidad y prestaciones mejoraban las de la unidad JAZZ de 1GB, su popularidad no alcanzó las mismas cuotas.

Esta unidad que utiliza tecnología magnética dispone de una caché de 512KB y obtienen un tiempo medio de búsqueda de 17ms y una tasa de transferencia de 6'5MB/s. Existen versiones internas IDE y externas SCSI y paralelo de esta unidad.

Esta unidad debe desestimarse hoy en día pues a finales de 1998 SYQUEST

SparQ

Esta unidad de SYQUEST con 1Gb de capacidad salió al mercado en la primavera de 1998 en versiones interna IDE y externa paralelo, y sus prestaciones mejoraron espectacularmente las de las unidades de otros fabricantes gracias a un único plato de alta densidad y una velocidad de rotación de 5.400rpm (como un disco duro), pero la suspensión de pagos de la empresa fabricante hace su compra desaconsejable hasta saber si finalmente será absorbida por otra compañía o si desaparecerá definitivamente del mercado.

APEX

La unidad APEX de PINNACLE, lanzada al mercado en 1996, con capacidades sucesivas de 2GB, 2'3GB, 2'6GB, 4'2GB y 4'6Gb (esta última utilizando las dos caras del disco) es una unidad de tecnología magneto-óptica con interfaz SCSI (existe un convertidor para puerto paralelo) que resulta sumamente útil por su capacidad para poder hacer copias de seguridad de redes locales, para edición de vídeo o para grandes presentaciones multimedia.

Sus prestaciones, con 21ms de tiempo medio de búsqueda y una tasa de transferencia de 3'5Mb/s, apoyadas por una generosa caché de 1MB, la hacen válida como segundo disco duro transportable, pero el avance del DVD y la implantación de esta tecnología, junto con su elevado coste, hacen peligrar su futuro.

RMO-S594

Esta unidad, fabricada por SONY, tiene una capacidad de almacenamiento de 2'6GB y unas prestaciones similares a las de un disco duro: 25ms de tiempo medio de búsqueda u 4Mb de tasa de transferencia, apoyadas por una caché de 4MB (existe una versión con 1MB de caché y, por supuesto, menores prestaciones).

El problema de esta unidad es su altísimo precio, aunque los cartuchos son bastante baratos, resultando un coste de 3'3pts/MB (la más barata del mercado).

Esta unidad hay que considerarla como alternativa a la unidad de PINNACLE para copias de seguridad de redes y para almacenamiento y ejecución de vídeo y multimedia.

LASER AZUL

El futuro está en el láser azul. Un láser de menor longitud de onda con un rayo más estrecho y puntos más pequeños, que nos permitiría almacenar muchos más datos sobre la misma superficie.

El problema que se debe resolver de momento es que este láser tiene un tamaño demasiado voluminoso para adaptarlo al PC, pero si se consigue, podremos almacenar hasta 50Gb de información en un disco tipo DVD utilizando ambas caras.

LAS UNIDADES DE CINTA DE BACKUP

Top of Form 2

Bottom of Form 2


Las unidades de cinta de backup (copia de seguridad) son unidades de almacenamiento secuencial, lo que las hace mucho más lentas que otras unidades de almacenamiento removible, pero sin embargo son la mejor elección cuando atendemos a cuestiones de capacidad y precio, pues aunque existen unidades removibles de alta capacidad, como la JAZZ de IOMEGA, las Syjet y SparQ de SYQUEST, la APEX de PINNACLE o la RMO-S594 de SONY, estas últimas suelen ser mucho más caras y el coste por mega de información muy superior.

Además, con el tamaño actual de los discos duros, son las únicas unidades que nos permiten hacer una copia de seguridad completa sin tener que cambiar la unidad de almacenamiento durante todo el proceso, por lo que son ideales para las oficinas o empresas, que debido al trabajo constante diario con los ordenadores, deben hacer sus copias de seguridad fuera del horario laboral, cuando nadie está trabajando, con lo que la copia de seguridad tienen que funcionar sin que nadie la atienda.

Tipos de unidades de copia de seguridad

UNIDADES DLT

Las unidades de cinta se basan en la tecnología de movimiento helicoidal, adaptado de la tecnología de las cintas de vídeo, aunque recientemente se ha empezado a utilizar una tecnología conocida como DLT (Digital Linear Technology - tecnología lineal digital) mediante la cual se usan cintas de media pulgada de ancho con partículas de metal en las cuales se graban los datos siguiendo un esquema de serpentina en pistas paralelas agrupadas por pares.

Con este sistema, cuando el proceso de grabación llega al final de la cinta, se ha grabado la primera tanda de pistas y entonces los cabezales cambian de posición y se graba la siguiente serie de pistas aprovechando el movimiento inverso de la cinta, y así sucesivamente hasta que se llena la cinta. Hoy en día, la mayoría de las unidades que utilizan esta tecnología llegan a tener entre 128 y 208 pistas.

Además, el tipo de cabezal utilizado en estas unidades y el proceso de arrastre de la propia cinta minimizan el desgaste de la cinta, alargando la duración total de ésta hasta las 30.000 horas.

HP tiene varios modelos de unidad de cinta DLT en su serie SURESTORE, y con la unidad DLT-40e, alcanza los 20 GB de capacidad de almacenamiento (40GB comprimidos) con una tasa de transferencia de hasta 2,5MB/s. Dentro de esta misma gama, SURESTORE, HP también dispone de unidades con tecnología TRAVAN, las SURESTORE T-xx, y unidades con tecnología DAT DDS, las SURESTORE DATxx.

CINTAS QIC

La primera unidad de conta QIC (cinta de un cuarto de pulgada) fue presentada por 3M en 1992, y poco a poco se ha convertido en la unidad de cinta más popular.

Los cartuchos QIC parecen cintas de casete, con dos carretes, uno para la cinta y otro para enrollarla, con un cinturón interno que los mueve por efecto del movimiento del motor de la unidad. Al igual que en el casete un eje de metal presiona la cinta contra una rueda de goma que la hace avanzar. El cabezal es también como el de un casete, con una cabeza de escritura rodeada de dos cabezas de lectura, lo que permite leer los datos en ambos sentidos de giro.

La técnica de grabación es de tipo lineal y los datos se graban en pistas paralelas a lo largo de toda la cinta. El número de pistas es lo que determina la capacidad de la cinta.

Al comenzar la copia de seguridad, se carga en memoria RAM la tabla de asignación de archivos y los ficheros a copiar. Al grabar en la cinta estos dos bloques de datos van precedidos de una cabecera con información del directorio y, si la controladora tiene corrección de errores, al final se añade el código de corrección (ECC), si no, el software de grabación incluye el código de corrección antes de grabar los datos en la cinta.

La cinta, al grabar, se mueve a 100-125 pulgadas por segundo, y con dos cabezas lectoras (lo habitual) se alcanzan transferencias de 800KB/s, y esta tasa de transferencia aumenta al aumentar el número de cabezas, que en algunas unidades puede llegar a ser de 36.

La cinta QIC ha ido alargando y haciendo más ancha la cinta, siendo las capacidades más habituales (sin compresión de datos, pues con ella pueden llegar a doblarse estas cifras) las siguientes:

MINIMO

MAXIMO

QIC-80

80MB

500MB

QIC-3010

340MB

420MB

QIC-3020

670MB

840MB

QIC-3080

1'2GB

2GB

QIC-3095

2GB

4GB

UNIDADES TRAVAN

El inconveniente de las unidades QIC es la incompatibilidad existente entre las diferentes versiones que han ido apareciendo, por lo cual se creó la especificación TRAVAN, para garantizar la compatibilidad hacia atrás.

Los estándar TRAVAN actuales y sus capacidades (sin compresión de datos, pues con ella pueden llegar a doblarse estas cifras) son:

CAPACIDAD

TRANSFERENCIA

TR-1

400MB

125KB/s

TR-2

800MB

125KB/s

TR-3

1'6GB

250KB/s

TR-4

2'5GB
4GB

1MB/s
70MB/minuto

La unidad DITTO de IOMEGA es uno de los representantes más conocidos y extendidos del formato TRAVAN, manteniendo compatibilidad con cintas de formato QIC. Exiten diversas versiones con distintas capacidades, soportando los estándares TR-1, TR-2 y TR-3, llegando a alcanzar los 3,2GB de capacidad en modo comprimido, arrojando una velocidad de transferencia de hasta 2MB/s en modo ráfaga y una velocidades copia de hasta 19MB/minuto. En su versión DITTO MAX PRO, esta unidad llega al alcanzar los 10GB de almacenamiento con 4MB/s de transferencia.

Las unidades COLORADO de HP son unidades de cinta de copia de seguridad que soportan los estándares QIC y TRAVAN, con una unidad compatible TR-4, la TRAVAN T-4000, que puede llegar a almacenar hasta 8GB de información en formato comprimido.

LAS CINTAS DAT

Se crearon como formato de audio con calidad CD, pero en 1998 SONY y HP definieron el estándar para el almacenamiento de datos digitales, aplicando esta tecnología al almacenamiento de datos.

Las unidades DAT usan una cinta de 4mm y el sistema de grabación es similar al de las cintas de vídeo, siendo más lento que la tecnología lineal, por lo que solamente se usa cuando lo más importante es la capacidad.

La cinta sale de un cartucho de dos carretes y se enrolla en un tambor cilíndrico con dos cabezales de lectura y dos cabezales de escritura colocados alternativamente, de modo que la cabeza lectora verifica lo que se escribe. Este cilindro está ligeramente inclinado y gira a 2.000rpm, haciendo mover la cinta en sentido contrario a una velocidad de menos de una pulgada por segundo, pro al grabar más de una línea de cada vez, es como si lo hiciese a 150 pulgadas por segundo.

La primera cabeza de escritura graba y la segunda (de lectura) verifica los datos, la tercera graba con un ángulo de 40º respecto a la primera grabación y la cuarta verifica. Aunque los datos están cruzados, la polaridad es diferentes, de modo que los datos sólo pueden swer leídos por la cabeza correspondiente, por lo que con esta técnica de cruzado se consigue almacenar más datos en la misma cantidad de cinta.

Las cintas DAT se encuentran en formato DDS y DataDAT. El protocolo DDS es el más habitual, y sus estándares, compatibles todos hacia atrás, son:

CAPACIDAD

TRANSFERENCIA

DDS

2GB

55KB/s

DDS-1

2GB
4GB

55KB/s
1'1MB/s

DDS-2

4GB
8GB

55KB/s
1'1MB/s

DDS-3

12GB
24GB

1'1MB/s
2'2MB/s

Aunque su capacidad es mayor que la de las unidades QIC, la velocidad es mucho menor, y su precio es el doble, y además solamente existen con interfaz SCSI, lo que aumenta su precio.

LA UNIDAD 8MM

Este estándar se diseño originalmente para vídeo y en cuanto a su funcionamiento se parace a las unidades DAT, pero con mayores capacidades.

Existen dos protocolos cuyas diferencias radican en la tecnología de la unidad y en los algoritmos de compresión utilizados: MAMMOTH y AIT.

El estándar MAMMOTH está apoyado por EXABYTE y utiliza una tecnología basada en las vídeo-cámaras SONY. Este protocolo reduce el número de componentes de la unidad así como el desgaste de la cinta al reducir su tensión. Utilizando un protector de aluminio en la cinta se impide la entrada de polvo y se disminuye la corrosión, con lo que una cinta con esta tecnología puede llegar a durar 30 años.

El estándar AIT, apoyado por SONY y SEAGATE, utiliza cintas más finas y con mejores recubrimientos, además de nuevos cabezales y una cantidad de memoria de 16KBdentro de la propia cinta. Así se consiguen unas altas prestaciones y una altísima capacidad de la cinta con una tasa muy baja de errores, por lo que son especialmente útiles para grandes bibliotecas de archivos.

La memoria interna de la cinta almacena los datos de los índices de la cinta con la posición de los ficheros, con lo que la búsqueda de éstos es mucho más rápida y precisa, además de ser un sistema de seguridad redundante, pues el índice también se guarda en la propia cinta de datos.

La unidades AIT incorporan la tecnología avanzada de compresión de IBM que proporciona una gran capacidad y buenas prestaciones, con una compresión media de 2'6:1 y con corrección de datos durante la grabación.

Los estándares actuales para 8mm (Sin compresión; con compresión debemos multiplicar la capacidad base por 2, o por 2'6 con el estándar AIT) son los siguientes:

CAPACIDAD

TRANSFERENCIA

8mm

3'5GB
5GB
7GB
7GB

32MB/min.
60MB/min.
60MB/min.
120MB/min.

MAMMOTH

20GB

360MB/min.

AIT-1

25GB

55KB/s
360MB/min.




Descargar
Enviado por:Leandro Ferrari
Idioma: castellano
País: Argentina

Te va a interesar