Comprar un ordenador

Placa Base. Microprocesador. Memoria. Tarjeta Gráfica. Módem. Monitor. Impresora. Ratón. Conceptos. Glosario

  • Enviado por: Carlos Martín Garcia
  • Idioma: castellano
  • País: España España
  • 42 páginas
publicidad

1. - Introducción

E

n este trabajo se trata de analizar desde un punto de vista objetivo las características de un ordenador tanto desde la esfera del hardware (que se tratará más en detalle) como en la del software. Para hacer más fácil la lectura de este informe se ha clasificado el mismo en dos partes bien diferenciadas que a la vez no suelen prodigarse como enfoque típico. Las divisiones se han hecho en cuanto a componentes externos e internos puesto que parece un mejor encauzamiento para personas no duchas en la materia.

2. - Componentes internos

L

os componenetes del ordenador son aquellos que normalmente no se ven desde fuera puesto que suelen estar atornillados dentro de la caja.

2.1. - Placa Base

Descripción: La placa base es un componente fundamental para el ordenador de forma que consta de:

Chipset: Conjunto de Chips (3 o 4 generalmente) que sirven para gestionar la comunicación entre los distintos componentes del ordenador. Se utilizan para controlar las transferencias de información a través de los buses y entre los componentes de la placa. Estos conjuntos de chips se actualizan generalmente cuando aparecen nuevos microprocesadores o nuevas características en la placa. Algunos de los más actuales son el Aladdin V, 440 BX o 440 LX... etc. utilizándose cada uno en un tipo de placa. Los fabricantes más importantes son Intel, Acer Labs y Via Technologies. Las velocidades del bus de sistema en las placas actuales son de 66 Mhz o los 100 Mhz que se están imponiéndo por su mayor rapidez. Un Hercio es la unidad de frecuencia (1 ciclo por segundo) por lo que 100 Mhz son (100x1024x1024 ciclos/segundo) o lo que es igual 1.048x109 ciclos por segundo. Posteriormente se debe igualar la velocidad del bus a la del procesador para lo que existen jumpers llamados multiplicadores que realizan esta tarea.

Ranuras de Expansión: Estas ranuras son extensiones de la placa base de distinto tipo que aportan cada una, distintas tarjetas al equipo.

ISA: Son las primeras ranuras que aparecieron y las primeras que están

destinadas a desaparecer. Son ranuras de 16 bits por lo que la velocidad de transferencia a través del sistema es baja. Por tanto, este tipo de ranuras se utilizan cada vez menos siendo pocas las tarjetas que actualmente están destinadas a este dispositivo. Tradicionalmente han sido las tarjetas de sonido las encargadas de aprovechar esta ranura (debido a sus pocos requerimientos) así como algunas tarjetas de radio o comunicaciones pero gradualmente se ha ido migrando hacia las PCI y por tanto están próximas a desaparecer.

PCI: Son ranuras de expansión de 32 bits lo que permite un aumento

del flujo de datos y a una mayor velocidad (aunque eso vendrá determinado finalmente por la velocidad del bus de sistema). En las placas suelen venir de 3 a 6 según configuraciones, siempre en detrimento de las ranuras ISA. En estas ramunas se insertan practicamente todas las tarjetas necesarias para el ordenador (video, modem, sonido, decodificadora MPEGII, radio, televisión.....).

AGP: Esta ranura de expansión es un protocolo creado por Intel para

agilizar los gráficos de forma que se crea un bus autónomo, “autopista gráfica”, desde donde se manda y recibe todo lo relacionado con los gráficos del ordenador (desde rutinas de texturizado hasta renderización en tiempo real). Esto es posible debido a la gran velocidad que es capaz de proporcionar el bus gráfico (hasta 500 Mbit/sg) descargándo además las tarjetas gráficas de trabajo al procesador debido a la gran cantidad de memria que traen. Actualmente se implementa en las tarjetas AGP2x o AGP4x (en teoría) que permite duplicar o cuatriplicar la velocidad del bus y por tanto el tráfico de datos gráficos.

Ranuras de memoria: La memoria es otro componente fundamental del ordenador y que junto con el micro y la placa base forman el núcleo del ordenador. Actualmente existen en el mercado dos tipos de memoria en el ámbito de usuario:

Tipo SIMM: Estas ranuras de expansión de memoria están abocadas a

desaparecer actualmente. Entre sus características se puede ver que son ranuras de 72 contactos que permiten la inserción de módulos de memoria simple como su propio nombre indica. Esto es una clara desventaja respecto a su antecesora.

Tipo DIMM: Actualmente son las que se encuentran mayormente en las placas modernas soliendo haber entre 2 y 4 módulos de 168 contactos. Esta ranura se caracteriza por tener la posibilidad de que se inserten módulos dobles de memoria lo que significa mayor capacidad y el tipo de memoria que se inserta es más rápida.

Ranura del microprocesador: Esta ranura es la que permite al microprocesador insertarse en la placa base y aprovechar por tanto todos sus recusrsos. Actualmente existen dos tipos de ranuras:

Socket 7: Es una ranura tradicional en la que se insertan microprocesadores cuadrados con un patillaje de 321 patillas.

Slot 1: Es una ranura más parecida a una expansión de memoria y ahí se insertan exclusivamente los micros de Intel. Esta diferencia ha hecho creer a Intel que podría distanciarse de sus competidores pero no lo ha conseguido.

Jumpers: Los jumpers son unas pequeñas pestañas dela placa que sirven para configurar ésta. Con ellos se pueden cambiar la frecuencia de la placa así como la del multiplicador de ésta. Las placas modernas tiene cada vez menos jumpers, reconociendo automáticamente las características del micro (autoconfigurables) y permitiéndonos modificar algunos parámetros a través de la BIOS.

Salidas: Por otro lado las placas tienen conexiones de salida que actualmnete están estandarizados siendo 2 conectores de serie para distintos dispositivos (velocidad lenta), 1 paralelo para la impresora (velocidad media), 2 USB (buses universales de serie) y 2 PSII para el teclado y el ratón. Tenemos que destacar los conectores USB ya que son la respuesta al exceso de cableado pudiendo conectarse hasta 127 dispositivos en serie a partir de esa salida. Como característica fundamental y novedosa aportan la total integración Plug & Play (enchufar y listo) sin complicadas fases de instalación.

Recomendaciones: Por último decir que dependiendo de la funete de alimentación que utilicen y del tamaño de las placas se podrán utilizar las ATX o BabyAT aunque estas últimas están en desuso. Mención aparte merece las placas NLX que si bien están desarrolladas totalmente hace tiempo, lo que aportan, (mayor facilidad de acceso a los componentes) no está en consonancia con su precio. Por tanto, una placa base es la “base” donde se apoyan los diversos componentes internos que veremos posteriormente.

Ya desde el punto de vista presupuestario no es descabellado pensar en una placa base con todas las características mejores anteriormente mencionadas y cuyo precio no supere las 20.000 ptas.

Algunas recomnedaciones son:

Modelo

Precio

I Will XA100 ATX AGP para K6-2

14.400 pts

I Will BD100 ATX AGP para P-II

19.900 pts

Asus P5B 133Mhz ATX

13.900 pts

2.2. - Microprocesador

El microprocesador es la parte más importante del sistema de forma que todas las operaciones que se realizan (o casi todas) pasan por el micro. Por tanto es bueno tener un micro potente que sumado a otras características servirá para sacar el máximo rendimiento al ordenador.

Descripción: Actualmente existen en el mercado varios modelos de microprocesador pero en este informe sólo nos referiremos a los dos que ocupan más cuota de mercado (Intel y AMD) dejando a IDT (Centaur) y a Cyrix para mejor ocasión, sobre todo porque a la hora de comprar el consumidor siempre busca lo más conocido.

Transistores: Son los encargados de realizar todas las operaciones lógicas y aritméticas neceasrias para un correcto funcionamiento. Dentro de este apartado hay que decir que la organización interna de la CPU es muy complicada y solo se darán algunas orientaciones con respecto a su estructura.

Así, podemos hacer una clara distinción entre tipos de datos procesados por la CPU. Los datos de tipo entero son los que le van llegando al micro al ejecutar aplicaciones de propósito general (ofimática, sofware de gestión... etc.). En cambio, los datos en coma flotante son los decimales que se reciben cuando el ordenador ejecuta aplicaciones como juegos, diseño en 3D, música... etc., por eso, existen diferencia de rendimiento entre los distintos elementos y se implementan nuevas instrucciones cada vez mejores.

Caché: es una memoria muy rápida y generalmente de poco tamaño que se les añade a los microprocesadores para que les sea más fácil y rápido encontrar los datos. La caché L1 o primaria (16Kb a 32Kb) se encuentra integrada en la CPU y el acceso del micro a ella es por tanto a la misnma velocidad de éste. Dentro de esta caché se guardan los datos que el micro utiliza con más frecuencia disminuyendo así el número de accesos a la memoria principal y aumentando la velocidad con la que se realizan las operaciones. La caché L2 o secundaria (256Kb a 512 Kb) permite almacenar más datos pero se encuentra generalmente en la placa (Socket 7) por lo que el acceso a ésta se realiza a la velocidad del bus de la placa. En cambio en P-II la caché L2 se encuentra insertada en la pastilla propia del micro y se accede a ella a la mitad de la velocidad de éste.

Ahora abordaremos los micros exsitentes en el mercado en forma de comparativa de manera que el usuario quede más convencido de las diferencias existentes entre ambos micros.

Los procesadores actuales destacan ya no sólo por su versatilidad sino por el tipo de mercado hacia el que se orientan. Esto da lugar a que, a la hora de valorarlos sea necesario hablar de lo que se conoce como “vectores de prestaciones”. Básicamente podríamos distinguir tres posibilidades: prestaciones en multimedia, prestaciones en aplicaciones en coma flotante y prestaciones frente a aplicaciones de enteros.

Hoy en día son cuatro las posibles alternativas de que el usuario dispone de cara a la adquisición de un micro para su equipo. En el escalón más alto nos encontramos con los Xeon, pero dada la clara orientación que estos procesadores presentan de cara a grandes servidores obviaremos siquiera dicha posibilidad centrándonos en las otras tres, más realistas.

La primera de ellas va especialmente indicada para presupuestos más bajos, nos referimos al K6-2 que se engloba dentro de lo que su compañía llama “plataforma Super 7”. Dicha iniciativa, puesta en marcha por un grupo de fabricantes encabezados por AMD, consistía en fomentar nuevos avances que permitieran desarrollar aún más las posibilidades del Socket 7 que se han materializado en los chipsets de Via Technologies con los que se da soporte a buses de 100 Mhz, conectores AGP o un sistema de caché con conexión a la misma velocidad del micro.

El K6-2 de AMD se dio a conocer en Mayo de 1998 y se trata de un procesador destinado a Socket 7, con funcionalidad superescalar y la implementación de la tecnlogía 3D Now!, que actualmente se encuentra en versiones de 266 a 400 Mhz.

En su interior incorpora 9,3 millones de transistores fabricados con tecnología de proceso de 5 capas y 0,25 micras con interconexión local y aislamiento de protección superficial, todo ello integrado dentro de un paquete PGA de 321 patillas.

Su rendimiento es similar e incluso superior a los Pentium II de Intel funcionando a la misma velocidad, con la ventaja añadida de tener un coste más reducido.

La tecnología 3D Now! no es otra cosa que un conjunto de 21 nuevas instrucciones de tipo SIMD, orientadas a acelerar las funciones físicas y geométricas de los gráficos 3D. Esto, junto a las dobles conexiones de ejecución de registros, permite ofrecer hatsa 4 resultados en coma flotante por ciclo de reloj, con un rendimiento máximo de 1,33 Gigaflops a 333 Mhz frente a los sólo 0,4 que puede alcanzar un P-II a 400 Mhz.

En el comportamiento global el K6-2 se posiciona como el micro más rápido que existe actualmente para Socket 7 con un excelente resultado en las diferentes versiones de Windows sobre las que se han puesto a prueba.

Por otro lado el P-II es la segunda alternativa disponible para usuarios que buscan más potencia (cuando hablamos de P-II englobamos a Mendocino y a Celeron) que varían en cuanto a memoria caché implementada.

La llegada de los Mendochino (Celeron con 128KB de Caché) reequilibró en cierto modo la situación pero siempre y cuando se tenga muy claro que vector de prestaciones debería utilizarse en cada caso.

La respuesta se encuentra en que ni los Celeron ni los Mendocino son buenos al ejecutar operaciones de enteros por lo que no son la opción más indicada para aplicaciones de uso general (donde el P-II es muy superior). Sin embargo recordemos que Intel diseñó estos procesadores pensando en un ámbito doméstico/familiar por lo que su verdadero potencial se muestra al trabajar con aplicaciones multimedia o en coma flotante. Así, con objeto de ofrecer un micro más atractivo Intel ha subido la velocidad de los micros hasta los 400 Mhz pero sólo aumentan un 13% frente a los mismos a 333 Mhz y son un 20% más lentos que los P-II a su misma velocidad.

A modo de referencia los nuevos K6-2 a 400 Mhz se muestran un 17% más rápido que los Celeron/Mendocino antes referenciados, lo que al menos en teoría los posicionaría solo un 3% - 4% por debajo de los P-II a la misma velocidad.

Por este motivo Intel ha dado otra vuelta de tuerca a su nomenclatura y se ha descolgado con la presentación oficial de los denominados (Pentium -III) y P-III Xeon, que serían por tanto el trercer escalón en cuanto a potencia, prestaciones y precio.

Ambos procesadores aún trabajan con tecnología de 32 bits aunque internamente lo hacen con datos de 64. Sin embargo su auténtica novedad viene dada de su arquitectura SIMD-FP(Simple Intrucción -Múltiples Datos, Punto Flotante) y que se había dado en llamar KNI (Katmai new instructions).

Esta nueva arquitectura extiende aún más las posiblilidades del actual MMX, añadiendo 57 instrucciones nuevas que redundarán en beneficio de los aspactos gráficos tridimensionales, tanto en geometría euclidea como en generación de superficies.

Otra ventaja importante de KNI, en combinación con el bus de 100 Mhz, será la aparición de los denominados flujos de memoria, es decir la realización de peticiones múltiples simultáneas (de 4 a 8) a memoria, posibilitando el movimiento masivo de datos sin que intervenga el propio procesador. Esto permitiría alcanzar una ratio teórica de 640 Mb/seg, frente a los 240 Mb/seg que alcanza un P-II a 400 Mhz actualmente.

Finalmente, el último punto de interés de KNI consiste en pemitir la decodificación directa de video digitalizado en formato MPEGII así como el ofrecimiento de instrucciones que aceleren el reconocimiento de voz, en lo que es una clara respuesta a la tecnología 3D Now! De AMD.

Recomendaciones: Por tanto, y después de leer este capítulo dedicado a los micros podemos dar algunas orientaciones que ayudarán a comprar el micro.

Modelo

Precio

Pentium Mendocino a 400 Mhz

22.900 ptas

P-II a 400 Mhz

44.900 ptas

P-III a 500 Mhz

111.900 ptas

AMD K6-2 3D Now! a 300 Mhz

11.500 ptas

AMD K6-2 3D Now! a 350 Mhz

14.900 ptas

AMD K6-2 3D Now! a 400 Mhz

22.900 ptas

2.3. - Memoria

La memoria de un ordenador es un componente fundamental del ordenador y uno de los que más problemas puede causar debido a que cada tipo suele tener un voltaje diferente y la mezcla por tanto puede ser problemática.

Descripción: La memoria de inserta en la placa base en una pequeñas tarbletas llenas de chips de memoria. Cada chip de memoria contiene un múltiplo de 2 Mb de memoria dividida en celdas. Así según la cantidad de chips y la capacidad de estos se obtendrán módulos de 8Mb, 16 Mb, 32 Mb, 64Mb hasta 128 Mb de memoria. Actualmente existen dos tipos de memoria:

EDO RAM: La memoria EDO está desapareciendo progresivamente del mercado pero aún quedan algunos restos para equipos antiguos. Esta memoria se caracteriza porque es de 60ns, es decir se tarda un tiempo medio de 60 nanosegundos (60x10-9s) en acceder a una celda de memoria. Además es asíncrona lo que significa que no puede acceder a varios datos en el misnmo ciclo de reloj. Por esto esta memoria está desapareciendo.

SD - RAM: Como sus siglas indican (Memoria de Acceso Aleatorio Sincrona Directa) esta memoria es capaz de acceder a una celda de memoria de forma síncrona por lo que se puede acceer a varios datos en el mismo ciclo de reloj sincronizaándose con éste, y por tanto con el micro. Una variante de esta meoria es la SDRAM PC-100 que es igual excepto en que está preparada para velocidades de bus de la placa de hasta 100 Mhz. Además esta memoria es mucho más rápida que la EDO accediendo a una celda de memoria a una velocidad media de 12 ns. Actualmente son las más extendidas.

RD - RAM: Esta memoria todavía no está disponible pero a finales del 99 saldrá al mercado con algunas carácterísticas interesantes como módulos de hasta 288 Mb y acceso a celdas 10 veces más rápidas que las SDRAM.

Recomendaciones: Evidentemente después de lo que hemos visto lo más lógico es optar por memoria SDRAM puesto que es la que actualmente está más extendida. En cuanto a la cantidad, lo más lógico sería empezar con 64Mb en un módulo (se ahorra espacio) pero dependiendo de las aplicaciones a utilizar (retoque de imágenes...) se puede aumentar esta cantidad hasta 128 Mb o 256 Mb, si bien es cierto que los sistemas operativos no gestionan eficientemente más de 64 Mb. Actualmente podemos encontrarnos con estos precios:

Memorias

Modelo

Precio

DIMM 32 Mb SDRAM PC-100

5990 ptas

DIMM 64 Mb SDRAM PC-100

12900 ptas

DIMM 128 Mb SDRAM PC-100

22900 ptas

2.4. - Tarjeta Gráfica

Antiguamente (hace tres años) la tarjeta gráfica sólo era un componente asociado intrínsecamente al monitor en tanto en cuanto es absolutamente necesaria para que el monitor funcione correctamente. Pero actualmente este panorama ha cambiado de forma total ya que los gráficos tridimensionales han hecho que más de una empresa se replantee su oferta en este tipo de componentes.

Descripción: La tarjeta gráfica es el componente imprescindible para el monitor de forma que sin este componenete es imposible ver nada en el monitor. Algunas presentan la posiblilidad de entrada y/o salida TV y conexión de cámaras de video... etc. Las tarjetas presentan un conjunto de chips encargados de transformar las señales digitales que le llegan del micro en señales adecuadas que puede entender el monitor y su tubo de imagen. Así cada instrucción es decodificada para que el monitor presente una imagen sobre la pantalla. Actualmente esta función la realizan todas las tarjetas sin nigún problema y predomina las característica SVGA que es un tipo de definición de la configuración en cuanto a color, definición y otros componentes del monitor.

Aunque el monitor es el elemento más visible de cara al usuario, lo cierto es que la verdadera protagonista es la tarjeta gráfica, de cuyas cualidades o carencias dependerán en gran medida las imágenes que se muestren por pantalla. Sin embargo, en este sentido merece la pena destacar que las modernas tarjetas gráficas poco tienen que ver con lo que hace apenas un año se podía encontrar en el mercado. La situación ha cambiado de forma radical y hoy en día es difícil concebir una tarjeta que no aporte tanto aceleración 2D (clásico escritorio de Windows...) como 3D (juegos y aplicaciones de diseño) y con una memoria mínima de 8 Mb. Los precios han caido de forma radical por lo que para seleccionar una buena tarjeta deberemos tener en cuenta estos y otros factores.

Por ejemplo, la decisión entre PCI o AGP vendrá determiada casi exclusivamente por el tipo de conectores existentes en la placa base, puesto que los fabricantes ofrecen ambos modelos por un precio similar. El rendimiento, sin embargo se decanta con holgura hacia las AGP.

Por tanto, para uso general podemos decantarnos por una tajeta normal con 8 Mb de memoria y sin muchos ornamentos, pero si por el contrario el usuario pierde horas frente al último juego del mercado lo lógico es que adquiera una tarjeta 3D con unas características acordes a lo que el juego le ofrece. Si es así, existen varias tarjetas aceleredoras de las que hablaremos más adelante.

Un mito de toda la vida ha sido que a mayor cantidad de memoria gráfica instalada mayor rendimiento alcanzaría nuestra tarjeta. Esto no es cierto, puesto que aparte del procesador gráfico instalado, las claves de la velocidad de una tarjeta son su RAMDAC y el tipo de memoria empleada. La cantidad de ésta última tan solo influye en la resolución y profundidad de color que podemos alcanzar. En el mercado existen diversos tipos de memoria aunque en este apartado nos centraremos únicamente en las más habituales que se pueden encontrar hoy en día. Una de las más antiguas es la VRAM, se trata de una memoria de doble puerto, es decir, capaz de leer y escribir datos en un mismo ciclo, con el consiguiente ahorro de tiempo. Otra memoria de alto rendimiento es la WRAM también de doble puerto, pero de construcción más avanzada y económica que la VRAM (sobre un 20%). Otro tipo de memoria muy utilizada hoy en día es la SGRAM, una variante de la SDRAM y que al igual que ésta también funciona en modo síncrono, es decir, a la misma velocidad que el reloj del bus.

Otra característica común a muchas tarjetas gráficas es su capacidad de decodificar MPEGII lo que las convierte en las compañeras idóneas para los cada vez más populares lectores de DVD. Otros modelos no decodifican MPEGII pero permiten disfrutar en nuestro monitor de imágenes de televisión.

Esto es por tanto lo que nos pueden ofrecer las tarjetas gráficas aunque cada vez se superan rendimientos más altos.

Mención aparte requiere la aceleración 3D en torno a la cual se mueven grandes industrias de este segmento (Guillemot, 3dfx, Diamond, Creative Labs...).

En estas navidades los reyes indiscutibles de las fiestas han sido las tarjetas basadas en los procesadores TNT y Banshee. Ambos modelos, tal y como veremos unen a su potencia de proceso una polivalencia que las permite trabajar tanto con los juegos de última generación como con las aplicaciones de diseño gráfico más modernas pues las dos soportan el estándar OpenGL. Sin embargo la aparición de otros modelos superiores, como el ATI Rage 128, puede hacer que se tambalee la supremacía de Riva y 3dfx. Las características más importantes de los chips gráficos del momento son:

3dfx Vodoo Banshee: Presenta un único motor de texturas que solo puede generar escenas 3D en modo de 16 bits, y aunque trabaje internamente a 24 bits, mostrará una variedad cromática reducida, en juegos multitextura como Quake II. El z-buffer solo trabaja en 16 bits, lo que representa un serio handicap en aplicaciones de CAD. Las texturas están limitadas a 256x256 pixels y realiza menos variedad de operaciones de mezcla de texturas que el TNT. No soporta filtro anisotrópico, ni stencil-buffer y emula antialias como opción usuario. Soporta AGP modo 1 sin las funciones DIME (ejecución directa de texturas desde, en o hacia memoria principal), es decir, sólo mejora la tranferencia de datos. El soporte software solo incluye Direct 3D completo, GDI por software y Overlay para video (dispone de conector VESA para conectar TV-tunner o descompresores MPEGII/DVD). También soporta OpenGL.

Riva TNT: La excelencia del TNT comprende tanto velocidad como características 3D superiores a los Vodoo2 y a Banshee.El soporte AGPx2 con DIME permite habilitar memoria AGP y aplicar texturas desde y hacia la memoria principal. Puede generar escenas usando 32 bits de color y su z-buffer tiene una precisión de 24 bits acompañados por un stencil-buffer de 8 bits. Puede, por ello ejecutar aplicaciones profesionales CAD/3D aunque sólo con un número reducido de polígonos. Presenta dos unidades multitextura que trabajan en paralelo y permiten aplicar hasta 4 operaciones de mezcla por ciclo. Gracias a esto el filtro trilineal se puede realizar en un ciclo, es capaz de aplicar filtro anisotrópico y texturas de hasta 2048x2048 pixels y acepta antialiasing por hardware pero no del tipo escena completa. Debido a fallos en Direct 3D la capacidad de aplicar texturas patrón (Bump-mapping) actualmente no es operativa aunque se soporta por hardware. Adicionalmente TNT es capaz de aplicar todas las operaciones de mezcla de texturas lo que permite realizar efectos especiales inéditos.

Vodoo3: Combina las destrezas tanto del Vodoo2 como del Banshee con un aumento de la frecuencia de hasta a 180Mhz justo el doble que el TNT. Hablamos de un chip con un iniciador de triángulos que procesa hasta 7 millones de polígonos por segundo y dos motores de textura simultáneas que son capaces de llenar hasta 366 millones de pixels por segundo. Habrá dos versiones del chip (Vodoo3 2000, Vodoo3 3000). El primero funciona a 125 Mhz ofreciendo hasta 250 Mpixels/seg. El modelo 3000 será el modelo de gama alta.

Ambos modelos con su innovador RAMDAC a 350 Mhz soportan resoluciones tan elevadas como 2048x1536 a 75 Hz, pudiendo manejar señales de alta definición HDTV. Adicionalmente ahorra un 40% en la carga del micro “central” en la descompresión MPEGII y se conecta a pantallas planas mediante un chip LCDfx.

El problema del Vodoo3 es su calidad de imagen, No añade nuevas características 3D respecto a Vodoo2. Desgraciadamente las texturas siguen limitadas a 256x256 lo que obligará a los programadores a hacer un tedioso trabajo de troceado y recomposición. La renderización a 32 bits cobrará cada vez más importancia, en tanto en cuanto aparezcan juegos multipasada (5 pasadas por ciclo en el Quake III). Las tarjetas a 16 bits empiezan a sufrir pérdidas cromáticas y el resultado de la imagen es pobre. Peor es la representación de niebla volumétrica porque el resultado tiene pequeñas variaciones respecto del color base. Tampoco admite formatos de z-buffer superiores a 16 bits ni el stencil-buffer, un espacio de bits utilizado para filtrar determinadas operaciones en ciertas zonas de la pantalla. La primera ausencia causa estragos en aplicaciones tipo CAD y juegos futuros basados en NURBS. Pese a todo, su tremenda rapidez hace que estos defectos se compensen.

Como punto final a este apartado pondremios precio a esta tecnología:

Modelo

Precio

S3Trio 4mb AGP

3.900 ptas

Intel 740 8Mb AGP

6.100 ptas

Ati All-in -wonder 8 Mb AGP

19600 ptas

Aus V3200 16 Mb Banshee AGP

17.100 ptas

Creative 3D Vodoo2 12Mb AGP

21.500 ptas

3D Blaster Riva TNT 16 Mb AGP

22.885 ptas

2.5. - Tarjeta de Sonido

La tarjerta de sonido es un componente no esencial para un ordenador aunque si se quiere disfrutar de todos los sonidos que puedan emitir los juegos y otras aplicaciones hay que poseer por lo menos una tarjeta de calidad y precio medianos.

Descripción: Una tarjeta de sonido es un componente de los llamados multimedia puesto que es capaz de procesar el sonido, y eso hace que el usuario se introduzca más en el entorno de que dispone. Existen muchas tarjetas de sonidos de las que veremos sus características generales.

La tarjeta de sonido suele insertarse en una raunura de expansión tipo ISA debido a los pocos requerimientos necesarios para procesar sonido, si bien es cierto que con los avances en tecnología de estas tarjetas se ha ido migrando hacia las ranuras de expansión tipo PCI que ofrecen un mayor ancho de banda lo que implica la posibilidad de gestionar mayor cantidad de voces, sonido con alta calidad de definición... etc.

Una tarjeta de sonido normal debe tener una entrada (Line In), una salida (Line Out), un conector para el micrófono (Mic) y un dispositivo de entrada MIDI que también puede ser aprovechado para conectar un Joystick.

Algunas tarjetas traen varios efectos como sintesis Wave Table(emulador de instrumentos por tabla de sonidos) u otros pero requieren más memoria y un micro potente.

Recomendaciones: Los primeros ordenadores con audio no cosecharon grandes éxitos en el campo de la grabación, sino en dotar de una dimensión sonora a los videojuegos.

Como no es posibe ir al pasado y grabar el sonido de una batalla medieval ni los rotores de un F15 en la cabina del piloto, hubo que pensar otra forma de crear este ambiente en el ordenador. El secreto de llama síntesis, y es la operación mediante el cual un circuito electrónico crea una señal a partir de una descripción digital. Hay dos tipos de síntesis: algorítmica y descrptiva.

La síntesis algorítmica consiste en crear el sonido a partir de una fórmula. Por ejemplo, pensemos en la tarjeta de sonido como en una fábrica de gomas elásticas, en donde podemos definir la longitud de la goma y la frecuencia de oscilación. Si nos llegan instrucciones con la forma “longitud 3, frecuencia 200” haremos oscilar una goma de 3 unidades de longitud a 200 Hz. El OPL3 de Yamaha ha sido el sintetizador más extendido en el mundo del PC, debido a la normalización propuesta por la compatibilidad SoundBlaster. Lo que hace este chip es fabricar una serie de sonidos de acuerdo con una serie de instrucciones que le llegan del programa en ejecución.

Aunque la síntesis algorítmica haya sido popular sobre todo en su variante FM, está limitada por el hecho de que muchos sonidos naturales no responden a una formalución sencilla. El chirriar de una puerta no se puede describir en términos de amplitud, envolvente y frecuencia. Esto, lo vieron muy claro los fabricantes de pianos electrónicos, ante la imposibilidad de reproducir con este método el sonido de un instrumento real. Para solucionarlo, Yamaha y otras empresas desarrollaron una técnica que consistía en digitalizar el sonido real y reproducirlo a una velocidad mayor o menor que la original. Mediante este truco se obtiene una variación en la frecuencia del sonido, simulando un instrumento completo. Dicho de otra forma, si grabamos un La normal, a 440 Hz, y lo reproducimos al doble de velocidad, obtenemos un sonido con las mismas características pero a 880 Hz. Este método de síntesis sólo tiene dos inconvenientes: la gama dinámica del sonido y el espacio que ocupan las muestras.

Si reproducimos una cinta de vídeo y pulsamos la tecla de avance rápido, los personajes se mueven a más velocidad, pero el movimiento no es real, no percibimos que los personajes corran más deprisa y vemos rápidamente que es una trampa. Algo semejante ocurre con las muestras de sonido. Una muestra cuatro veces más rápida que la original no es el mismo sonido cuatro octavas más alto. Por eso, lo que se hace es realizar varias muestras del mismo instrumento con pocas notas de intervalo.

Claro, esto nos lleva al segundo inconveniente: para alcanzar una alta calidad de síntesis, tenemos que almacenar un grupo de muestras enorme en nuestra «tabla de ondas». Esta es la razón de que las modernas tarjetas de sonido lleven su propia memoria ampliable.

Hecha una pequeña introducción sobre las tarjetas de sonido, debemos preguntarnos por los formatos más utilizados:

Los ficheros WAV tienen el sonido digitalizado, ¿qué tienen los ficheros MID? Si nos ponemos puristas, los ficheros MID no existen. Es una popularización de una norma profesional para la comunicación entre instrumentos electrónicos.

Esta norma, MIDI, contempla dos cosas: un cable normalizado DIN de 5 pines para la transmisión de señales de control (nunca de sonidos), y un protocolo de comunicaciones. Este protocolo incluye instrucciones para iniciar una batería en una caja de ritmos, encender luces en un escenario al ritmo de la melodía, y ejecutar una pieza musical en un instrumento remoto. Una vez definido, es muy fácil utilizar un sistema de grabación para almacenar las instrucciones en el estudio y reproducirlas en una actuación, simplificando el trabajo de los músicos y enriqueciendo el espectáculo.

Los ficheros MIDI se grababan originalmente en secuenciadores numéricos, que existían en forma de máquinas independientes y programas de software para ordenadores. Pero, si resulta que tenemos un sintetizador FM dentro del ordenador ¿por qué no utilizamos la secuencia MIDI para ejecutar una pieza con él? Este es el punto de arranque de los secuenciadores numéricos, como el Fast Tracker, que poco a poco se ha ido alejando de la norma MIDI original. Un fichero MIDI es el que contiene instrucciones MIDI. Que éstas se ejecuten en la tarjeta de sonido es algo circunstancial, pues lo normal es que se manden por el puerto DIN a un módulo de sonidos externo.

En casi todos los ordenadores que han tenido capacidad de sintetizar sonido han aparecido formatos de secuencias numéricas para activar los sintetizadores internos: XM, MID, MOD, etc. Pero esto no es MIDI. Los programas que ofrecen comandos para combinar pistas de sonido y MIDI son «sincronizadores» o secuenciadores avanzados, que sirven para unificar el trabajo de un sistema de grabación digital (como el ordenador) con otros aparatos de síntesis, como la tarjeta de sonido, un sintetizador externo o un muestreador profesional. Una pista MIDI nunca tiene sonido, y un fichero que incluye muestras de sonido (como los MOD) no es un fichero MIDI.

No son malos ni inferiores. Sólo son una solución distinta al mismo problema. Lo que pasa es que estos ficheros no están normalizados, mientras que la norma MIDI sí lo está, y la normalización es la mejor garantía de que nuestro trabajo no quedará obsoleto en poco tiempo.

También, vamos a comentar un poco el «famoso» sonido 3D. Desde hace muchos años estamos acostumbrados a escuchar grabaciones estereofónicas, que reproducen el sonido como si proviniera de dos fuentes puntuales a nuestro alrededor. Este ha sido siempre un sistema barato y sencillo para recrear, en cierta medida, el hecho de que en la vida real el sonido nos rodea y no viene de la membrana de un altavoz.

Pero, como casi todo lo que hemos comentado, la grabación estéreo tiene sus limitaciones pues sigue sin transmitir la sensación de un origen «ambiental» de sonido.

Hay dos estrategias para solucionar este problema: el realce de frecuencias laterales y los sistemas de sonido multicanal.

La primera solución corresponde a todos esos altavoces, filtros y programas que dicen producir sonido 3D a partir de dos altavoces. Lo que hacen realmente es elevar el volumen de las frecuencias altas de la grabación, puesto que el oído está hecho de forma que recibe con más nitidez los sonidos laterales que los frontales. Por tanto, si escuchamos un sonido en el que predomina el volumen de las altas frecuencias, lo interpretamos como algo que proviene de nuestros lados, y no del frente como sucede con dos altavoces. Es un buen truco que unas empresas han resuelto mejor que otras (SRS), pero no deja de ser un truco.

La única forma que hay de conseguir sonido 3D es utilizando más canales y más altavoces.

Por último no podemos olvidar el formato MP3 que es bueno, bonito y barato.

Desde hace poco tiempo empieza a ser normal acercarnos a la mesa de trabajo de alguien y escuchar algún tema musical de fondo. Si nos fijamos atentamente, veremos que no se trata de la moda de hace un par de años de reproducir discos compactos a través de la tarjeta de audio. Ahí, en una esquina de la pantalla hay una pequeña ventana flotante que anuncia el verdadero origen del sonido. Es un reproductor de MP3, la última fiebre nacida en torno al fenómeno multimedia y que ya tiene legiones de adeptos y detractores.

MP3 es la abreviatura de MPEG Nivel 3, una de las diversas normas nacidas al amparo del consorcio MPEG para la compresión de audio en fichero multimedia. Su mayor ventaja es que reduce el tamaño de las canciones hasta una décima parte de su tamaño original, algo muy importante si tenemos en cuenta que una canción de tres minutos sin compresión puede ocupar 30 o 40 Mbytes de disco. Gracias a la compresión MP3, un disco compacto puede albergar 100 temas musicales sin ningún problema, el equivalente a 10 o 15 discos compactos tradicionales, y la reproducción es casi más cómoda en ordenadores ya que no tenemos que conectar el lector a la tarjeta de sonido.

Todas estas ventajas tienen un inconveniente y es que el formato MP3 es destructivo; es decir, que la calidad del sonido que escuchamos es inferior a la del sonido original. ¿En qué grado? Depende de muchas cosas, pero la parte del sonido sacrificada, que algunos califican de inaudible, es la responsable de ese «algo» que tienen ciertos discos.

El mayor inconveniente, sin embargo, es que hace falta un ordenador bastante potente para reproducir los ficheros sin que esta actividad afecte a nuestro trabajo. Por debajo de un Pentium a 133 MHz, es mejor no intentarlo, y conviene tener 32 Mbytes de RAM, aunque éstos, son aspectos claramente superados en nuestros días.

Puesto que el software de compresión está disponible a través de Internet, ha surgido un mercado «negro» en el que podemos encontrar cualquier tema musical comprimido por el coste de la llamada telefónica que necesitamos para bajarlo. Como todo en esta vida, el invento es bueno, pero el uso que se le da a veces no lo es tanto.

Terminamos con algunos precios de tarjetas existentes ahora en el mercado:

Modelo

Precio

SoundBlaster 64 PCI

4.500 ptas

SoundBlaster 256 PCI

23.900 ptas

Maxi Sound Home Studio II

22.900 ptas

2.6. - Modem

El Módem es el elemento esencial en ordenador para dotar a este de una nueva dimensión, la cominicación.

Lejos queda ya la época en que los locos del PC cogían el ordenador y un pequeño modem de 2400 bps y se “enchufaban” a cualquiera de los servicios existentes. Eran tiempos en los que el módem era una herramienta que nos facilitaba el acceso al mundo de las aplicaciones shareware o drivers actualizados.

Hoy la situación ha cambiado de manera radical, con el auge del correro electrónico y la explosión de popularidad de Internet (no sólo a nivel de contenido sino incluso de servicios), así como la utilización generalizada de módems de al menos 33600 bps (si bien la oferta actual se compone casi exclusivamente de modems de 56 Kbps).

Descripcón: El término módem hace referencia a un dispositivo modulador-demodulador, algo que suena complicado de entender pero que resulta más claro si simplemente comentamos que no es otra cosa que la unión de un conversor digital -analógico con otro conversor analógico - digital, o dicho de otro modo, un simple convertidor de señales. Sin entrar en más detalles de la descripción, en cuanto a su funcionamiento diremos que cuando hablamos de la velocidad de un módem nos referimos al número de bits por segundo que éste es capaz de recibir o transmitir, aunque con las úlrimas normas utilizadas se debe hacer una pequeña matización al respecto.

Cuando hace un par de años parecía que la velocidad de los módem se había estancado mediante la norma V34+, los fabricantes Rockwell y US Robotics (hoy dentro de 3Com), desarrollaron por separado los nuevos estándares, el K56Flex y el x2, mediante los cuales se pretendía alcanzar en ciertos casos la velocidad de recepción de 56 Kbps. Ambos protocolos pretendían sacar partido a las por entonces nacientes lineas digitales, sin coste adicional para el usuario final.

Recomendaciones: La diferencia de precio entre los módem de 33600 bps y los de 56000 bps es tan escasa que a lo largo del año pasado los segundos desplazaron por completo a los primeros motivando además un ajuste de precios y contribuyendo así a la verdadera explosión del mercado.

Ahora bien, la norma x2 no ha triunfado en el continente europeo y el organismo internacional ITU ha aprobado finalmente la nueva norma V.90 que hace uso de una tecnología similar a las dos anteriores permitinedo el envío de datos a 33600 bps y la recepción de éstos a 56000 bps. La razón de esta aparete anomalía se debe a la pérdida de calidad que tiene lugar cuando convertimos datos analógicos en digitales, lo que obliga a que la velocidad de envío sea más reducida, por el contrario, no tiene lugar en el procesao inverso, lo que explica la diferencia de ratios. Sin embargo tenemos que tener en cuenta que al acceder a Internet en cualquiera de sus servicios hoy en día, el flujo de información se dirige mayoritariamente desde la red al usuario, por lo que las ventajas de los módem de velocidad variable se hacen más evidentes.

Haremos aquí un inciso sobre otras tecnologías que están destinadas a sustituir al módem.

Las líneas digitalees RDSI se han popularizado de forma notable a lo largo del último año, especialmente desde el punto de vista empresarial, ya que las ventajas que suponen respecto a las líneas telefónicas convencionales son palpables.

Para empezar las líneas digitales permiten la contratación de números adicionales al número de cabecara propio de la línea, que a su vez se pueden enlazar a diferentes servicios.

Tiempos de transmisión de un fichero de 10 Mbytes

Tipo y vel. Del módem

Tipo de transmisión

P. medio al mes

Módem tradicional de 28800 bps

46 minutos

4800 ptas

Módem tradicional de 56000 bps

24 minutos

4800 ptas

RDSI 64000 bps

20 minutos

6300 ptas

RDSI 128000 bps

10 minutos

7000 ptas

Módem - Cable 1,54 Mps

52 segundos

6500 ptas

Módem - Cable 4Mps

20 segundos

8000 ptas

Módem - Cable 10 Mps

8 segundos

10000 ptas

*Los precios medios de módem tradicional incluyen 3500 ptas en conexiones + 1300 ptas mensuales de pago al servidor. No se incluye el precio del módem.

** Los precios medios incluyen 3500 ptas en conexiones + 2800 ptas de mantenimiento de línea no incluyéndose el alta del servicio ni el precio de la tarjeta RDSI.

*** Los precios medios del módem cable incluyen cuota mensual + alquiler de módem.

Por ejemplo, una línea digital podría tener dos líneas adicionales a los cuales se encontrasen acoplados respectivamente un teléfono y un fax. Además de esto, las líneas RDSI alcanzan una velocidad de transmisión sensiblemente superior a las de sus homónimas analógicas, lo que las hace sumamente atractivas para empresas o usuarios cuyas necesidades de transferencia de datos sean muy amplias.

El siguiente paso en comunicaciones lo constituyen los denominados módem -cable, capaces de transmitir, en teoría, hasta 30 Mbytes por segundo, aunque en la práctica esta cifra desciende hasta los 500 Kbps. Estos dispositivos ya están funcionando en EE.UU. La tecnología de transmisión subyacente es la televisión por cable que permite ofrecer una elevada tasa de transmisión, la conexión permanente a Internet y la posibilidad de dar servicio a múltiples usuarios y servicios por medio de una única conexión física, sin monopolizar la línea telefónica convencional ni vernos obligados a pagar por una segunda línea. Ahora bien, los módem - cable emplean una tecnología más compleja, diferente a los módem convencionales pero parecida a la que se usa en las redes locales. En este caso los disposi6tivos son moduladores- demoduladores de radiofrecuencia, que interpretan las señales que llegan a través del cable y las convierten en algo entendible por el ordenador.

Modelo

Precio

Modem fax - Voz Externo ISA 56K V90

12250 ptas

Modem Fax Zoltrix 56k Externo

10710 ptas

Modem fax - Voz Interno PCI 56K

7875 ptas

2.7. - Sistemas de almacenamiento

En el mercado podemos encontrar una gran variedad de dispositivos con capacidad suficiente para satisfacer todas nuestras necesidades, pero debemos ir con calma y revisar paso a paso toda la situación antes de lanzarnos de forma alocada a la compra de nuevo material.

Descripción: En función del tipo de uso que le demos al ordenador, la cantidad de espacio necesario variará. Por ejemplo, los infografistas, ilustradores o diseñadores gráficos necesitan grandes cantidades para almacenar imágenes; mientras que alguien que sólo use el ordenador para escribir textos necesitará bastante menos espacio.

Vistas así las cosas, y una vez que nos hemos planteado qué tipo de actividad desarrollamos, calcularemos la cantidad de aplicaciones o ficheros que seremos capaces de generar. Si comprobamos que nuestra tasa de creatividad (o, mejor dicho, de ocupación) es mínima, es posible que no tengamos que gastar mucho en nuestro sistema de almacenamiento, pero sí en algún que otro apartado, como la memoria, por ejemplo.

Por tanto, es importante comprar con lógica, haciéndose esta recomendación extensible a todos los componenets del ordenador.

Para empezar, tenemos que pensar un poco fríamente el dinero que vamos a invertir en nuestro ordenador, ya que esto se ha de hacer con el pensamiento de obtener mayor provecho de él, y por supuesto, cuanto mayor sea, mejor inversión habremos realizado. De nada sirve comprar un disco duro de 2 Gbyte si sabemos que los nuevos sistemas operativos, junto con las aplicaciones de moda, ocuparán precisamente este espacio. Sencillamente, acabamos de «tirar» el dinero, ya que nos veremos en la necesidad de comprar otro disco nuevo de forma inmediata para disponer de suficiente espacio. Por lo tanto, hay que mirar con detalle qué es lo que necesitamos y superar siempre dichas previsiones en torno a un 50%.

Si ya hemos tomado nuestra decisión de compra y contamos con todas las posibilidades económicas, ante nosotros se abre un fabuloso mundo de novedades con las que llenar nuestra sed de información. Tenemos que pensar en todos los detalles, no sólo en la unidad a compra, sino también en los cables de conexión y de alimentación, así como en su configuración y montaje.

Veremos, por tanto distintas opciones de cara a una compra adecuada:

Disco duro: El disco duro es uno de los componentes fundamentales de todo ordenador. Y no se trata únicamente de que sea el sistema de almacenamiento principal, sino que los propios sistemas operativos se sirven de él como un medio con el que mejorar su comportamiento en determinadas situaciones (memoria virtual, en la que se simula que se dispone de más memoria de la que en realidad se encuentra instalada).

La importancia de su rendimiento cobra así todo su significado, porque ¿Quién no se ha quedado mirando al monitor esperando a que su ordenador terminase de hacer alguna tarea? A pesar de que dicha situacíon se puede evitar con una superior cantidad de memoria, parece evidente que dicho tiempo sería tanto más reducido cuanto mayor fuese el rendimiento del disco duro. Ahora bien, esto plantea una cuestión fundamental y decisiva de cara a la elección de un disco duro, ¿Cómo medir de forma efectiva dicho rendimiento?. Con cierta frecuencia se tiende a asociar (erroneamente) esta medición con el tiempo medio de acceso de la unidad, suponiendo que cuanto menor sea dicha cifra, tanto mejor serán las prestaciones del disco duro. El rendimiento de un sistema de almacenamiento depende en realidad de dos factores: uno de ellos es el propio tiempo medio de acceso (varía dependiendo si es una operación de lectura o de escritura); mientras que el otro es la velocidad de transferencia (Mbytes/seg una vez localizada la información).

Dependiendo del tipo de datos con los que estemos acostumbrados a trabajar estos parámatros tendrán más o menos importancia.

Entre las distintas dudas que le surgirán al usuario, una de las más difíciles de decidir es la de dar el salto desde la tecnología IDE a la SCSI. A favor de los IDE se encuentra su precio más ajustado, tradicional baluarte que les ha permitido asentarse con fuerza en el mercado doméstico. Además, EIDE (Enhanced IDE) ha aportado un gran conjunto de posibilidades y una potencia desconocida hasta el momento, pero en su contra apararece la diferencia de velocidad.

Así, mientras que los discos IDE se han estancado (se están realizando estudios para desarrollar el FastATA2 o UDMA2 con la tranferencia de hasta 60 Mbytes/s) en los 33Mbytes/s, los discos SCSI superaron esta tasa con la llegada de UltraWide (40Mbytes/s) y posteriormente Ultra2(80 Mbytes/s). Cabe resaltar que éstas son cifras teóricas y que jamás se llegan a conseguir en la práctica. Los discos SCSI presentan otras ventajas como la posibilidad de gestionar hasta 7 dispositivos en un solo canal, y su mayor fiabilidad y robustez. Todo esto hace que SCSI siga siendo el estándar de los profesionales. Estos depositan su confianza en un sistema que durante años les ha producido beneficios, sin ningún tipo de fallos o errores externos al propio usuario.

Discos Duros IDE

Modelo

Capacidad(Gb)

TMA(ms)

RPM

Precio(ptas)

Seagate Medialist ST33210A

3,2

9,5

5400

12100

Samsumg SpinPoint SV0432A

4,3

9,5

5400

18900

Fujitsu Picobird MPC3064

6,4

10

5400

21500

Discos Duros SCSI

Modelo

Capacidad(Gb)

TMA(ms)

RPM

Precio(ptas)

Seagate Medalist ST 34520 Ultra

4,5

9,5

7200

34900

Seagate Barracuda ST UltraWide

9,1

7,1

7200

69900

Seagate Cheetah ST U2Wide

18,1

5,7

10000

119900

En la tabla adjunta se puede comprobar lo que esta nueva generación de discos duros es capaz de ofrecer y, sobre todo, que como viene siendo la tónica habitual los precios de este tipo de dispositivos descienden de forma drástica. Por lo tanto, es imprescindible conseguir la mejor relación precio/capacidad.

Grabadoras de CD: Una de las soluciones alternativas al almacenamiento de la información es la creación de CDs que contengan todos aquellos datos que son factibles de perderse o sencillamente que no van a ser alterados. De igual forma, los Cds son útiles para la elaboración de pequeñas tiradas de aplicaciones personales, la elaboración de álbumes de fotos o incluso pequeñas tiradas de aplicaciones multimedia.

En definitiva, es un producto que se orienta un poco más hacia el usuario medio o el profesional, debido a la necesidad de incorporar al equipo una controladora SCSI, si bien los últimos desarrollos realizados en el campo de la tecnología EIDE han propiciado la aparición de las primeras unidades regrabables que utilizan este tipo de BUS.

Las unidades regrabables, tal y como su propio nombre indica, son capaces de realizar copias de datos a un CD especial denominado CD-RW, pero a diferencia de las grabadoras convencionales, se pueden borrar estos datos previamente guardados. Las especificaciones marcadas para poder denominar a un disco CD-RW garantizan un mínimo de mil grabaciones/borrados de la información contenida en él.

El precio de estos dispositivos está disminuyendo de forma paulatina, pero aún no se encuentran al alcance del usuario doméstico, si bien es cierto que éste tampoco necesita de este tipo de sistemas para su trabajo cotidiano frente al ordenador. Si realmente se piensa que este tipo de dispositivos puede ayudar a conservar la información que se tiene y sobre todo, no se sale del presupuesto, es recomendable echar un vistazo a los precios de estos sistemas en cualquier revista de informática aunque aquí se incluyan algunos.

Regragadoras

Modelo

Precio

IDE Grabador Philips 3610 Kit

34900

SCSI Grabador Maxi 4x-8x Kit

45900

SCSI Grabador Yamaha 4416 Kit

49900

SCSI Grabador Plextor 8x-20x Kit

67900

Grabadoras DVD: En este momento existen disponibles dos versiones de sistemas de grabación DVD: el DVD-R y DVD-RAM. El primero de ellos es un sistema que únicamente permite la grabación de la información una sola vez y es capaz de contener un máximo de 3,95 Gbytes. El segundo caso, denominado DVD-RAM, es mucho más fléxible pero tan sólo permite almacenar un máximo aproximado de 2,5 Gbytes.

Este nombre describe los dispositivos capaces de realizar grabaciones personalizadas al igual que actualmente lo hacemos con los sistemas regrabables de CD. Una de las ventajas que aporta es que podremos realizar nuestras propias copias de vídeo e incluso recopilatorios de CD Audio. Pero aún está por ver el software que nos permita la realización de este tipo de discos.

Las grabadoras DVD-RAM han empezado a comercializarse hace poco tiempo, pero ya existen unidades por 100000 pts (un poco caro para el consumidor final). De todas formas, las primeras versiones de estos dispositivos de grabación no soportan DVD-Vídeo.

El pasado mes de enero recibimos la noticia de que un conjunto de empresas, actualmente comprometidas con el desarrollo de los sistemas DVD, han comenzado la investigación sobre la siguiente generación de DVDs. Este nuevo dispositivo, que recibe el nombre de DVD RE-E, está aún en fase de aprobación por la ECMA como estándar tecnológico.

Si todo saliera bien, Hewlett-Packard, Philips y Sony, que lideran el grupo, podrían empezar en breve plazo a producir este tipo de unidades, que con carácter abierto serán capaces de almacenar en discos de 12 cm un máximo de 3 Gbytes. Otra de las bazas con las que cuentan es que se ha cuidado especialmente la compatibilidad con los actuales sistemas lectores, para evitar un cambio traumático al usuario que acaba de adquirir su DVD.

Coincidiendo con esta presentación, Verbatim produce discos DVD desde el año pasado y ya es capaz de producir 200.000 unidades de discos DVD-RW (reescribible) y hasta 300.000 en el caso de los DVD-R. Para ello se han modificado las cadenas de fabricación que tiene en Singapur de CD-R a DVD-R..

Sistemas magnéticos: Este tipo de dispositivos se están popularizando en gran medida, y como muestra de ello tenemos la conocida unidad Zip de Iomega, un pequeño disco en el que es posible almacenar hasta un máximo de 100 Mbytes. También existe la unidad Zip Plus, cuya diferencia clave con su antecesor radica en que es una unidad externa con la posibilidad de ser conectado a ordenadores con SCSI o con puerto paralelo (ambos conectores en la misma carcasa).

A la posibilidad de comportarse como una unidad multiplataforma se le añade una cuota de unidades ya instaladas muy elevada. Y otro de los grandes avances de Iomega es la creación de un nuevo formato, el Iomega Click. Con este nuevo concepto del almacenamiento de la información, Iomega pretende condensar un total de 40 Mbytes de datos en un disco de tamaño inferior al de la palma de la mano.

Del mismo fabricante, tenemos el denominado Jaz2, capaz de almacenar un máximo de 2 Gbytes de información en un disco de similares características al que utiliza en estos momentos su hermano pequeño. Por supuesto, la compatibilidad con el antiguo formato queda garantizada, con lo que toda la información que tengamos podremos seguir utilizándola con las unidades Jaz2.

Otra de las alternativas para el almacenamiento masivo de información nos llega de la mano de SyQuest, una prestigiosa empresa que está luchando continuamente por ofrecer productos nuevos. En este momento, su abanderado es la unidad SparQ, capaz de gestionar hasta un «giga» de información, y que se sitúa en clara liza contra el Jaz. En este modelo encontramos dos puntos fuertes como ventaja con respecto a su cercano competidor: la posibilidad de conectarlo a través de puerto paralelo y al propio controlador IDE; y el coste de los cartuchos, situado por debajo de la mitad del precio de los de las unidades Jaz.

De esta última casa nos queda por comentar un producto que está atrayendo una gran atención, y que puede considerarse el competidor directo del conocido Zip. Así, el EZ-Flyer es un sistema doméstico de almacenamiento, capaz de proporcionar un total de 230 Mbytes de espacio total, mediante cartuchos intercambiables.

Otro serio competidor que nos encontramos en el mercado actualmente es la unidad LS120 de Imation (empresa del grupo 3M), que es capaz de almacenar hasta un total de 120 Mbytes, con un precio realmente ridículo. Su conexión con el PC se realiza como si de otro dispositivo IDE se tratase. Eso sí, requiere utilizar BIOS de sistema actualizadas para poder aprovechar al máximo las capacidades de esta unidad.

Sistemas de Backups: Una serie de dispositivos de los que hoy en día no solemos escuchar muchas novedades son las cintas de backup, sistemas de bajo coste para el almacenamiento de «réplicas» de información. Existen distintos modelos y precios, entre los que destacan los producidos por Colorado Memory System (empresa propiedad de Hewlett Packard) con el nombre de Travan. Estas unidades ofrecen capacidades de almacenamiento entre los 3,2 y los 8 Gbytes de información.

Hewlett Packard ofrece tanto unidades externas para conectar al puerto paralelo como la familia orientada a los profesionales, que disponen en su equipo de una controladora SCSI o pueden permitirse el adquirir una. De todas formas, y a un nivel profesional, podemos optar por las más que eficaces unidades DAT, basadas en el almacenamiento digital de información en cintas magnéticas de reducido tamaño.

El rival que planta cara a esta gran empresa es Iomega, que con sus unidades Ditto ha conseguido acaparar una gran parte de los usuarios domésticos habitualmente ligados a HP. Las soluciones ofertadas por Iomega alcanzan capacidades comprendidas entre los 3,2 y los 10 Gbytes, con la ventaja de que al mismo nivel de eficacia sus productos son más baratos.

Lamentablemente, una de las grandes pegas que nos encontramos ante este tipo de periféricos es que la información que guardamos en ellos se almacena de forma secuencial y no podemos acceder a la información que deseemos a no ser que leamos toda la cinta.

Aparte de estos sistemas de almacenamiento, tenemos otras soluciones, como los magneto-ópticos tradicionales, que se emplean para la trasferencia de grandes volúmenes de información. Existen distintos tamaños que abarcan todas las necesidades de cualquier usuario; que comienzan en los 128 Mbytes y llegan hasta los 640. Sin embargo, uno de los grandes inconvenientes de este tipo de dispositivos para el usuario doméstico estriba en la necesidad de tener instalada una controladora SCSI.

Recomendaciones: Una vez que tenemos delante de nosotros este gran abanico de posibilidades, llega el momento de la reflexión. Y dado que necesitamos alguno de estos dispositivos, hemos de buscar la forma de que ésta no sea traumática y nos proporcione unos resultados excelentes.

En principio, debemos partir de la premisa de que «los dispositivos SCSI están reservados a usuarios medios o profesionales». Si estamos dentro de este grupo, muy bien, pues ya hemos visto las distintas alternativas existentes, con lo que podemos enfrentarnos a una decisión de compra desde el punto de vista de una persona experimentada.

Para los usuarios del sector doméstico, las soluciones más eficaces se deben meditar en función de nuestros deseos. Centrados ya sobre esta decisión, podemos optar por un sistema interno o externo, un disco duro o algo removible, que a su vez nos permita llevarnos la información a otro lado.

Si realmente queremos disponer de un lugar en el que almacenar datos para mucho tiempo, resulta interesante el utilizar una grabadora, aunque su precio resulta aún un tanto elevado. Si es prioritario el tener una copia de nuestros datos más importantes, nos lanzaremos a la elección de un dispositivo de cinta, ya que su bajo precio lo coloca como líder para este tipo de operaciones.

En definitiva, que cada vez resulta más clara la elección del usuario, puesto que se va dirigiendo de una forma directa hacia la solución idónea. Como ya es habitual en este tipo de compras, la capacidad de almacenamiento del dispositivo viene marcada por el nivel adquisitivo que se tenga en el momento de la decisión.

Dispositivos ópticos: Hasta hace relativamente bien poco, añadirle al ordenador características multimedia significaba poco más que enchufarle un lector de CD-ROM y una tarjeta de sonido, conectándole inlcuso los altavoces de nuestro radiocasete portátil.

Sin embargo hoy en día la oferta es más amplia, comenzando por el propio microprocesador, que como hemos visto, integra en su propio núcleo la esencia básica de las instrucciones multimedia (MMX, MMX2 o 3D Now). Después de éste, nos encontramos con el clásico CD-ROM, con el más reciente DVD, con tarjetas de sonido de hasta 128 voces, y altavoces profesionales con sonido envolvente.

En general, este tipo de compra va más orientado a estimular nuestros sentidos con un mundo de sensaciones audivisuales, por lo que su adquisición vendrá dictada por algún capricho o por el deseo de disfrutar mejor de algunos tipos de aplicaciones.

La base de todo sistema es la utilización de un sistema de almacenamiento masivo de gran capacidad, lo que motivó ya hace varios años la explosión del CD-ROM. El camino recorrido en tan poco tiempo es impresionante, puesto que de los 150 Kbytes por segundo que eran capaces de transferir las primeras unidades se ha pasado a velocidades superiores hasta en 36 veces, es decir, a unos 5,4 Mbytes; mientras que los precios han descendido un orden de magnitud de 10.

Sobre este dispositivo no nos extenderemos más de forma que podremos prestar mayor atención a su sustituto. El futuro del CD-ROM como dispositivo multimedia fundamental aparece en entredicho ante la llegada del que ya se perfila como su seguro sustituto, el DVD o (Digital Versatile Disc) o DVD-ROM.

Por todo esto podemos decir que ha llegado el momento en el que podemos disfrutar en nuestro hogar de las películas tal y como las vemos en el cine, incluyendo la alta calidad de sonido de la que hacen gala actualmente.

Cierto es que llevamos casi dos años oyendo hablar de las excelencias del DVD; que el pasado 1997 comenzamos a ver los primeros lectores de este formato; que en el mercado hay tanto kits domésticos como sistemas para el hogar; pero no termina de encajar. Sí, tenemos un sistema muy eficaz, pero si no disponemos de títulos que exploten las características de este tipo de dispositivos no habremos conseguido nada.

Esta situación ha cambiado este mismo año, ya que multitud de empresas están lanzando al mercado todo tipo de productos para los lectores DVD.

El primer y más esperado lanzamiento ha sido el del vídeo doméstico ya que, es uno de los grandes pilares de esta tecnología. Podemos ver nuestras películas favoritas con una calidad idéntica a la ofrecida en las salas de cine, manteniendo su formato gráfico y un sonido excepcional, aunque para este último apartado resulta necesario adquirir un equipo opcional.

Ya se cuentan por miles las producciones en el mercado internacional de DVD, con lo que podemos ver claramente que la variación con respecto al pasado año se ha incrementado en casi un 200%. Y eso que tan sólo llevamos pocos meses del año.

Empresas como Warner, Sony y Disney, representantes del gran mercado del vídeo doméstico, están realizando grandes inversiones en la adaptación de sus títulos actuales a la nueva plataforma DVD. Realmente el coste de esta adaptación no debe de ser excesivo, ya que consiste en realizar un master en formato DVD con sus propias películas originales y añadir a él el resto de bandas de audio que sean necesarias en función de la «zona» elegida.

Este título de «zona» viene impuesto por el conjunto de empresas que han elaborado el estándar DVD y han dividido el planeta en partes, asignando un número determinado a cada una de ellas. Si obtenemos una película cuyo código de «zona» no coincida con el nuestro, nos será imposible el reproducirlo en nuestro ordenador o DVD vídeo, por lo que tenemos que prestar especial atención para ver que el distintivo de «zona» sea la Europea (definida como 2)

El de los juegos es otro de los sectores que aprovechan de forma inteligente la gran capacidad de los DVDs, al poder englobar en un solo disco el contenido de los cuatro o cinco CDs que actualmente ocupan sus programas. También se podrán introducir secuencias de vídeo real mucho más largas y a la vez de mejor calidad, sin tener que requerir unos procesadores muy potentes para poder reproducirlas.

Existen diversas empresas que ya han lanzado al mercado títulos en este formato, como por ejemplo Origin, que utilizan el formato DVD para contener secuencias de vídeo de mejor calidad. Un claro ejemplo de esta tónica la encontramos en Wing Commander IV, edición DVD, incluido por ejemplo en el kit de Creative y que utiliza en profundidad la potencia del DVD para contener los cuatro discos originales del programa, o la aparición de Encarta 99 en formato DVD, con atlas incluido.

Como inciso diremos que por mucho que nos empeñemos en decir lo contrario, uno de los productos más comercializados en cualquier clase de plataforma, vídeo, Laserdisc, VideoCD y ahora en DVD son las producciones de carácter erótico y pornográfico. Buena muestra de ello lo representa la empresa Vivid Interactive, que desde el año pasado ha estado lanzando títulos en este formato y actualmente cuenta con más de 20 películas disponibles en su catálogo y la elaboración continúa.

¿Cambiar CD-ROM por DVD- ROM?

Uno de los aspectos que más aterroriza a la hora de cambiar nuestro querido lector CD por el flamante DVD, es la posibilidad de que no sea capaz de reconocer los discos que habitualmente utilizamos o los que nos hemos creado. Bien, ha llegado el momento de comentaros que esto no es problemático, aunque varía en función del tipo de DVD escogido.

La mayoría de los lectores DVD soportan todos los formatos actuales de CD, incluidos el CD-R(discos grabados) y los CD-RW (regrabables con soporte UDF), aunque nos hemos encontrado excepciones que no soportan estos dos últimos formatos.

Debido a que el tamaño del punto de datos de la superficie del disco es mucho más pequeño que el empleado en los convencionales lectores CD-ROM, hay que utilizar un haz láser de mucha mayor precisión. Según el tipo de láser empleado podremos acceder a la totalidad de los discos disponibles o no. El acceso a los discos estampados normales resulta transparente para todos los lectores. Si deseamos acceder a los datos almacenados en un CD-R tendremos que disponer de un sistema de láser dual, un haz para cada tipo.

El caso de los discos CD-RW es un poco distinto, ya que el diseño del DVD se ha realizado contando con que serán el estándar, así que su compatibilidad es directa. Además de la posibilidad de acceder a nuestros programas en los CDs convencionales, se ha tenido en cuenta la necesidad de reproducir discos de audio (CD-DA) como si de un lector normal se tratase.

E incluso la reproducción del clásico VideoCD establecido por Philips es posible con muy pequeños añadidos, ya que al fin y al cabo se trata de datos en formato MPEG-1. Aunque hay fabricantes como Toshiba que no han implementado esta posibilidad, existen distintas aplicaciones software que permiten acceder a los datos y por tanto reproducirlo. El soporte de CD-i no está implementado, aunque Philips ha anunciado su intención de lanzar un DVD compatible con este formato.

Tal y como hemos indicado, el DVD es uno de los pilares de los nuevos sistemas de vídeo digital, ya que para completar las tareas de descodificación necesitamos un ordenador capaz de manejar el estándar MPEG-2. No todos los ordenadores vienen equipados con este tipo de tecnología, porque la incorporación del sistema de descompresión es relativamente caro y complejo.

Pero para que comprendáis cuál es la base de toda la arquitectura de comprensión del DVD, tenemos que comenzar entendiendo que MPEG es el estándar en sistemas de compresión de datos. Gracias a estos algoritmos de compresión podemos convertir sonidos y películas a un archivo en un formato de fácil transferencia, ya que su tamaño es considerablemente inferior a los datos originales.

El primer estándar utilizado, que recibe el nombre de MPEG-1, es capaz de reproducir vídeo y audio a una velocidad de 150 Kbytes/s (similar a la velocidad de los CD-ROM 1x). Para ello, se encarga de analizar las distintas imágenes de la secuencia de vídeo y almacenar solamente las diferencias ocurridas entre las imágenes.

Lamentablemente la calidad proporcionada por este tipo de técnicas era aceptable para TV pero no para cine, con lo que la investigación continuó hasta llegar a la creación del denominado MPEG-2. Este estándar sigue proporcionando un nivel de compresión muy elevado, ofreciendo una calidad de imagen similar a la de los conocidos laserdisc y una sonido de calidad CD. De hecho, este es el sistema elegido para la retransmisión de programas vía satélite y DVD.

Aparte del hardware de descompresión de vídeo necesario para acceder al contenido del DVD, tenemos que utilizar unas aplicaciones específicas que sean capaces de reconocer los códigos regionales. Estos códigos permiten la reproducción de las películas encriptadas y con protección anti-copia.

Se ha calculado que entre un 10% y un 30% de los ordenadores que se vendan con DVD incluirán una tarjeta específica de descompresión hardware. El resto de los sistemas utilizarán un sistema de descodificación MPEG-2 basados en software, con lo que los usuarios que posean un equipo de proceso rápido podrán disfrutar de estas películas sin invertir en una tarjeta dedicada.

Si importante es la calidad de la imagen obtenida en la descompresión de la información, igual de importante es la fidelidad con la que podamos reproducir los distintos sonidos que acompañan al vídeo. Entre las distintas opciones que ya hemos comentado de diferentes idiomas (hasta ocho) podemos disfrutar de una claridad de sonido excepcional y, sobre todo, sentirnos rodeados por él.

Para disfrutar de una calidad de sonido excepcional, la conocida empresa de sonido Dolby desarrolló en el año 1995 su proyecto de sonido digital con calidad broadcast, que actualmente ha evolucionado y desde 1997 se utiliza en los sistemas DVD. Esta tecnología, denominada Dolby AC-3, se desarrolló pensando en la necesidad de procesar sonido desde distintas fuentes de generación, con una velocidad muy alta y sobre todo dejando una puerta para necesidades futuras.

Por tanto, lo más significante del Dolby Digital es la combinación de una alta calidad de sonido con un destacable ratio de eficacia. Gracias a su alta compresión, podemos disponer de un canal surround en el mismo espacio que ocupa una pista de sonido convencional en un CD. La verdadera potencia del sonido Dolby digital la encontramos cuando realmente disponemos de un sistema de reproducción apropiado, compuesto de: canal izquierdo, canal derecho, altavoces centrales frontales, altavoces surround laterales y un subwoofer.

Gracias al preciso control de la señal de sonido, que se ha codificado en función del altavoz que se encargará de repetir la señal, podemos controlar en todo momento el lugar desde el que se emitirá el sonido. Como es lógico pensar, para recuperar toda esta calidad es necesario disponer de un equipo apropiado. La mayoría de los sistemas DVD convencionales incorporan un descodificador de AC-3, que colocan en la salida de señal analógica, pero poco más.

Por tanto, si queremos conseguir oír el mismo sonido que el que tendríamos en una sala de cine convencional, necesitamos adquirir aparte del propio lector DVD y la descodificadora MPEG un sistema descodificador Dolby. Este equipo no resulta nada trivial, ya que junto con el equipo deberemos adquirir todo el conjunto de altavoces necesario, con lo que el típico precio de 45.000 pesetas de un kit de DVD para nuestro PC se puede elevar considerablemente.

Un descodificador de Dolby Prologic, que no nos proporciona toda la calidad del sistema DVD, puede costarnos aproximadamente 40.000 pesetas; a esta cantidad hay que unir el coste de los altavoces, que puede ser de 6.000 pesetas. Si pensamos que debemos adquirir un total de cuatro, aparte de los dos que tengamos convencionales, podemos ver cómo el coste de todo el conjunto se nos ha puesto en las 114.000 pesetas.

Recomendaciones: Antes de decidiros a comprar uno u otro de los modelos, procurad que os hagan una pequeña demostración, seguramente tendrán algún equipo configurado con todo el sistema ya montado. Pensad en la posibilidad de adquirir un kit completo si no vais a tener una tarjeta descompresora en un corto plazo de tiempo, ya que si no, no podréis disfrutar del vídeo a pantalla completa.

Otra consideración final, con la implantación de las especificaciones PC 99, las nuevas tarjetas gráficas vendrán dotadas de añadidos que potenciarán las mismas. Entre estas nuevas opciones se encuentran la salida compuesta de vídeo para televisión y descompresión de vídeo MPEG-2 para los DVD.

Dispositivos ópticos

Modelo

Precio

CD-ROM Creative 36x IDE

6630 ptas

CD-ROM 40x 40x IDE

8580 ptas

CD-ROM Plextor 40x SCSI

14400 ptas

DVD Hitachi 4x

17190 ptas

DVD Pionner 6x

20000 ptas

3. - Componentes externos

A

hora pasaremos a describir los componentes externos de un ordenador que también son importantes a la hora de realizar la compra de éste. Tan importante es un monitor o una impresora como periféricos de salida como no hay que olvidar el ratón, el teclado, altavoces o escáner. En definitiva, ahora nos interesa todo lo que podemos ver de un ordenador desde fuera.

3.1. - Caja

Descripción: La caja es la que da cabida a practicamente todos los componentes internos de un ordenador. En ella se sitúa la placa base sujentándose con unos tornillos a dicha caja. Apartir de ahí los componentes internos irán insertados en distintas ranuras específicas para cada uno. Actualmente las cajas vienen encajadas, es decir, los laterales se desencajan para proporcionar un mejor acceso a los componentes insertados en la placa base, aunque suelen atornilladas por detrás. El la parte anterior presenta los clásicos botones de arranque, reinicio y dos leds indicadores de encendido y de actividad del disco duro. También asoman las partes delanteras tanto de la disquetera como del CD-ROM aunque cada caja presentará un diseño.

En la parte posterior se observan las salidas de todas las tarjetas que las tengan así como las salidas de la placa base. Así nos encontraremos con las salidas de la tarjeta de sonido; Line in, Line out, Mic y/o Surround.

De la tarjeta de video debe estar una clavija para conectar el monitor y pueden estar salidas como TvOut, S/Pif (compuesta de video) entre otras.

En cuanto a las salidas de la placa base, ya comentamos que éstas constan de 2 puertos USB, 1 pueto paralelo, 2 puertos de serie, y dos salidas PS/2 para el ratón y/o el teclado.

Recomendaciones: El elemento más importante de la caja sin niguna duda es la fuente de alimentación en la cuál se basa el componente eléctrico de los componentes que hay dentro. Ésta suele ser de 230W en las cajas ATX (para placas ATX) lo que significa que es capaz de soportar hasta esa potencia. Aún así, mucha sveces la electricidad que viene por el cableado no es de calidad dando saltos en cuanto a su intensidad lo que contribuye a su lenta degradación. Si al comprarnos el ordenador vivimos cerca de una estación de didtribucíon, generador o polígono industrial (que suelen necesitar muvha potencia en Watios) es recomendable adquierir un SAI (estabilizador de corriente que asegura la entrada correcta de electricidad en el ordenador y actúa de condensador asegurando así un flujo seguro aún cuando no exista corriente eléctrica.

Cajas

Modelo

Precio

Caja Semitorre 230W ATX

5900 ptas

Caja Semitorre 235W ATX

8580 ptas

Caja Gran Torre 235W ATX

14400 ptas

3.2. - Monitor

Los monitores son fundamentales hoy en día para la visualización de la información en pantalla y constituyen el principal periférico de salida de un ordenador. Toda la información generada por el ordenador se muestra en el monitor.

Descripción: Actualmente existen dos tipos de monitores en el mercado que son los que predominan: los del tipo CRT (tubo de rayos catódicos) y los LCD (cristal líquido). A estos últimos les dedicaremos un poco más de tiempo ya que son el futuro, y además los CRT se asemejan bastante en composición que no en funcionamiento a un televisor.

CRT: son los monitores clásicos dentro de la informática y su característica principal en que son asequibles. Estos monitores, al igual que los LCD necesitan de la ayuda de la tarjeta gráfica para mostrar todas sus cualidades a pesar de que en las placas modernas existen chips que hacen funcionar al monitor sin necesidad de tarjeta, si bien esto se produce a resoluciones escasas.

LCD: son más conocidos como monitores planos y de ellos vamos a hablar más en detalle debido a la novedosa tecnología que implementan.

Descripción: Hasta hace poco era incuestionable que las pantallas LCD tenían una penetración bastante escasa con respecto a los monitores convencionales (CRT), sus aplicaciones eran limitadsas y sus precios prohibitivos. Afortunadamnte, el desarrollo de tecnologías TFT no sólo ha provocado un abaratamiento de costes sino que ha permitido aumentar su presencia en mayores campos de actividad, y por consiguiente ha logrado situarse en clara competencia frente a los CRTs. En cierta manera la pelea por aumentar cuota de mercado, se inició cuando de apostó por un tamaño de pantalla mayor (14, 15 pulgadas) al tiempo que se mejoraron las resoluciones desde 800x600 en XGA hasta 1024x768 en SVGA. En este punto es importante recordar que un monitor TFT de 15 pulgadas equivale a uno CRT de 17.

Pasemos a explicar en que consiste esta tecnología para saber con que vamos a tener que enfrenternos en un futuro.

Este tipo de pantallas se basa en la tecnología LCD (Liquid Crystal Display). Fundamentalmente, se compone de cristales líquidos, es deicr moléculas en un estado híbrido líquido-gaseoso denominado “isotrópico” que se distribuyen entre dos filtros polarizados (en el caso de los monitores) sin ningún orden aparente. Ambos filtros se ubican uno enfrente del otro pero no de forma totalmente simétrica sino que uno mantiene un viraje de 90 grados con respecto a su eje tranversal, esto es lo que se conoce como tecnología Twisted Nematic (TN) y se aplica a las pantallas de LCD activo. Si hicieramos pasar un haz de luz a través de los dos filtros se observaría como los cristales líquidos de giran formando una espiral.

En los sistemas de matriz pasiva no se puede aplicar la tecnología TN, ya que sería muy difícil controlar el contraste que se produce entre las distintas líneas, por lo que se aplica la tecnología Super Twisted Nematic (STN), que consiste en girar el filtro situado en la parte anterior 270 grados con respecto al posterior. Internamente la luz pasa por el polarizador y “golpea” a la molécula de cristal líquido para que esta reoriente la luz en el ángulo de orientacíon de las moléculas. De esta forma, cuando la luz alcanza el polarizador frontal, que se encuentra virado (como ya se ha comentado anteriormente), está en la posición correcta y en disposición de ser visionada de forma correcta por el usuario que estará al otro lado del frontal.

Al igual que la luz sigue la orientacíon del cristal en su rotación para que se puedan ver las imágenes en la pantalla, al aplicar un campo eléctrico entre dos filtros polarizados anterior y posterior logramos que la luz quede alineada con un ángulo de 90º con respecto al filtro, de aquí que no pueda pasar la luz al observador y la pantalla quede en negro.

Pero todo esto solo produce imágenes en blanco y negro, para obtener color la luz que pasa debe ser filtrada nuevamanete utilizando unos filtros de colores. Para ello cada pixel está constituido por 3 subpixels con los colores rojo, verde y azul. En función de las imágenes que se vayan a representar por pantalla se aplicarán unos determinados voltajes a cada uno de los subpixels consiguiendo de esta manera el tono de color deseado. Es decir, el punto que vemos está realmente formado por tres niveles de transparencia del cristal líquido que al pasar por los filtros y estar tan sumamente juntas, nuestro ojo las percibe como si de un solo punto se tratase.

Con respecto al control de las células LCD, distinguimos entre matriz activa (AMLCD) y pasiva (PMLCD relacionada con STN). En el segundo caso las células individuales están controladas por una matriz tipo cuyos electrodos están distribuidos en líneas y columnas. Esto significa que cada célula individual solo es activada por un impulso electrico durante toda la representación de la imagen en la pantalla, como las células no están bajo voltaje, el cristal líquido debe ser suficientemente activo como para prevenir el corte de la señal y así evitar las perdidas de contraste y el efecto de parpadeo. Una solución que se ha aplicado con tal de evitar tales parpedeos es fraccionar el display en dos mitades horizontales (Dual Scan Display) para aumentar el tiempo de permanencia de la imagen en pantalla. No obstante, también se puede duplicar la frecuencia con la que la célula es activada para obtener el mismo beneficio.

En el caso de la matriz activa (TFT), cada célula es activada por una delgada película de trasistores localizada en una lámina de cristal posterior, la cual contiene información para la célula correspondiente. De esta manera cabe la posibilidad de utilizar más rápidamente los cristales líquidos dando como resultado un mejor contraste, la ausencia de parpadeo, y un tiempo más corto de respuesta.

Recomendaciones: Indudablemente a la hora de plantearnos la adquisición debemos tener en cuenta las tendencias del mercado con respecto a estos periféricos.

De momento el mercado de pantallas TFT está centralizado en la mejora de los portatiles, pefeccionando la calidad de la imagen que se le proporciona a éste e incrementando el tamaño del display. En cuanto al segmento de sobremesa hay que decir que aunque se han mejorado mucho las prestaciones de los LCDs, siguen sin llegar a ofrecer las posibilidades de los monitores CRT. Es decir, las pantallas están hecha para trabajar a una resolución fija, cantidad que en los modelos analizados se situaba en los 1024x768. De hecho, si obligamos a las mismas a trabajar fuera de resolución perderemos calidad de imagen.

Por otro lado la imagen que ofrece este tipo de dispositivo de cara al público es innovadora y espectacular.

Otro aspecto novedoso, que potencia la venta de estos periféricos en empresas es el ahorro que se consigue frente a los CRTs, puesto que al ser menos voluminosos calientan menos el ambiente y se ahorra energía con el aire acondicionado, además su consumo es menor.

En resumen se puede hablar de que la tecnología aplicada a este tipo de pantallas ya comienza a plantar cara de manera seria a los monitores CRT. Esto significa que en pocos años los CRTs acabarán siendo sustituidos por la tecnología LCD.

Monitores

Modelo

Precio

Nokia 15 ” CRT

32900 ptas

Philips 107-S 17 ” CRT

53500 ptas

Sony 400 PST 19 ” CRT

124500 ptas

Philips 15 ” LCD

152500 ptas

Nec 15 ” LCD

169900 ptas

3.3. - Altavoces

¿De que sirve la mejor tarjeta de sonido del mercado, si en nuestro ordenador no tenemos altavoces?.

Aunque pueda parecer una pregunta absurda, lo cierto es que muchos usuarios cuentan con una tarjeta de una calidad muy alta, pero la están infrautilizando a través de unos altavoces que, que ni por asomo son capaces de reflejar toda la calidad de sonido que ésta ofrece. Por ello, debemos ser conscientes en primer lugar de que se hace necesario el uso de unos altavoces equiparables a las prestaciones de nuestra tarjeta.

Descripción: Actualmente existen bastantes ejemplares que cubren la oferta más común que existe en el mercado. Se trata de modelos que van desde lo más sencillo (una pareja de altavoces estéreo), hasta el más complicado sistema de Dolby Digital, con nada menos que seis altavoces, pasando por productos intermedios de 4 o 5 altavoces. Sin duda alguna, se nota prefectamente el esfuerzo que todos los fabricantes han realizado para ponerse al día en esta tecnología, ya que en poco tiempo han incorporado a su tecnología desarrollos basados en Dolby Surround o Dolby Digital.

De esta forma, los modelos que reúnen éstas características se convierten en un sistema muy completo y eficaz, para la representacíon real de sonido.

Los más avanzados constan de 4 alltavoces (2 delanteros y 2 traseros) de reducido tamaño, otro más central para los diálogos y un último altavoz mucho más voluminoso que se encarga de realzar las fuerzas de los graves. Hasta aquí todo parece indicar que se trata de otros juegos de altavoces cuadrafónicos. Pero la diferencia principal de estos sistemas es que incorporan un descodificador Dolby Digital, mediante el cual, podremos ajustar los volúmenes de cada juego de altavoces, así como aplicar diferentes filtros de sonido en funcíon del tipo de sonido que estemos reproduciendo en cada momento (música, película...etc). Para sacar partido de estos altavoces es necesario que nuestra tarjeta de sonido cuente con una salida S/PDIF de Dolby Digital ya que a través de ésta es desde donde los conjuntos de altavoces toman el sonido.

La desventaja de este tipo de unidades suele ser la calidad de las mismas. Teniendo en cuenta el precio de este tipo de conjuntos, en el que se incluye un aparato decodificador, la calidad de los 6s altavoces no puede ser especialmente buena, aunque para un uso casero resulta más que válida. Otra cuestíon es la potencia. Tratándose de altavoces pequeños y baratos no conseguirán una fildelidad de sonido muy grande a poco que la habitación tenga un tamaño medio.

En cualquier caso los equipos basados en Dolby Digital son muy escasos por el momento y debemos recurrir a equipos grandes si deseamos una calidad de sonido suficiente y por tanto será inevitable gastar una cantidad de dinero bastante importante. La opción que si está más extendida por el momento son los altavoces cuadrafónicos convencionales que suelen contar con el apoyo de un subwoofer. Así mismo, por regla general, cuentan con dos altavoces traseros, los cuales comparten un mismo canal de sonido y por tanto no existe sonido estéreo en la parte de atrás. Aún así, para valorar un sitsema de altavoces no sólo debemos atender al número de canales o salidas sino también a la calidad de los mismos. Es importente que soporten una cierta potencia y que las unidades encargadas de gestionar las altas frecuencias (sonidos agudos) sean de calidad, ya que en ellas se encierra el secreto de la calidad.

Pero ¿Qué son Dolby Prologic Surround y Dolby Digital?

Los dos sistemas se apoyan en una disposición de altavoces similar, diferenciándose en la forma de manejarlos, lo que demuestra claramente que el sistema Dolby Digital es una evolucíon del otro.

La primera tentativa de sonido envolvente fue denominada Surround y estaba basada en la utilización de 4 altavoces y un subwoofer, con lo que la sensación de sonido a nuestro alrededor era mayor que antes. Lamentablemente, el sonido que teníamos a nuestra espalda era el mismo que teníamos al frente pero con un pequeño retraso lo que producía la sensación de que el sonido nos atravesaba desde delante hacia detrás. Pero este sistema ha sido notablemente mejorado para controlar de forma independiente cada altavoz.

El sistema Dolby Surround se encuentra actualmebnte en su versión 5.1 (empleada en DVDs). Este, ha conseguido implantarse de forma masiva en muchos de los equipos de música domésticos dado que ofrecen una calidad de sonido bastante buena con un coste realmente reducido. Basicamente se trata de un sistema de 5 altavoces apoyados por un refuerzo de graves, separados en un total de 4 canales de sonido. La separación entre estos canales se realiza mediante un sofisticado procesador que separa a partir de una señal de audio, los sonidos dirigidos a cada altavoz en función de la posición de procedencia.

De cara a solucionar las limitaciones de este sistema se creó el Dolby Digital AC-3 o Dolby Digital. Este sistema se distingue del anterior por un hecho que aunque simple supone un cambio absolutamente radical: su inteligencia.

Estos sistemas cuentan ya con un procesador capaz de gestionar el sonido inteligentemente. Dicho procesador se encarga de separar el sonido de los 5 altavoces y, en este caso, envía una señal distinta a cada uno de ellos, de modo que hasta en los altavoces posteriores el efecto estereofónico es completo. Además el sonido enviado a los altavoces traseros no es el mismo que el de los delanteros sino que es uno distinto que permite hasta situar objetos detrás de nuestras cabezas. También se posibilita la conexión de un altavoz de graves que se encarga de potenciar los sonidos de baja frecuencia para conseguir verdadera credibilidad.

El aspecto negativo de esta opción es el precio. No sólo debemos adquirir un sistema de 5 o 6 altavoces sino que debemos pagar por un procesador de señales digitales que se encargue de repartir el sonido.

Para terminar vemos una tabla con las opciones más actuales:

Fabricante

Potencia

Satelites

D.Digital

D.Suround

Precio

Crative Labs

19W/6.5W

5

Si

Si

37845

Guillemot

30W/10W

2

No

No

22405

Microsoft

80W/32W

2

No

No

34474

Philips

600W/30W

2

No

No

10284

Philips

600W/30W

2

No

No

23190

Zoltrix

600W/60W

2

No

No

-

Zoltrix

300W/60W

2

No

No

-

3.4. - Impresoras

De todos es sabido que existen varias tecnologías de impresión y por tanto varios tipos de impresoras, pero aquí sólo vamos a tratar la tecnología de inyección debido a que las impresoras matriciales no ofrecen tanta calidad (aunque si más velocidad) y las láser suelen escaparse del presupuesto doméstico.

La tecnología de inyección a tinta es la que ha alcanzado un mayor éxito en las impresoras de uso doméstico o para pequeñas empresas, gracias a su relativa velocidad, calidad y sobre todo precio reducidos, que suele ser la décima parte de una impresora de las mismas crácteristicas. Claro está que hay razones de peso que justifican éstas características, pero para imprimir algunas cartas, factiras y pequeños trabajos, el rendimiento es similar y el coste muy inferior.

Hablamos de impresoras de color porque la tendencia del mercado es que la informática en conjunto sea en color. Esta tendencia empezó hace una década con la implantación de tarjetas gráficas y monitores en color.Todavía podemos encontrar algunos modelos en blanco y negro pero ya no son recomendables.

Las impresoras de inyección cuentan a favor con elementos como el coste, tanto de adquisición como de mantenimiento, la sencillez de manejo y el tamaño. En contra tenemos su escasa velocidad y calidad frente a otras tecnologías.

Descripción: Empecemos por el coste, considerando tanto el de compra como el de mantenimiento a lo largo de la vida útil del aparato. El coste medio de una impresora de inyección en color viene a ser de una 30000 a 50000 ptas, lo que no supone demasiado esfuerzo para el pequeño usuario o para pequeñas empresas.

A esta cifra hemos de añadir el coste de los consumibles, que aunque no lo parezca puede ser más importente que el de la propia impresora. Impresoras solo compramos una pero cartuchos de tinta podemos comprar decenas durante la vida del aparato. El rango de precios entre los que se mueven los cartuchos de tinta están entre las 2000 y las 5000 ptas, dependiendo del modelo y distribuidor. Un consumible al que se le presta poca atención pero el que tyamboén se lleva un buen pellizco es el papel, aunque pocos son los asuarios que utilizan papel de calidad o el que distribuye el fabricante optando la mayoría por paquetes de 100 o 500 DIN A4 de uso general. La verdad es que ni las fotocopiadoras admiten bien este tipo de papel de fibra estrellada y poco grosor, que rteduce la calidad de impresión y es causa de bastantes problemas.

Volviendo a las ventajas de la tecnología de inyección, la sencillez de manejo puede ser una de las fuertes aunque menos evidente. Dicen que nadie aprecia lo que tiene hasta que lo pierde, y posiblemente tendríamos que instalar un par de veces una impresora láser para darnos cuenta de lo fácil que resulta manejar una de inyección.

En lugar de manejar cartuchos de tóner, botellas de fusor, unidades fotoconductoras, un mecanismo de arrastre complejo y bandejas múltiples, el manmtenimiento de un modelo de inyección se limita a levantar las tapas de las guías y sustituir los cartuchos gastados. Esta facilidad se ha extendido al software de control, que habitualmente nos permite resolver la configuración del trabajo seleccionando un tipo de documento seleccionado como “documento en grises” o “carta con gráficos en color”.

Tamaño y peso son otra ventaja de la inyección. Si tenemos la tentación de pensar que una impresora de inyección es grande, conviene que le echemos un vistazo a una impresora láser color normalita que ronda los 40 kilos y tiene medio metro en todas las dimensiones.

Hasta aquí los aspectos positivos. En la parte negativa las impresoras de inyección son ante todo bastante lentas. Por mucho que los fabricantes se empeñen en poner en la publicadad que sus im,presoras alcanzan 3, 4 o 6 páginas por minuto (ppm), esta es una marca que solo se obtiene haciendo copias de un mismo original sencillo.

La velocidad es un asunto subjetivo más que objetivo en las impresoras de ineción y que el resultado depende de muvhas cosas, del tipode documento de la velocidad del ordenador que usemos e incluso de cosas tan banales como los atascos ocasionales de inyectores que surgen de vez en cuando. Todo esto influye en la velocidad finel y podemos darnos por satisfecho si en un documento de 10 páginas con gráficos en color y adornos obetnemos dos por minuto. La calidad es el otro Talón de Aquiles de la inyección, a pesar de todoa los avances realizados. En este aspecto, sin embargo, queremos diferenciar la impresión de texto de la de gráficos en color y muy especialmentwe la de fotos. En lo que respecta a las cartas de texto los modelos de inyección han alcansazo una perfección sin igual y existen models que rivalizan en calidad con impresoras láser. En gráficos, por el contrario, las cosas son muy flexibles mientras que obtener un gráfico en color con una láser es bastante sencillo, deben darse unas condiciones muy concretas para lograrse una calidad parecida con una máquina de inyección.

Para entender mejor las limitaciones de la inyección en conveniente que expliquemos sus pincipios de funcionamiento. En kla actualidad exisyej dos tecnologías predominanrtes: la piezoeléctrica y la térmica, con marcas que defienden una u otra a capa y espada. Las dos hacen lo mismo, poyectar gotas de tinta sobre una superficie de papel a una velocidad muy elevada. Cuando la tinrta entre en contacto con el aire empieza a evaporarse y a los pocos segundos de caer sobre el papel solo queda un residuo seco que es lo que vemos.

La diferencia entre las dos tecnologías e la forma en que se consigue inyectar o hacer saltar la gota de tinta sobre el cabezal hasta el papel. En un mecanismo piezoeléctrico se aplica una tensión a un cristal de cuarzo que oscila y crea ua depresión tres una membrana.esta depresión absorve la gota de tinta, de forma que cuando la membrana recupera su posición, el colchón de aire empuja la gota hacia delante.

En un mecanismo térmico tenemos una resistencia frente a la misma ventana de expulsión. Cuando hay que imprimir un punto la resistencia se calienta en un tiempo rapidísimo provavando la evaporación de parte del líquido de la tinta. Literalmente, esta explota hacia delante saliendo disparada hacia el pepel.

No está muy claro que una sea mejor que la otra pero ambas lanzan una gota líquida hacia el papel. Ahora bien ¿Qué pasaría si lanzasemos un globo de agua desde un segundo piso hatsa el suelo? Lo más lógico es que explote dejando una figura estrellada sobre el asfalto. Esto mismo es lo que pasa con la tinta, un fenómeno que se agrava con el uso de paeples de mala calidad, que tienen una fibra muy estridada lo que favorevce la disprsión del líquido. No se trata por tanto de un problema de puntos por pulgada; en intyección una imagen no es mejor por tener más puntos sino por ser más precisa, y para conseguirñlo hace falta utilizar papeles satinados, de poca fibra, que lamentablemente son caros.

La consecuencia de todo esto, es que hay fabricantes que combinan mejor que otros, cabezales, inyectores y tintas para conseguir un rendimiento aceptable sobre papel “malo”. En las impresoras láser esto no ocurre porque la tinta es sólida y en el momento en que ésta se deposita sobre el papel queda adherida a él sin moverse.

Una última consideración en cuanto a seguridad se refiere viene a indicarnos que éstas impresoras revelan un conjunto pésimo de medidas de seguridad. Por supuesto que no va ha explotar ni nada parecido pero si que es cierto que existen dos casos bastantes comunes en los que si se pueden producir pequeñas lesiones.

Cuando queremos imprimir un documento y nos damos cuenta de que éste es el equivocado la acción de tirar del papel es perjudicial para el mecanismo de tracción de la impresora y pocas de ellas detectan esto en menos de 2 segundos, lo que es más que suficiente para pillarse los dedos.

El otro problema encontrado es que ante la curiosidad innata del ser humano de levantar la tapa de la impresora para ver como el cabezal se mueve ninguan impresora estudiada para el mecanismo con el consiguente peligro de heridas leves en los dedos o introducción accidental de pelo largo.

Recomendaciones: A la hora de hacerse con una de estas impresoras es necesario tener en cuenta algunos aspectos como la velocidad, el precio de la impresora y el de los consumibles así como la resolución alcanzada. Este cuadro nos aclarará más las ideas:

Modelo

Resolución

Velocidad B/N

Velocidad color

Precio

Olivetti JP192

600x300

3 ppm

N.D.

23300 ptas

Olivetti JP883

1200x600

6 ppm

N.D.

35900 ptas

Lexmark Optra Color 45

600x600

8 ppm

4 ppm

139000 pats

Lexmark Color Jetprinter

1200x1200

6 ppm

2.5 ppm

32900 ptas

Epson Stylus Color 440

720x720

4 ppm

1 ppm

20400 ptas

Epson Stylus Color 740

1440x720

6 ppm

1 ppm

48900 ptas

Hewlett Packard 2000CL

600x600

8 ppm

3.5 ppm

240000 ptas

Canon BJC 50

720x360

5,5 ppm

N.D.

64900 ptas

3.5. - Ratón

Sobre el ratón poco hay que decir, simplemente que es un periférico de entrada, que es el sistema que utilizan el sistema operativo de ventanas, en el que se basan los modernos lenguajes de programación y que existen varios tipos.

Descripción: A este periférico se le llamó así por su parecido con este roedor. Suelen estar constituidos por una caja con una forma más o menos anatómica en la que se encuentran dos botones que harán los famosos clicks de ratón siendo transmitidos por el cable al puerto PS/II o al puerto de serie (COM1 normalmente). Dentro de esta caja se encuentra una bola que sobresale de la caja a la que se pegan 4 rodillos ortogonalmente dispuestos que serán los que definan la dirección de movimiento del ratón. El ratón se mueve por una alfombrilla ocasionando el movimiento de la bola que a su vez origina el movimiento de uno o varios de estos rodillos que se transforma en señales eléctricas y producen el efecto de desplazamiento del ratón por la pantalla del ordenador.

Existen modelos modernos en los que la transmisión se hace por infrarrojos eliminando por tanto la necesidad de cableado. Otros presentan la bola en la parte superior de la caja no estando por tanto en concacto con la albombrilla y teniendo que ser movida por los dedos del usuario aunque se origina el mismo efecto.

3.6. - Teclado

Casi todo el mundo sabe que un teclado es el periférico más conocido y el más utilizado para introducir datos en el ordenador, es decir, es un periférico de entrada.

Descripcíon: Un teclado se compone de una serie de teclas agrupadas en funciones que podremos describir:

+ Teclado alfanumérico: es un conjunto de 62 teclas entre las que se encuentran las letras, números, símbolos ortográficos, Enter, alt...etc.

+ Teclado de función: es un conjunto de 13 teclas entre las que se encuentran el ESC, tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser configurables pero por ejemplo existe un convenio para asignar la ayuda a F1.

+ Teclado numérico: se suele encontrar a la derech del teclado alfanumérico y consta de los números así como de un Enter y los operadores numéricos de suma, resta, ... etc.

+ Teclado especial: son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas.

Recomendaciones: En este apartado es conveniente distinguir entre dos tipos de teclado:

+ de membrnana: fueron los primeros que salieron y como su propio nombre indica presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura.

+ mecánico: estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos traumática y más suave para el usuario.

4. - Conclusiones

En este trabajo hemos analizado todas las partes de un ordenador con objeto de dar a conocer su microarquitectura. Algunas de ellas han sido detalladas con más precisión debido a que son nuevas tecnologías, forman parte esencial del ordenador o simplemente porque están de moda.

Consciente de la dificultad que entraña la descripción de todos los componentes se ha tratado de hacer más fácil añadiendo un glosario de términos que en bastantes casos aclara los conceptos de estos términos.

También se ha optado por incluir una lista de precios orientativos de los componentes más importantes del ordenador que también ayudará al lector a tomar una decisión en cuanto a la calidad/precio de dichos componentes.

En cuanto a estos precios se ha de decir que son orientativos puesto que durante la confección de este trabajo han sufrido cambios, frecuentemente a la baja.

Para terminar se debe decir como consejo que a la hora de comprar un ordenador, a menudo no es necesario fijarse en la última tecnología puesto que frecuentemente las necesidades que se tienen no llegan a tanto. Así, no es lógico comprar el último modelo de Pentium (leasé P-III) para cuestiones ofimáticas.

Hay que tener claro que los mayores requerimientos se necesitan en el entorno lúdico (trabajos multimedia, juegos...) que explotan la velocidad del micro y la tarjeta gráfica a su máximo nivel, pero la cuestión es: si lo que se quiere es jugar, ¿Porqué no comprarse una consola de moda cuyo precio se encuentra al mismo nivel que la última tarjeta gráfica? . La solución: consumismo.

Glosario de términos

3D-Now!: Conjunto de instrucciones desarrolladas por AMD para acelerar las operaciones 3D de sus microprocesadores.

440 BX: Chipset desarrollado por Intel para dar soporte a sus P-II y a las nuevas características de las placas.

440 LX: Chipset de Intel para Pentium-II.

AGP/AGP2x/AGP4x: Ranura de expansión creada por Intel específica para tarjetas gráficas que ofrece mayor ratio de transferencia de datos. Llamada también la “autopista gráfica”.

Aladin V: Conjunto de chips de sarrollada por Via Techonologies con el objeto de dar soporte a los últimos chips de AMD junto con las nuevas placas para Socket 7.

AMD: Empresa cuyo principal producto son los microprocesadores. Se encuentra en estricta competencia con los chips de Intel.

Antialiasing: Efecto 3D que consiste en eliminar las posibles pixelaciones de las lineas al cruzarse con otras.

ATX: Formato de placa más ancha que la Baby AT y con fuente de alimentación de 230W.

Baby AT: formato de placa base más estrecho que la ATX y con menos potencia en la funte de alimentación.

Banshee: Tarjeta gráfica avanzada desarrollada para juegos aunque es una solución completa 2D/3D.

Bump-Mapping: Efecto 3D consistente en el relleno de polígonos con texturas predeterminados por la memoria de la tarjeta gráfica.

BUS: se denomina bus a los caminos (circuitos elétricos) de conexión entre los distintos componentes del ordenador. Desde las ranuras PCI hasta el microprocesador, desde la memoria hastael procesador y viceversa ....etc.

Cache: Tipo de memoria de acceso ultrarápido que es utilizada para los accesos más comunes del microprocesador ahorrando tiempo de búsqueda. Normalmenete entre un 85% y un 90% de los accesos a memoria se realizan a la memoria caché en tareas multiproceso, lo que explica el ahorro de tiempo, ya que esta memoria es más rápida aunque más cara que la memoria convencional.

CD-R/CD-RW: El CD-R es un CD en el que sólo se puede copiar una única vaz información, de ahí su nombre (Record). El CD-RW es un CD que puede ser escrito muchas veces (más de mil según los fabricantes) adquiriéndo su nombre (Record-Write) de esta posibilidad.

CD-ROM: Es el soporte de la información más extendido actualmente. Los CDs suelen tener 650 Mb de capacidad aunque los hay de 680 Mb.

Celeron: Microprocesador de Intel qie se diferencia de su hermano mayor P-II en que sólo presenta 128Kb de caché al contario que el primero que tiene 256 Kb.

CRT: Tipo de monitor basado en los tubos de rayos catódicos parecidos a las televisiones que se suelen tener en casa.

Cyrix: tercera empresa en discordia por el mercado de los microprocesadores aunque sus chips son generalmente de menor calidad.

Direct 3D: Conjunto de rutinas desarrolladas por Microsoft que permiten aprovechar las nuevas tecnologías multimedia.

Dolby AC-3: Sistema de sonido utilizado en los lectores DVD que aporta gran calidad de audio y permite la utilización de múltiples canales para generar sonido surround.

Dolby Digital: Sistema de sonido que se basa en la reproducción de éste individualmente en cada altavoz. Esto se consigue mediantevun procesador que separa las señales.

Dolby Surround: Sistema de sonido que se basa en reproducir el sonido de los altavoces delanteros en los traseros para generar el efecto de espacio.

Drivers: Conjunto de rutinas de enlace entre un periférico y el sistema gobernado por el el microprocesador.

DVD: Proviene de las siglas de Digital Video Device (dispositivo de vídeo digital) o como otros fabricantes suelen indicar Digital Versatile Disc (Disco Versátil Digital.

DVD-RAM: Es la opción de grabación que sería similar a los sistemas CD-R, ya que permite almacenar en soporte DVD nuestros datos personales, aunque su tamaño no es igual al proporcionado por los sistemas DVD-ROM.

DVD-RE: Sistema regrabable de DVDs en donde podemos realizar múltiples grabaciones y borrados de información tal y como actualmente lo hacemos con los sistemas CD-RW.

DVD-ROM: Este es el sistema de almacenamiento de información que podemos definir como un CD-ROM de gran tamaño, con capacidades que varían entre los 4,7 Gbytes hasta los 17 Gbytes.

DVD-Video: Este ha sido el más promocionado por todo tipo de compañías, ya que permite contener en un solo DVD (4,7 Gbytes) una película completa con soporte multilingüe, hasta ocho clases de subtítulos y un máximo de nueve ángulos de visión.

EIDE: Interfaz de conexión entre elementos como el disco duro, los distintos tipo de CD-ROM ...etc que presenta unas características de transmisión menores a las de otros tipos de interfaces como SCSI.

ISA: Ranuras de expansión que poco a poco están cayendo en desuso debido a la lentitud de transferencia de datos.

Joystick: Periférico comunmente utilizado para los juegos.

Jumpers: Pequeños switches situados en las placas base y algunas tarjetas con el propósito de poder cambiar las configuraciones de éstas tarjetas.

K6-II: Microprocesador de AMD de velocidades hasta 400 Mhz con las instrucciones 3DNow! que aumentan las capacidades multimedia de la máquina.

KNI: Nuevas instrucciones de Intel para sus procesadores P-III que aceleran las tareas multimedia que realice el procesador. Está es clara competencia con las 3DNow!.

LCD: Tipo de monitor basado en tecnologías de cristales líqudos. Una de sus mejores características es que son planos.

LED: Indicador luminoso que aparece en la caja del ordenador para indicar el posible funcioanmiento del procesador

Line In: Conector de entrada de una tarjeta de sonido.

Line Out: Conector de salida de una tarjeta de sonido.

Mendochino: Procesador de Intel que carece de memoria caché L2 (de segundo nivel) para abaratar costes.

Mic: Entrada del micrófono en una tarjeta de sonido.

Midi: Formato o especificación de sonido diseñado para comunicar instrumentos musicales con el ordenador.

MMX: Primigenias 57 instrucciones multimedia implementadas en los Pentium y en los P-II.

MP3: Formato de sonido que se caracteriza por l compresión que alcanza el sonido de un 10:1. Esto se consigue eliminandolas frecuencias inaudibles por el oido humano así como las frecuancias superpuestas.

MPEG-2: Sistema de almacenamiento de la información en DVD que utiliza un método de compresión de segunda generación para proporcionar una calidad óptima de vídeo y contener audio de alta calidad.

MPGII: Formato de video en el que se supera la calidad del MPEG pero todavía no llega a una calidad extrema como lo hace MPEG-IV

NLX: Tipo de placa caracterizada por el rápido acceso que se tiene a los componenetes del ordenador, aunque no está muy extendida.

OpenGL: Conjunto de rutinas de programación gráfica que ensombrecen totalmente a las Direct X desarrollados por Microsoft. Estas rutinas han sido utilizadas en juegos como Quake, QuakeII u otros del mismo estilo.

OPL3: Chip de primera generación que permitía sintetizar sonidos “reales”.

PCI: Tipo de ranura de expansión que está en auge actualmente junto con AGP debido a la migración que se está producinedo dede ISA, próxima a desaparecer.

PGA: Nombre que se les da a los encapsulados de microprocedadores anteriores al P-II o P-II puesto que estos se presentan en cartuchos tipo SEC.

Plug & Play: Característica soportada por Windows 9x que consiste en enchufar y listo. Esto puede ser así porque el sistema operativo contiene de por sí numerosos drivers de distintos periféricos que no hace falta introducir para que funcionen éstos. Au´n así esta utilidad ha sido muy criticada por su supuesta falta de solvencia.

PS/2: tipo de conexión al ordenador que se caracteriza por dejar libre el puerto de serie pudiendo enchufar otro perférico a éste..

RAMDAC: Frecuencia del procesador de la tarjeta gráfica en relación directa con el acceso a la memoria de la misma.

RDSI: Tipo de conexión a Internet (red) que garantiza un gran ancho de banda aunque es muy cara. Suele ser utilizado por las empresas.

S/PDIF: Salida compuesta de video que presentan las tarjetas de algunas tarjetas de videomás modernas.

SCSI: Tipo de especificación que se opone a IDE siendo más avanzada y más cara.

SGRAM: Tipo de memoria utilizada sobre todo en tarjetas gráficas.

Shareware: Se denomina así a los programas que se pueden probar durante un período determinado de tiempo o con características reducidas antes de ser comprados.

SIMD: Tipo de instrucciones que incorporan el P-III en su nueva configuración.

Socket7: Ranura donde se coloca el microprocedasor tipo AMD K6 /K6 3D o Pentium MMX.

SondBlaster: Marca de tarjeta de sonido que actualmente se ha convertido en un etándar de sonido en el mercado aunque le están saliendo competidores fuertes.

Stencil-Buffer: Efecto 3D.

SVGA: Modo de video que soporta altas resoluciones de pantalla.

TNT: Nombre de tarjeta gráfica en completa rivalidad con la Banshee y mejor que ésta.

Udma/Udma2: Los discos duros que soportan estas características alcanzan una velocidad de transferencia punta de 33 Mb / 66 Mb por segundo aunque las trensferencia sostenidad se situán en torno a los 2 o 3 Mb por segundo en unidades IDE o EIDE.

UltraWide: Carácterística parecida al Udma pero aplicado a la tecnología SCSI. En cambio, aquí se pueden llegar hasta hasta los 80 Mb/s de punta o 6 Mb sostenidos.

USB: Puerto de conexión de última generación que permite enchufar los periféricos en caliente, es decir, no hace falta reiniciar el ordenador para que se detecte la conexión o desconexión del nuevo hardware.

VRAM: Tipo de memoria sçincrona y rápidad empleada en tarjetas gráficas.

Wave Table: Método de síntesis por tabla de ondas que ayuda a las tarjetas de sonido a sintetizar distintos instrumentos musicales.

Windows: Sistema operativo de la empresa Microsoft conocido en todo el mundo tanto por sus cirtudes como por sus desventajas.

Xeon: Ultimo desarrollo de Intel en cuanto a microprocesadores se refiere estando éste orientado a servidores.

XGA: Modo de video que soporta resoluciones medias. Ha sido muy utilizado en ordenadores poratátiles.

ZIP: Formato de compresión muy utilizado a trvñés de internet. También se le llama Zip a los discos de 100 Mb de capacidad que se insertan en unidades lectoras Zip que son una dura competencia hoy por hoy para las disqueteras de 120 Mb.

Indice

1. Introducción

Pág.1

2. Elementos internos

Pág.1

2.1. Placa base

Pág.1

a) Descripción

Pág.1

b) Recomendaciones

Pág.3

2.2. Microprocesador

Pág.3

a) Descripción

Pág.3

b) Recomendaciones

Pág.5

2.3. Memoria

Pág.5

a) Descripción

Pág.6

b) Recomendaciones

Pág.6

2.4. Tarjeta gráfica.

Pág.6

a) Descripción

Pág.6

2.5. Tarjeta de sonido

Pág.9

a) Descripción

Pág.9

b) Recomendaciones

Pág.9

2.6. Módem

Pág.12

a) Descripción

Pág.13

b) Recomendaciones

Pág.13

2.7. Sistemas de almacenamiento

Pág.14

a) Descripción

Pág.15

b) Recomendaciones

Pág.19

c) RecomendacionesII

Pág.23

3. Componentes externos

Pág.24

3.1. Caja

Pág.24

a) Descripción

Pág.24

b) Recomendaciones

Pág.25

3.2. Monitor

Pág.25

a) Descripción

Pág.25

b) Recomendaciones

Pág.27

3.3. Altavoces

Pág.27

a) Descripción

Pág.27

b) Recomendaciones

Pág.29

3.4. Impresoras

Pág.29

a) Descripción

Pág.30

b) Recomendaciones

Pág.31

3.5. Ratón

Pág.32

a) Descripción

Pág.32

3.6. Teclado

Pág.33

a) Descripción

Pág.33

4. Conclusiones

Pág.34

5. Glosario de términos

Pág.35

6. Indice

Pág.39

7. Bibliografía

Pág.41

Bibliografía

Publicaciones de apoyo

Pc Actual Septiembre 1998.

Pc Actual Octubre 1998.

Pc Actual Enero 1999.

Pc Actual Febrero 1999.

Pc Actual Marzo 1999.

Pc Actual Abril 1999.

Pc Actual Mayo 1999.

Pc World Enero 1999.

Pc World Marzo 1999.

Jumping Enero 1999.

Direcciones Internet visitadas

http:/www.Microsoft.com

http:/www.Intel.com

http:/www.3Dfx.com

http:/www.Philips.com

http:/www.Disney.com

http:/www.Epson.com

http:/www.Microsoft.com

http:/www.chatplanet.com

Comprar un ordenador

11

39