Informática
Herramientas de multimedia
Introducción ------------------------------------------------------- Pag. 2
Multimedia --------------------------------------------------------Pag. 3
Tarjeta de Video --------------------------------------------------Pag. 4
Tarjeta de Sonido -------------------------------------------------Pag. 11
Modém -------------------------------------------------------------Pag. 25
Escáner -------------------------------------------------------------Pag. 35
Webcam ----------------------------------------------------------- Pag.42
CdRom ------------------------------------------------------------ Pag. 44
Dvd ---------------------------------------------------------------- Pag. 50
Conclusión -------------------------------------------------------- Pag. 53
Bibliografia ------------------------------------------------------- Pag. 54
Introduccion
Cualquier forma de comunicación que usa más de un medio para presentar información. También se refiere a un programa de computadora que integra texto, gráficos, animación y sonido.
Un sistema de computo que combina medios de texto, gráficos, animación, música, voz y video; puede incluir bocinas estereofónicas como dispositivos de salida.
Multimedia combina audio y material visual para establecer comunicación y enriquecer su presentación. El origen de multimedia es principalmente sobre las artes y educación donde se encuentra una tradición de experimentar como se conlleva la información. El desempeño de multimedia y exhibiciones, material de entrenamiento multimedia, y presentaciones multimedia todos usan varios canales y modos de expresión. Esta tradición existente es ahora usada por un nuevo tipo de multimedia, uno basado en tecnología digital. Computadoras de escritorio pueden manipular imágenes fotográficas, grabaciones de sonido, y cortos de video en forma digital. Los medios digitales son combinados y procesados, y están emergiendo como elementos clave en la moderna tecnología de información.
Informa y educa, persuade y entretiene con grandes efectos de color, animación y sonido. Desde sus principios monocromáticos, la PC ha disfrutado el grandioso mundo del entretenimiento e información electrónica. Con cada día que pasa, esperamos aun más sensaciones y efectos espectaculares.
De acuerdo a todas las revistas de computación, el éxito más nuevo en computación es multimedia. Desarrolladores de hardware y software nos bombardean con nuevos productos multimedia diariamente.
Qué es Multimedia
El termino Multimedia se ha hecho muy habitual en estos últimos tiempos. Este termino se refiere o indica la utilización por parte del usuario a través de múltiples medios, y no solo a través de texto y gráficos, sino que también el capaz de reproducir sonidos y videos digitales. Grupos de entretenimiento y educacionales están explorando nuevas aplicaciones, computadoras, telecomunicaciones, y las industrias electrónicas están desarrollando tecnología. Como un termino, "multimedia" es frecuentemente usado pero raramente definido. Entre ingenieros de hardware y software, los intentos para proveer un significado de la caprichosa definición "multi-cable" a esas interacciones de comunicación. Usuarios de computadoras tienen presentaciones multimedia, estaciones de trabajo multimedia, y bases de datos multimedia, pero la gente involucrada ven la multimedia desde diferentes perspectivas. Por ejemplo, presentaciones multimedia, como su nombre lo dice, involucra la presentación de información multimedia, le multimedia de estaciones de trabajo negocian con el procesamiento de información multimedia y bases de datos multimedia. Entonces, la noción de información multimedia se unifica con multimedia digital.
En el segundo caso, la tecnología provee una presentación más efectiva por menos gasto. Información, imágenes y sonido están técnicamente y estéticamente integrados, centrados en un producto especifico.
Sin ir más adentro el área de mercadotecnia, el termino multimedia describe el uso de diferentes medios y tecnologías para presentar información. El termino primero apareció en la educación durante los 60s y los 70s, cuando describía nuevos medios para apoyar el proceso de aprendizaje en las clases.
Ahora el termino multimedia ha ganado una nueva dimensión. Así como muchas otras áreas de computación, multimedia sufre no del hecho de que poca gente lo entiende, pero que casi todos lo entienden diferente.
Generalmente el termino multimedia significa integración de texto, gráficas, sonido, animación y video para llevar información. Un elemento clave del concepto multimedia es interacción.
¿Qué es interacción?
La palabra interacción, de su origen latín, describe un trato entre dos o más personas. Un diccionario de sociología distingue diferentes tipos de interacción por los cuales la comunicación entre personas o grupos ocurren durante la platica, símbolos y gestos. Esta comunicación resulta en cambios de actitudes, expectación y comportamiento.
Si aplicamos la misma palabra a las computadoras, interacción significa que la ejecución de programas dependen de la entrada de los usuarios; el usuario puede controlar el flujo del programa.
Requerimientos de Multimedia
Desde que estamos considerando multimedia en conexión con computadoras personales, la PC será la básica para nuestro análisis. La mayoría de las PCs pueden controlar aplicaciones de multimedia, con unos cuantos aditamentos de hardware.
Una PC IBM-compatible que esta diseñada como una PC multimedia tiene varias mejoras especificas para desplegar multimedia. En suma al hardware, necesitas software multimedia apropiado para combinar e integrar los componentes individuales, nombrados como video, música, animación, gráficas y texto, de acuerdo a sus necesidades.
Que es... la tarjeta de vídeo
De manera resumida, es lo que transmite al monitor la información gráfica que debe presentar en la pantalla. Con algo más de detalle, realiza dos operaciones:
-
Interpreta los datos que le llegan del procesador, ordenándolos y calculando para poder presentarlos en la pantalla en forma de un rectángulo más o menos grande compuesto de puntos individuales de diferentes colores (pixels).
-
Coge la salida de datos digitales resultante de ese proceso y la transforma en una señal analógica que pueda entender el monitor.
Estos dos procesos suelen ser realizados por uno o más chips: el microprocesador gráfico (el cerebro de la tarjeta gráfica) y el conversor analógico-digital o RAMDAC, aunque en ocasiones existen chips accesorios para otras funciones o bien se realizan todas por un único chip.
Pequeña historia de las tarjetas de vídeo
En el principio, los ordenadores eran ciegos; todas las entradas y salidas de datos se realizaban mediante tarjetas de datos perforadas, o mediante el teclado y primitivas impresoras. Un buen día, alguien pensó que era mucho más cómodo acoplar una especie de televisor al ordenador para observar la evolución del proceso y los datos, y surgieron los monitores, que debían recibir su información de cierto hardware especializado: la tarjeta de vídeo.
MDA
En los primeros ordenadores, los gráficos brillaban... por su ausencia. Las primeras tarjetas de vídeo presentaban sólo texto monocromo, generalmente en un agradable tono ámbar o verde fosforito que dejaba los ojos hechos polvo en cuestión de minutos. De ahí que se las denominase MDA, Monochrome Display Adapter.
CGA
Luego, con la llegada de los primeros PCs, surgió una tarjeta de vídeo capaz de presentar gráficos: la CGA (Computer Graphics Array, dispositivo gráfico para ordenadores). Tan apasionante invento era capaz de presentar gráficos de varias maneras:
CGA | |
Resolución (horizontal x vertical) | Colores |
320x200 | 4 |
640x200 | 2 (monocromo) |
Lo cual, aunque parezca increíble, resultó toda una revolución. Aparecieron multitud de juegos que aprovechaban al máximo tan exiguas posibilidades, además de programas más serios, y los gráficos se instalaron para siempre en el PC.
Hércules
Se trataba ésta de una tarjeta gráfica de corte profundamente profesional. Su ventaja, poder trabajar con gráficos a 720x348 puntos de resolución, algo alucinante para la época; su desventaja, que no ofrecía color. Es por esta carencia por la que no se extendió más, porque jugar sin color no es lo mismo, y el mundo PC avanza de la mano de los diseñadores de juegos (y va muy en serio).
EGA
Otro inventito exitoso de IBM. Una tarjeta capaz de:
EGA | |
Resolución (horizontal x vertical) | Colores |
320x200 | 16 |
640x200 | 16 |
640x350 | 16 |
Estas cifras hacían ya posible que los entornos gráficos se extendieran al mundo PC (los Apple llevaban años con ello), y aparecieron el GEM, el Windows y otros muchos. Sobre las posibilidades de las pantallas EGA, una curiosidad: los drivers EGA de Windows 3.1 funcionan sobre Windows 95, y resulta curioso (y sumamente incómodo, la verdad) ver dicha combinación...
VGA
El estándar, la pantalla de uso obligado desde hace ya 10 años. Tiene multitud de modos de vídeo posibles, aunque el más común es el de 640x480 puntos con 256 colores, conocido generalmente como "VGA estándar" o "resolución VGA".
SVGA, XGA y superiores
El éxito del VGA llevó a numerosas empresas a crear sus propias ampliaciones del mismo, siempre centrándose en aumentar la resolución y/o el número de colores disponibles. Entre ellos estaban:
Modo de vídeo | Máxima resolución y máximo número de colores |
SVGA | 800x600 y 256 colores |
XGA | 1024x768 y 65.536 colores |
IBM 8514/A | 1024x768 y 256 colores (no admite 800x600) |
La resolución y el número de colores
En el contexto que nos ocupa, la resolución es el número de puntos que es capaz de presentar por pantalla una tarjeta de vídeo, tanto en horizontal como en vertical. Así, "800x600" significa que la imagen está formada por 600 rectas horizontales de 800 puntos cada una. Para que nos hagamos una idea, un televisor (de cualquier tamaño) tiene una resolución equivalente de 800x625 puntos.
En cuanto al número de colores, resulta casi evidente: los que puede presentar a la vez por pantalla la tarjeta. Así, aunque las tarjetas EGA sólo representan a la vez 16 colores, los eligen de una paleta (sí, como las de pintor) de 64 colores.
La combinación de estos dos parámetros se denomina modo de vídeo; están estrechamente relacionados: a mayor resolución, menor número de colores representables, y a la inversa. En tarjetas modernas (SVGA y superiores), lo que las liga es la cantidad de memoria de vídeo (la que está presente en la tarjeta, no la memoria general o RAM). Algunas combinaciones posibles son:
Memoria de vídeo | Máxima resolución (en 2D) | Máximo número de colores |
512 Kb | 1024x768 a 16 colores | 256 a 640x480 puntos |
1 MB | 1280x1024 a 16 colores | 16,7 millones a 640x480 |
2 MB | 1600x1200 a 256 colores | 16,7 millones a 800x600 |
4 MB | 1600x1200 a 65.536 colores | 16,7 millones a 1024x768 |
Cabe destacar que el modo de vídeo elegido debe ser soportado por el monitor, ya que si no éste podría dañarse gravemente (muy gravemente). Esto depende de las características del mismo, en concreto de la Frecuencia Horizontal, como se explica en el apartado dedicado al monitor.
Por otra parte, los modos de resolución para gráficos en 3D (fundamente juegos) suelen necesitar bastante más memoria, en general unas 3 veces más; por ello, jugar a 800x600 puntos con 16 bits de color (65.536 colores) suele requerir al menos 4 MB de memoria de vídeo.
La velocidad de refresco
El refresco, aparte de la Coca Cola, es el número de veces que se dibuja la pantalla por segundo (como los fotogramas del cine); evidentemente, cuanto mayor sea menos se nos cansará la vista y trabajaremos más cómodos y con menos problemas visuales.
Se mide en hertzios (Hz, 1/segundo), así que 70 Hz significa que la pantalla se dibuja cada 1/70 de segundo, o 70 veces por segundo. Para trabajar cómodamente necesitaremos esos 70 Hz. Para trabajar ergonómicamente, con el mínimo de fatiga visual, 75-80 Hz o más. El mínimo absoluto son 60 Hz; por debajo de esta cifra los ojos sufren muchísimo, y unos minutos bastan para empezar a sentir escozor o incluso un pequeño dolor de cabeza.
Antiguamente se usaba una técnica horrible denominada entrelazado, que consiste en que la pantalla se dibuja en dos pasadas, primero las líneas impares y luego las pares, por lo que 70 Hz entrelazados equivale a poco más de 35 sin entrelazar, lo que cansa la vista sobremanera. Afortunadamente la técnica está en desuso, pero en los monitores de 14" se ha usado hasta hace un par de años.
El motivo de tanto entrelazado y no entrelazado es que construir monitores que soporten buenas velocidades de refresco a alta resolución es bastante caro, por lo que la tarjeta de vídeo empleaba estos truquitos para ahorrar a costa de la vista del usuario. Sin embargo, tampoco todas las tarjetas de vídeo pueden ofrecer cualquier velocidad de refresco. Esto depende de dos parámetros:
-
La velocidad del RAMDAC, el conversor analógico digital. Se mide en MHz, y debe ser lo mayor posible, preferiblemente superior a 200 MHz.
-
La velocidad de la memoria de vídeo, preferiblemente de algún tipo avanzado como WRAM, SGRAM o SDRAM.
Memoria de vídeo
Como hemos dicho, su tamaño influye en los posibles modos de vídeo (cuanta más exista, más opciones tendremos); además, su tipo determina si conseguiremos buenas velocidades de refresco de pantalla o no. Los tipos más comunes son:
-
DRAM: en las tarjetas más antiguas, ya descatalogadas. Malas características; refrescos máximos entorno a 60 Hz.
-
EDO: o "EDO DRAM". Hasta hace poco estándar en tarjetas de calidad media-baja. Muy variables refrescos dependiendo de la velocidad de la EDO, entre 40 ns las peores y 25 ns las mejores.
-
VRAM y WRAM: bastante buenas, aunque en desuso; en tarjetas de calidad, muy buenas características.
-
MDRAM: un tipo de memoria no muy común, pero de alta calidad.
-
SDRAM y SGRAM: actualmente utilizadas mayoritariamente, muy buenas prestaciones. La SGRAM es SDRAM especialmente adaptada para uso gráfico, en teoría incluso un poco mas rápida.
Conectores: PCI, AGP...
La tarjeta gráfica, como añadido que es al PC, se conecta a éste mediante un slot o ranura de expansión. Muchos tipos de ranuras de expansión se han creado precisamente para satisfacer a la ingente cantidad de información que se transmite cada segundo a la tarjeta gráfica.
-
ISA: el conector original del PC, poco apropiado para uso gráfico; en cuanto llegamos a tarjetas con un cierto grado de aceleración resulta insuficiente. Usado hasta las primeras VGA "aceleradoras gráficas", aquellas que no sólo representan la información sino que aceleran la velocidad del sistema al liberar al microprocesador de parte de la tarea gráfica mediante diversas optimizaciones.
-
VESA Local Bus: más que un slot un bus, un conector íntimamente unido al microprocesador, lo que aumenta la velocidad de transmisión de datos. Una solución barata usada en muchas placas 486, de buen rendimiento pero tecnológicamente no muy avanzada.
-
PCI: el estándar para conexión de tarjetas gráficas (y otros múltiples periféricos). Suficientemente veloz para las tarjetas actuales, si bien algo estrecho para las 3D que se avecinan.
-
AGP: tampoco un slot, sino un puerto (algo así como un bus local), pensado únicamente para tarjetas gráficas que transmitan cientos de MB/s de información, típicamente las 3D. Presenta poca ganancia en prestaciones frente a PCI, pero tiene la ventaja de que las tarjetas AGP pueden utilizar memoria del sistema como memoria de vídeo (lo cual, sin embargo, penaliza mucho el rendimiento).
En cualquier caso, el conector sólo puede limitar la velocidad de una tarjeta, no la eleva, lo que explica que algunas tarjetas PCI sean muchísimo más rápidas que otras AGP más baratas o peor fabricadas.
Adecuación al uso del ordenador
Evidentemente, no es lo mismo elegir una tarjeta gráfica para trabajar en Word en un monitor de 15" que para hacer CAD en uno de 21". Nótese que siempre hago referencia al monitor con el que van a trabajar, porque una tarjeta muy buena no puede demostrarlo en un mal monitor, ni a la inversa.
-
Ofimática: tarjetas en formato PCI o AGP, con microprocesadores buenos en 2D, sin necesidades 3D específicas; capaces de 1024x768; con unos 2 ó 4 MB; y con buenos refrescos, entorno a 70 u 80 Hz. Un ejemplo típico "de marca" es la Matrox G200, o bien cualquiera basada en el chip i740.
-
Juegos y CAD en 3D: con micros especiales para 3D, con mucha memoria (entre 8 y 32 MB), generalmente de marca y preferiblemente AGP. Por ejemplo, las tarjetas basadas en chips TNT2 o Voodoo3.
-
Imágenes y CAD en 2D: con chips de 64 ó 128 bits, memorias ultrarrápidas, capaces de llegar a 1600x1200 puntos a 70 Hz o más, con 4 MB o más. Cualquiera con un superchip, SGRAM/SDRAM y un RAMDAC de 225 MHz o más.
Qué es... una tarjeta de sonido
El PC (Ordenador Personal) no fue pensado en un principio para manejar sonido, excepto por esa reminiscencia que en algunos ordenadores ya no se instala (o está desconectada) llamada "altavoz interno" o "PC Speaker".
Ese pitido que oímos cuando arrancamos el ordenador ha sido durante muchos años el único sonido que ha emitido el PC. En un principio, el altavoz servía para comunicar errores al usuario, ya que la mayoría de veces, el ordenador debía quedarse solo trabajando (los primeros ordenadores eran muy lentos, y los usuarios tienen derecho a merendar).
Sin embargo, un poco más tarde, en plena revolución de la música digital (empezaban a popularizarse los instrumentos musicales digitales) apareció en el mercado de los compatibles una tarjeta que lo revolucionó, la tarjeta de sonido SoundBlaster.
Por fin era posible convertir sonido analógico a digital para guardarlo en nuestro PC, y también convertir el sonido digital que hay en nuestro PC a analógico y poder escucharlo por nuestros altavoces. Posteriormente aparecieron el resto: SoundBlaster PRO, SoundBlaster 16, Gravis, AWE 32, AWE 64, MAXI Sound... todas más o menos compatibles con la superexitosa SoundBlaster original, que se convirtió en un auténtico estándar.
ADC/DAC
Los ordenadores tenían (siguen teniendo) un "problema", sólo saben trabajar con datos digitales (más concretamente binarios, 0s y 1s), por lo que cuando conectamos unos altavoces a nuestra tarjeta de sonido, hay alguien que transforma esos datos digitales en analógicos para que nuestro altavoz los entienda. De eso se encarga el DAC (Conversor Digital-Analógico, ).
Todo el mundo habrá deducido para qué sirve el ADC (Conversor Analógico-Digital); efectivamente, cuando grabamos desde una fuente externa (por ejemplo desde nuestro equipo musical), deberemos transformar esos datos analógicos que llegan por el cable en muestras digitales que podamos almacenar en nuestro disco duro.
Pero a alguien le puede ocurrir que necesite reproducir sonido, tratarlo al mismo tiempo con una fuente externa y volver a grabarlo. O simplemente reproducir y grabar al mismo tiempo. Esta característica se conoce como "fullduplex" y debe estar presente en cualquier tarjeta de sonido medianamente decente (creo que actualmente ya lo está en prácticamente todas). Para ello, los dos conversores ADC-DAC deben trabajar de forma separada.
16 bits
Nada de 32, 64, 128 y 256 bits. Las tarjetas de sonido (excepto muy raras excepciones profesionales) toman las muestras de sonido a 16 bits (aunque se llame SoundBlaster 128 PCI o MaxiSound 64). Esto ha llevado a engaño a mas de uno (y de dos) al creer que su tarjeta de sonido trabajaba con más bits que su propio procesador (pero se trata del numero de voces, que es otro tema completamente distinto). Esos bits vienen a definir la posición del altavoz. ¿Qué significa esto? Vamos a explicarlo.
Para emitir sonidos, los altavoces se mueven dando golpes. Estos golpes hacen que el aire que nos rodea vibre, y nuestros oídos captan esas vibraciones y las transforman en impulsos nerviosos que van a nuestro cerebro... (bueno, eso ya no es cosa de los ordenadores). Pues bien, deberemos indicarle al altavoz dónde debe "golpear". Para ello simplemente le enviaremos una posición (en este caso un número). Pues bien, cuantas más posiciones podamos representar, mejor será el sonido. Y cuantos más bits tengamos, más posiciones podremos representar (sencillo ¿verdad?).
8 bits | 256 posiciones |
16 bits | 65536 posiciones |
44,1 KHz significa calidad de CD
Vamos a explicar esto. Las tarjetas de sonido simplemente transforman una señal continua (el sonido es algo continuo, no va a t-r-o-z-o-s) en una discreta (aunque no lo parezca). Explicamos la palabra "discreta": que sucede a ciertos intervalos de tiempo.
Veamos un gráfico de ejemplo.
En el dibujo apreciáis una línea continua, que representa un sonido. Sin embargo, en realidad cuando la captamos con nuestra tarjeta de sonido no podemos capturar TODA la onda, capturaremos simplemente una serie de puntos (los que están marcados), un punto cada cierto tiempo, es decir, un muestreo de los datos con una determinada frecuencia; la onda que nos quedará será del siguiente estilo:
Os podéis imaginar que si en lugar de 44KHz utilizamos 22KHz, en realidad capturaremos la mitad de posiciones:
MIDI, síntesis FM y tablas de ondas
El sonido digital siempre ha tenido diversos formatos (hasta llegar al mp3, el más de moda actualmente). El sonido en formato digital tiene un problema, y es su excesivo espacio para almacenar relativamente poca información. Se pueden hacer los cálculos fácilmente: audio a 44,1KHz, con 16 bits y en estéreo, nos da 172 Kb/segundo (10,3 MB por minuto, una auténtica barbaridad).
Este método de almacenar el audio digital "tal cual" es el utilizado en los ficheros .wav o en los CD-Audio. Sin embargo, no resulta útil para los profesionales del sector (sobre todo para los compositores); imaginad la cantidad de disco duro y, sobre todo, memoria que son necesarios para trabajar a pleno rendimiento con el audio digital. ¿Cuál es la posible solución? El formato MIDI (Musical Instrument Data Interface)
Al contrario que el audio digital, el formato MIDI no es el sonido grabado, sino principalmente las notas musicales que lo componen. Cualquier fichero MIDI ocupará poquísimo espacio, debido a que tan solo es necesario almacenar las notas que están sonando en cada momento. El formato MIDI nació para estandarizar el comportamiento de los distintos instrumentos digitales, para que las mismas notas sonaran "igual" en los distintos instrumentos. Hoy en día existen teclados MIDI (los archiconocidos sintetizadores), pianos MIDI (como el que tengo en casa), violines MIDI (Celtas Cortos tiene uno, así como The Corrs, que también lo utilizan), flautas MIDI, baterías MIDI, e incluso gaitas MIDI (¿alguien ha escuchado alguna canción de Hevia?).
Pues bien, en el caso del ordenador, alguien tendrá que encargarse de reproducir las composiciones MIDI. Y por supuesto, la solución está en aprovechar nuestra tarjeta de sonido. Como el formato MIDI no son más que notas, tendremos que obtener los sonidos de algún sitio, y existen dos opciones.
La síntesis FM es la más económica. Hasta el momento, y desde hace mucho, ha sido la solución más empleada. La síntesis FM no es más que un pequeño procesador que se encarga de imitar el sonido mediante el empleo de fórmulas matemáticas trigonométricas sí, y en cierto modo, da mejores resultados de los esperables.
Por ejemplo: el sonido de un clásico instrumento de cuerda se representa en el ordenador mediante una onda similar a la siguiente:
Se trata de una onda bastante regular, que fácilmente puede ser simulada por una ecuación.
Todas las ecuaciones están basadas en senos y cosenos. Para quien no las conozca, la ecuación del seno es la de la derecha, y la del coseno es idéntica pero desplazada sobre el eje x pi/2 unidades.
Por supuesto, las ecuaciones y funciones que utiliza nuestra tarjeta de sonido son mucho más complejas y las ondas mucho más parecidas, excepto en un caso, en el de los instrumentos de percusión, con ondas mucho menos estables, como se aprecia en el siguiente ejemplo:
La solución que aportan YA la mayoría de tarjetas domésticas (desde la SoundBlaster AWE 32 y la Gravis UltraSound), es la inclusión de la síntesis por Tabla de Ondas (WaveTable). Esto no es más que el tener los sonidos de los instrumentos grabados (a partir de instrumentos reales) en una memoria incluida en la propia tarjeta (ROM que normalmente se puede ampliar con RAM para añadir nuevos y mejores sonidos) o utilizando la memoria del ordenador, en cuyo caso deberá tener conector PCI en lugar de ISA. Con esto conseguimos una calidad MUCHO mayor en la reproducción de canciones MIDI.
Actualmente sólo la Crystal, SoundBlaster 16 y las compatibles Yamaha OPL3 de 2000 ptas. (así como algunas soluciones integradas en placas base y otras de fabricante desconocido) funcionan sin tabla de ondas. Si queréis apreciar la diferencia de sonido, los siguientes mp3 muestran la diferencia de reproducción de un fichero MIDI entre una tarjeta de sonido Crystal Sound System y lo que cabria esperar de una Yamaha XG.
Polifonía (voces)
La captura de pantalla anterior nos sirve para introducir este nuevo punto. ¿Porqué se llamó SoundBlaster AWE 32? No fue por los bits con los que funcionaba, como ya hemos dicho antes, sino por las 32 voces simultáneas (instrumentos) que era capaz de reproducir. (También pasa lo mismo con la SoundBlaster 64 y la 128, así como con la MaxiSound 64).
Este concepto no es complicado. Con un cuarteto de Jazz se pueden interpretar obras realmente excepcionales, eso sí, sólo con 4 instrumentos. Si el grupo aumenta a 8 personas, podremos tener el doble de instrumentos y el sonido será mucho mejor. En la actualidad podemos encontrar tarjetas de sonido con soporte de 320 voces de la Diamond Monster Sound, pasando por las 256 voces de la SoundBlaster Live!, las 128 de la SoundBlaster PCI 128, o las 64 de las Guillemot ISIS o Home Studio Pro 64. Gracias al uso del conector PCI se han conseguido tarjetas con muchas voces por poco dinero, ya que emplean la memoria del PC para almacenarlos, pero el ordenador deberá ser potente para obtener un rendimiento satisfactorio.
DSP
Pues bien, tenemos un montón de posibles voces que podremos tratar. En las soluciones más avanzadas tenemos posibilidades de hacer nuestros primeros pinitos en la música.
Cuando tratamos con una de las pistas de sonido que tenemos grabada, por ejemplo, tenemos (en muchos casos) la posibilidad de aplicarle efectos, como son el "chorus" o la reverberación. Pero también simular sintetizadores de sonido, realizar "fades" ...
Por supuesto, este proceso de modificación de una señal digital requiere potencia de cálculo, pero normalmente se desea saber como afectara la aplicación de un efecto en tiempo real. Es por ello que muchas soluciones, sobre todo a partir de la gama media, incorporan un Procesador Digital de Señales (DSP: Digital Signal Processor) para liberar de trabajo al microprocesador del PC; uno de los más utilizados actualmente es el EMU10K1.
Canales, altavoces y la fiebre 3D
Podríamos explicar el concepto de canal o pista de forma sencilla como una pista de sonido diferente para cada altavoz en la que estarán grabados los datos que debe reproducir, para que no le lleguen datos de otros altavoces. Así cada altavoz reproducirá el sonido que le corresponde, logrando el deseado realismo.
Pero llegó un momento en que esto pareció ser poco, y se desató la fiebre 3D: ¿qué hace el sonido situado delante de nosotros? ¿No sería mejor que nos rodeara? Pues esto van a intentar reproducir los Dolby Surround, AC-3, A3D, THX, DirectSound3D... Para producir sonido envolvente existen multitud de sistemas:
Algunas tarjetas de sonido dicen ser capaces de producir sonido 3D con tan sólo 2 altavoces (yo tengo una de esas, que vale 2500 ptas., podéis haceros una idea de la realidad de la afirmación). Estos sistemas, más que sonido envolvente, crean "sonido extraño", pues combinan los 2 canales del estéreo para provocar sensación de profundidad en sonido (nunca sonido "envolvente").
Últimamente, además de los 2 altavoces tradicionales, los vendedores ofrecen un Subwoofer (también conocido como altavoz-enorme-que-no-sé-dónde-colocar). Este altavoz se utiliza principalmente para la reproducción de los sonidos más graves, pero seguiremos teniendo solamente 2 canales.
Sistemas más avanzados, aportan al igual que ocurría con los sistemas de 2 altavoces, un subwoofer junto con los 4 altavoces, consiguiendo un mayor realismo en el sonido envolvente. Ya existen diversas soluciones (como el Creative FPS 2000) que por un precio económico proporcionan sonido cuadrafónico con cuatro altavoces y un subwoofer.
Especificaciones de sonido 3D
Los más conocidos son Direct Sound, Direct Sound 3D (a partir de DirectX 6), Aureal A3D 1.0 o 2.0, Dolby Surround Prologic o Dolby Digital.
Cada uno tiene sus ventajas e inconvenientes. Direct Sound 3D es muy utilizado en juegos en entornos Windows, por lo que su soporte es casi imprescindible para poder disfrutar de los mejores títulos de última generación en todo su esplendor. Aureal A3D ha sido una API propietaria que en un principio se utilizaba porque Direct Sound no soportaba sonido ambiental todo lo bien que debería, sin embargo, con el nuevos Direct Sound 3D, no debería ser necesario.
Mención aparte merecen las especificaciones Dolby Surround Prologic y Dolby Digital, competencia directa del THX del archimillonario George Lucas. Con la aparición del DVD se ha revolucionado el sector de entretenimiento.
Cuando en nuestro ordenador tengamos un reproductor DVD, podremos, en teoría, disfrutar de los títulos de vídeo en ese formato. Pero si realmente queremos disfrutar a fondo de ellos, serán necesarias 2 cosas. Primero, una tarjeta decodificadora de MPEG2, porque con tan sólo nuestra CPU la calidad que obtendremos no será la óptima; y por otro lado, un sistema de sonido que soporte Dolby Digital, y en ello incluimos la tarjeta de sonido, que debe ofrecer ese soporte, y los altavoces, que deben ser los necesarios.
Dolby Digital o el cine en casa
Directamente importado de los cines, así que podéis haceros una idea de la calidad.
El formato por excelencia del DVD es el Dolby Digital 5.1 o AC3. Este formato es evolución directa del Dolby Surround Prologic, utiliza 6 pistas, por lo tanto serán necesarios 6 altavoces: 1 central, 1 izquierdo y 1 derecho, 1 altavoz izquierdo y 1 derecho para el sonido ambiente (detrás del espectador) y 1 subwoofer para realzar los graves.
También será necesario un amplificador que soporte este formato de sonido, además de nuestra tarjeta. Un buen ejemplo es el Creative Desktop Theater 5.1 en conjunción con una SoundBlaster Live!.
Altavoces autistas y compañía
Últimamente se ha puesto de moda reducir costes al mínimo, como con los Winmódems, que utilizaban la potencia de nuestro procesador para suplir varios componentes que sencillamente no tienen. En el caso de los altavoces, se habla con mucha facilidad de potencias de "60W, 120W, 200W..." musicales o PMPO, que en realidad son de 5 a 20W reales; y por supuesto, unos altavoces buenos es IMPOSIBLE que cuesten 3.000 ptas, como sabe cualquier aficionado al sonido.
La última apuesta en el ahorro son los altavoces USB. En teoría parece una buena idea, enviamos los datos digitales por el puerto USB y los altavoces se encargan de reproducir el sonido. No hay complicaciones y la calidad de reproducción es bastante elevada. Además todas esas soluciones (como la de Philips o Microsoft) también llegan con un Subwoofer, por lo que su calidad de reproducción es bastante elevada. Además, nos hemos ahorrado el dinero que cuesta una tarjeta de sonido.
Conectando nuestra tarjeta con el exterior (y al revés)
Todos tenemos la parte trasera de nuestro ordenador repleta de una maraña de cables. Parte de la culpa la tiene la tarjeta de sonido.
Tradicionalmente se han utilizado conectores mini-jack, como los que usamos en nuestro radiocasete portátil. Éstos siguen siendo los más comunes en las soluciones de nivel bajo y medio. Se trata de conexiones analógicas de media calidad, que no es suficiente en muchos casos.
La explicación es sencilla; si al grabar el sonido se pierde un poco de calidad, cuando lo tratamos un poquito más y al grabarlo a soporte (al exterior) otro poco, en total hemos perdido 2 pocos y un poquito, mientras que con otras soluciones perderemos sólo un poquito.
Conectores tradicionales en las cadenas o minicadenas de sonido domésticas son los RCA. Normalmente cada RCA es un canal independiente (mientras que en el Jack van 2 canales juntos). Por ello siempre van de dos en dos (clásicamente el rojo es el canal derecho y el blanco el izquierdo). Ofrecen mayor calidad que los conectores Jack tradicionales pero son más caros y menos compactos.
Por último, las entradas y salidas MIDI. Serán necesarias en caso de que vayamos a trabajar con dispositivos MIDI como pudiera ser un teclado. Con la entrada MIDI, nuestras composiciones serán mucho más sencillas, puesto que tan sólo deberemos conectar nuestro teclado, y la partitura de la pieza que toquemos aparecerá en la pantalla de nuestro ordenador (si contamos con el software adecuado).
Si además de entrada, disponemos de una salida MIDI, cualquier partitura en ese formato podrá ser reproducida por un instrumento conectado, desde un teclado a una caja de ritmos pasando por una guitarra o una batería (siempre que sean MIDI, por supuesto).
Además de estos conectores externos, los hay también internos, siendo el más importante el que va al CD-ROM, para poder escuchar los CDs de música. Puede ser digital (sólo en los más modernos) o el típico analógico, del cual hace tiempo había varios formatos (para CD-ROMs Sony, Mitsumi, IDE...) ahora ya unificados. Y en algunas tarjetas antiguas se incluía un conector IDE de 40 pines para el CD-ROM (cuando los CD-ROMs eran algo "extra" y no existía el EIDE con sus 2 canales).
Formatos o la fiebre del MP3
El último punto que vamos a tratar es el de los formatos de audio. Tal vez esto se salga un poco del contexto hardware, pero es interesante conocerlos para saber nuestras necesidades y por tanto encontrar la tarjeta que mejor se adapte a nuestras posibilidades.
Audio digital en formato de onda o audio CD o .wav o .au (los wav del UNIX). Era el formato por excelencia para almacenar el sonido digital. Su principal ventaja, su calidad, su principal inconveniente, el espacio que ocupa. Para haceros una idea, en un CD caben "tan sólo" 74 minutos de audio a la máxima calidad: 44,1KHz, 16 bits y estéreo (2 canales).
Normalmente, cuando grabamos sonido en el ordenador lo haremos mediante este formato, el formato de onda. Con él, se almacenan sin compresión alguna las posiciones del sonido en cada instante. Sencillo y eficaz, pero con el problema del espacio.
Con el formato MIDI se soluciona el problema del espacio. Es totalmente distinto al formato de onda, con él, tan sólo almacenaremos las notas que deberán ser tocadas en cada instante. Por tanto permite gran flexibilidad y es ideal para compositores. Sin embargo, para obtener una calidad aceptable, será necesario que nuestra tarjeta disponga de tabla de ondas o, en su defecto, de un sintetizador virtual como el Yamaha visto anteriormente. Otra carencia importante es que no podremos añadir voces humanas, no se pueden sintetizar tan fácilmente como el sonido de un instrumento.
El formato MIDI ya no se utiliza como antes para dar música a juegos y producciones multimedia, puesto que la capacidad de los CDs hace que sea posible incluir las melodías en formato de onda, con la ventaja de poder incluir canciones con voces (de personas).
Por último, el megafamoso y siemprepolémico .mp3. El mp3 no es mas que una especificación para la compresión de ficheros de onda (los .wav). Con él se consigue reducir el tamaño original de los ficheros en unas 10 veces, aunque podemos variar cuánta compresión deseamos. La compresión normalmente es con pérdida, perdiendo parte del sonido, bien por ser datos redundantes o por cortarse de zonas donde apenas llega el oído humano. En la práctica, pocas personas pueden distinguir entre una canción original y una en formato mp3 (personalmente sólo he sido capaz de hacerlo con una canción con un ratio de compresión de 15 a 1 y prestando atención durante varias reproducciones, nunca a la primera). De ahí, de Internet y de excelentes reproductores como el Winamp, gran parte de su éxito.
Qué es... un módem
Módem es un acrónimo de MOdulador-DEModulador; es decir, que es un dispositivo que transforma las señales digitales del ordenador en señal telefónica analógica y viceversa, con lo que permite al ordenador transmitir y recibir información por la línea telefónica.
Tipos de módems
La distinción principal que se suele hacer es entre módems internos y módems externos, si bien recientemente han aparecido unos módems llamados "módems software" o Winmódems, que han complicado un poco el panorama.
-
Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes componentes que forman el módem. Existen para diversos tipos de conector:
-
ISA: debido a las bajas velocidades que se manejan en estos aparatos, durante muchos años se utilizó en exclusiva este conector, hoy en día en desuso.
-
PCI: el formato más común en la actualidad.
-
AMR: sólo en algunas placas muy modernas; baratos pero poco recomendables por su bajo rendimiento.
La principal ventaja de estos módems reside en su mayor integración con el ordenador, ya que no ocupan espacio sobre la mesa y toman su alimentación eléctrica del propio ordenador. Además, suelen ser algo más baratos debido a carecer de carcasa y transformador, especialmente si son PCI (aunque en este caso son casi todos del tipo "módem software"). Por contra, son algo más complejos de instalar y la información sobre su estado sólo puede obtenerse mediante software.
-
Externos: son similares a los anteriores pero metidos en una carcasa que se coloca sobre la mesa o el ordenador. La conexión con el ordenador se realiza generalmente mediante uno de los puertos serie o "COM", por lo que se usa la UART del ordenador, que deberá ser capaz de proporcionar la suficiente velocidad de comunicación; actualmente ya existen modelos para puerto USB, de conexión y configuración aún más sencillas.
modem Externos Para Puertos (USB)
modem Externos Para Puertos Serie
-
La ventaja de estos módems reside en su fácil transportabilidad entre ordenadores, además de que podemos saber el estado el módem (marcando, con/sin línea, transmitiendo...) mediante unas luces que suelen tener en el frontal. Por el contrario, son un trasto más, necesitan un enchufe para su transformador y la UART debe ser una 16550 o superior para que el rendimiento de un módem de 28.800 bps o más sea el adecuado.
-
Módems PC-Card: son módems que se utilizan en portátiles; su tamaño es similar al de una tarjeta de crédito algo más gruesa, pero sus capacidades pueden ser igual o más avanzadas que en los modelos normales.
-
ModemPc-Card (PCMCIA)
-
Módems software, HSP o Winmódems: son módems internos (al menos no conozco ninguno externo, y dudo que fuera posible construirlo) en los cuales se han eliminado varias piezas electrónicas, generalmente chips especializados, de manera que el microprocesador del ordenador debe suplir su función mediante software de aplicaciones abiertas (nada de multitarea mientras el módem funciona o se volverá una auténtica tortuga) y que el software que los maneja sólo suele estar disponible para Windows 95/98, de ahí el apelativo de Winmódems. Evidentemente, resultan poco recomendables pero son baratos...
-
Módems completos: los módems clásicos no HSP, bien sean internos o externos. En ellos el rendimiento depende casi exclusivamente de la velocidad del módem y de la UART, no del microprocesador.
La velocidad del módem
Resulta sin duda el parámetro que mejor define a un módem, hasta el punto de que en muchas ocasiones se habla simplemente de "un módem 33.600", o "un 14.400", sin especificar más. Estas cifras son bits por segundo, bps.
Se debe tener en cuenta que son bits, no bytes. En este contexto, un byte está compuesto de 8 bits; por tanto, un módem de 33.600 bps transmitirá (en las mejores condiciones) un máximo de 4.200 bytes por segundo, o lo que es lo mismo: necesitará como poco 6 minutos para transmitir el contenido de un disquete de 1,44 MB.
Por cierto: sólo en las mejores condiciones. La saturación de las líneas, la baja capacidad que proporcione el proveedor de acceso a Internet, la mala calidad del módem o de la línea (ruidos, interferencias, cruces...) suelen hacer que la velocidad media efectiva sea mucho menor, de 3.000 bytes/s o menos. Saber cuál de éstos es el factor limitante resulta vital para mejorar nuestro acceso a Internet.
Así mismo, no se debe confundir esta velocidad nominal (la que se supone que podría alcanzar el módem, por ejemplo 33.600 bps) con la velocidad de negociado, que es aquella que se nos indica al comienzo de una conexión a Internet; esta última es aquella que en principio, y en ese momento, ha identificado el módem del otro lado de la línea como válida, y tiene poco que ver con el rendimiento que obtendremos.
Así, una conexión en la que la velocidad de negociado ha sido de 31.200 bps podría acabar siendo mucho más rápida que otra en que se han alcanzado los 33.600. Sólo debe tenerse en cuenta este valor cuando es anormalmente bajo (como 14.400 con un módem de 33.600) o cuando nunca alcanzamos la velocidad máxima (lo que puede indicar que el módem, la línea o el proveedor son de mala calidad).
Los módems de ¿55.600 bps?
En realidad, de unos cuantos menos. Estos módems, también conocidos simplemente como de "56 K" (un redondeo al alza que no se corresponde con la realidad), utilizan una serie de trucos para aprovechar mejor la línea telefónica y poder recibir información a esta velocidad... a veces.
Los problemas de esta tecnología son:
-
al otro lado de la línea (por ejemplo en el servidor de su proveedor de Internet) debe existir un módem que sea también de 55.600 bps, y además del mismo tipo (ya que existen tres estándares distintos);
-
esta velocidad se utiliza sólo al recibir información, al mandarla la velocidad máxima es de 33.600 bps (aunque en Internet lo más común es recibirla);
-
si en el camino la señal es transformada múltiples veces (lo cual puede ocurrir, por ejemplo, si se encuentra a gran distancia de su proveedor, lejos de un núcleo urbano o usa una centralita), resulta imposible utilizar esta tecnología;
-
la línea telefónica debe ser de alta calidad; si no se conecta a 33.600 bps sin problemas, seguro que no podrá hacerlo a 55.600.
Por todos estos motivos, la velocidad máxima real serán unos 45.000 bps de media, suponiendo que todos los factores colaboren y las líneas no estén saturadas (lo cual desgraciadamente no es muy común). Respecto a la distancia máxima ideal hasta el proveedor o la central telefónica correspondiente, se recomienda que sea menor de 3,5 millas (unos 5,6 Km).
Las normas de comunicaciones
Las transmisiones de datos por vía telefónica se basan en una serie de estándares internacionales que deben cumplir los dispositivos implicados en la comunicación. Cada norma define una serie de parámetros tales que permiten la correcta comunicación a una cierta velocidad.
Así, cuando se dice que un módem cumple con la norma "V.34", quiere decir que es un módem que cumple una serie de especificaciones tal que le permite comunicarse con módems de esa velocidad (y usualmente de cualquier velocidad inferior a ésa). Las normas más importantes son:
Norma | Explicación | Velocidad máxima (bps) |
V.22bis |
Comunicaciones módem-módem | 2.400 |
V.32 | 9.600 | |
V.32bis | 14.400 | |
V.34 | 28.800 | |
V.34+ | 33.600 | |
V.90 | 55.600 | |
V.29 | Comunicaciones módem-fax | 14.400 |
V.42 y MNP2-4 | Control de errores | No aplicable |
V.42bis y MNP5-10 | Compresión de datos | No aplicable |
Además de estos estándares, existen dos pseudo-estándares (no son oficiales) para las transmisiones a 55.600 bps: el "K56flex" y el "x2". Son incompatibles entre sí; el de más éxito en España fue el K56flex de Rockwell, aunque el x2 se usaba mucho en Estados Unidos; estos pseudo-estándares se resistieron mucho a ser sustituidos por la norma oficial V.90 debido al excesivo tiempo que tardó en aparecer ésta.
La velocidad interna PC-módem
A falta de un nombre mejor, es como designaremos a la velocidad con que se comunican entre sí el PC y el módem, bien sea éste interno (en cuyo caso lo hará mediante el bus ISA), bien sea externo (mediante un cable conectado a un puerto COM).
Esta velocidad puede (y debe) ser mayor que aquélla a la que se están comunicando nuestro módem y el módem remoto. Cuanto mayor sea el flujo de información entre nuestro ordenador y nuestro módem, más libre estará éste para ir dando la información que recibe del exterior y mejor será el rendimiento, sin cuellos de botella que lo ralenticen.
Por ejemplo, si ambas velocidades fueran iguales (por ejemplo de 28.800 bps), si el módem estuviera recibiendo un caudal constante igual a esos 28.800 bps y deseáramos darle una orden ("dile al servidor remoto que quiero otra página", por ejemplo), debería cedernos parte de esos 28.800 bps para que le pudiéramos "hablar", lo que causaría un desfase en la transmisión y una ralentización del proceso. Y si por algún motivo tuviéramos la suerte de conectar unos instantes a más velocidad de la normal (lo que se denomina un "pico" en la transmisión), no podríamos aprovecharlo porque hemos puesto el tope en la velocidad nominal.
Siendo prácticos, digamos que la velocidad interna ideal para un módem 55.600, 33.600 o 28.800 son 115.200 bps (como vemos, mucho mayor de la nominal), mientras que para un módem 14.400 es 57.600 bps. Sin embargo, a veces resultan excesivamente difíciles de controlar estos valores y deben seleccionarse valores inferiores, como por ejemplo 38.400 bps para un módem 14.400. En Windows 95 se seleccionan como una opción más del módem, con el críptico nombre de "velocidad máxima".
Quien limita estos valores, proporcionando o no soporte a estas velocidades, es la tan comentada UART, de la que trataremos más adelante.
Los comandos Hayes
Hayes es el nombre de una empresa que en los orígenes de la comunicación por módem (cuando 2.400 bps podían parecer una enormidad) definió una serie de comandos u órdenes para que el software de comunicaciones pudiera comunicarse con el módem. Estos comandos tuvieron tanto éxito que se convirtieron en el virtual estándar de comunicaciones, y los módems que los comprenden (el 99,99% de los módems modernos) se denominan compatibles Hayes.
Los comandos Hayes más comunes son:
-
ATZ: inicializa o resetea el módem.
-
ATH: cuelga la línea.
-
ATM: apaga el altavoz del módem.
-
ATDP número: marca un teléfono por pulsos (método de marcar de las líneas de teléfono analógicas antiguas, que asigna tantos ruidos de marcado como valores de las cifras del número; así, el "055" se marcaría haciendo 10+5+5=20 sonidos).
-
ATDT número: marca un teléfono por tonos (método de marcar de las líneas de teléfono analógicas modernas, que asigna un ruido de marcado por cada cifra del número; así, el "055" se marcaría haciendo 1+1+1=3 sonidos).
Por ejemplo, la siguiente secuencia de comandos: ATMDT055 nos serviría para llamar por tonos al número de teléfono 055, sin tener que oír el altavoz del módem. En Windows estos comandos se introducirían (si es que hacen falta) en la casilla Configuraciones adicionales que se encuentra en Panel de control -> Módems -> Propiedades -> Conexión -> Avanzada.
La UART
Se trata del chip que controla los puertos serie del ordenador. En el caso de los módems internos no tiene especial importancia, ya que suelen traer la suya, preparada para la velocidad que necesitan. Los externos, sin embargo, puesto que se conectan a uno de los puertos COM ya existentes en el ordenador, dependen de la velocidad de la UART de éste.
Las UART se designan con un número de referencia. Si bien han existido varios modelos en los casi veinte años de vida de los PCs, los más comunes han sido el 8250 y el 16550. La 8250 es el modelo clásico, que se usó hasta mediada la época de los 486; es capaz de manejar sin problemas módems hasta de 14.400 bps, pero resulta insuficiente para módems más rápidos.
La 16550 es un modelo mucho más avanzado que llega a proporcionar velocidades internas PC-módem de hasta 115.200 bps, más que suficientes para módems de 28.800, 33.600 y 55.600 bps. Además de un diseño más complejo, tiene buffers de memoria en los que guardar información hasta que pueda ser procesada.
Otros modelos son la 16450, que es un modelo de transición entre ambas y que como mucho puede manejar módems de 28.800 bps, aunque ya con ciertas mermas de rendimiento, y las diversas variantes y mejoras de la 16550 (16550AF y muchas otras de número de referencia superior).
Tanto en el MSD como en otros programas, si el programa detecta una UART 16550 o superior es casi seguro que ha acertado; sin embargo, si detecta una 8250 puede que no sea correcto y en realidad sea un modelo más avanzado. Otros programas que detectan el hardware del ordenador son CheckIt, Agsi, PCConfig o Hardware Info.
La RDSI
Es decir, la Red Digital de Servicios Integrados (ISDN en inglés), o lo que es lo mismo: la línea de teléfono digital. Lo que distingue a estas líneas no es el cable, que en la mayoría de los casos es el mismo, sino el método de utilizarlo: se utiliza la línea telefónica digitalmente en vez de analógicamente, lo cual implica que la cantidad de información transmitible por la línea es mayor.
Una línea digital común tiene un ancho de banda de 128 kilobps; sí, ¡128.000 bits por segundo!, que pueden repartirse en dos canales de 64 Kbps. Así, podemos tener dos líneas de teléfono, o una línea de teléfono y una conexión a Internet de 64.000 bps, o una conexión a Internet de 128.000 bps. Y son cifras reales y absolutas, no como los 55.600 bps de los módems de que hablábamos antes...
Estas líneas cuestan más dinero al contratarlas y mensualmente, además de que algunos proveedores de Internet piden un extra a quienes quieren conectarse a estas velocidades, lo que es lógico si pensamos en que un solo cliente que se conecta a 64.000 bps ocupa ancho de banda como dos o tres con módems normales de entre 14.400 y 33.600 bps, y el proveedor paga bastante por dicho ancho de banda.
Por lo demás, instalar y manejar una conexión a Internet por RDSI no es mucho más difícil que hacerlo con una normal, y muchas veces se ofrece incluso un paquete que incluye la contratación de la línea con Telefónica (o Retevisión o quien sea), la tarjeta RDSI, la conexión a Internet y la instalación a domicilio de todo.
Por último comentar que estas conexiones se realizan mediante un aparato similar a un módem que, al ser casi siempre interno, recibe el nombre genérico de tarjeta RDSI y que no resulta excesivamente caro. Dispone de sus propias UART especiales capaces de alcanzar esos 128.000 bps, por lo que no debería depender de las capacidades del ordenador; pero debido a la gran cantidad de información a manejar y a que se supone que buscamos un rendimiento adecuado (si no, mejor no gastarnos tanto dinero), el ordenador deberá ser medianamente potente, un 486 o preferiblemente un Pentium.
¿Qué es... un Escáner?
Ateniéndonos a los criterios de la Real Academia de la Lengua, famosa por la genial introducción del término cederrón para denominar al CD-ROM, probablemente nada; para el resto de comunes mortales, digamos que es la palabra que se utiliza en informática para designar a un aparato digitalizador de imagen.
Por digitalizar se entiende la operación de transformar algo analógico (algo físico, real, de precisión infinita) en algo digital (un conjunto finito y de precisión determinada de unidades lógicas denominadas bits). En fin, que dejándonos de tanto formalismo sintáctico, en el caso que nos ocupa se trata de coger una imagen (fotografía, dibujo o texto) y convertirla a un formato que podamos almacenar y modificar con el ordenador. Realmente un escáner no es ni más ni menos que los ojos del ordenador.
Cómo funciona
El proceso de captación de una imagen resulta casi idéntico para cualquier escáner: se ilumina la imagen con un foco de luz, se conduce mediante espejos la luz reflejada hacia un dispositivo denominado CCD que transforma la luz en señales eléctricas, se transforma dichas señales eléctricas a formato digital en un DAC (conversor analógico-digital) y se transmite el caudal de bits resultante al ordenador.
El CCD (Charge Coupled Device, dispositivo acoplado por carga -eléctrica-) es el elemento fundamental de todo escáner, independientemente de su forma, tamaño o mecánica. Consiste en un elemento electrónico que reacciona ante la luz, transmitiendo más o menos electricidad según sea la intensidad y el color de la luz que recibe; es un auténtico ojo electrónico. Hoy en día es bastante común, puede que usted posea uno sin saberlo: en su cámara de vídeo, en su fax, en su cámara de fotos digital...
Por este motivo se suele decir que son preferibles los escáners de marcas de prestigio como Nikon o Kodak a otros con una mayor resolución teórica, pero con CCDs que no captan con fidelidad los colores o DACs que no aprovechan bien la señal eléctrica, dando resultados más pobres, más planos.
La resolución
No podemos continuar la explicación sin definir este término, uno de los parámetros más utilizados (a veces incluso demasiado) a la hora de determinar la calidad de un escáner. La resolución (medida en ppp, puntos por pulgada) puede definirse como el número de puntos individuales de una imagen que es capaz de captar un escáner... aunque en realidad no es algo tan sencillo.
La resolución así definida sería la resolución óptica o real del escáner. Así, cuando hablamos de un escáner con resolución de "300x600 ppp" nos estamos refiriendo a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede captar 300 puntos individuales, mientras que en vertical llega hasta los 600 puntos; como en este caso, generalmente la resolución horizontal y la vertical no coinciden, siendo mayor (típicamente el doble) la vertical.
Tenemos también la resolución interpolada; consiste en superar los límites que impone la resolución óptica (300x600 ppp, por ejemplo) mediante la estimación matemática de cuáles podrían ser los valores de los puntos que añadimos por software a la imagen. Por ejemplo, si el escáner capta físicamente dos puntos contiguos, uno blanco y otro negro, supondrá que de haber podido captar un punto extra entre ambos sería de algún tono de gris. De esta forma podemos llegar a resoluciones absurdamente altas, de hasta 9.600x9.600 ppp, aunque en realidad no obtenemos más información real que la que proporciona la resolución óptica máxima del aparato. Evidentemente este valor es el que más gusta a los anunciantes de escáners...
Por último está la propia resolución de escaneado, aquella que seleccionamos para captar una imagen concreta. Su valor irá desde un cierto mínimo (típicamente unos 75 ppp) hasta el máximo de la resolución interpolada. En este caso el valor es siempre idéntico para la resolución horizontal y la vertical, ya que si no la imagen tendría las dimensiones deformadas.
Los colores y los bits
Al hablar de imágenes, digitales o no, a nadie se le escapa la importancia que tiene el color. Una fotografía en color resulta mucho más agradable de ver que otra en tonos grises; un gráfico acertadamente coloreado resulta mucho más interesante que otro en blanco y negro; incluso un texto en el que los epígrafes o las conclusiones tengan un color destacado resulta menos monótono e invita a su lectura.
Sin embargo, digitalizar los infinitos matices que puede haber en una foto cualquiera no es un proceso sencillo. Hasta no hace mucho, los escáners captaban las imágenes únicamente en blanco y negro o, como mucho, con un número muy limitado de matices de gris, entre 16 y 256. Posteriormente aparecieron escáners que podían captar color, aunque el proceso requería tres pasadas por encima de la imagen, una para cada color primario (rojo, azul y verde). Hoy en día la práctica totalidad de los escáners captan hasta 16,7 millones de colores distintos en una única pasada, e incluso algunos llegan hasta los 68.719 millones de colores.
Formatos de escáner
Físicamente existen varios tipos de escáner, cada uno con sus ventajas y sus inconvenientes:
-
De sobremesa o planos: son los modelos más apreciados por su buena relación precio/prestaciones, aunque también son de los periféricos más incómodos de ubicar debido a su gran tamaño; un escáner para DIN-A4 plano puede ocupar casi 50x35 cm, más que muchas impresoras, con el añadido de que casi todo el espacio por encima del mismo debe mantenerse vacío para poder abrir la tapa.
Sin embargo, son los modelos más versátiles, permitiendo escanear fotografías, hojas sueltas, periódicos, libros encuadernados e incluso transparencias, diapositivas o negativos con los adaptadores adecuados. Las resoluciones suelen ser elevadas, 300x600 ppp o más, y el precio bastante ajustado. El tamaño de escaneado máximo más común es el DIN-A4, aunque existen modelos para A3 o incluso mayores (aunque ya con precios prohibitivos). -
De mano: son los escáners "portátiles", con todo lo bueno y lo malo que implica esto. Hasta hace unos pocos años eran los únicos modelos con precios asequibles para el usuario medio, ya que los de sobremesa eran extremadamente caros; esta situación a cambiado tanto que en la actualidad los escáners de mano están casi en vías de extinción. Descansen en paz.
De rodillo: unos modelos de aparición relativamente moderna, se basan en un sistema muy similar al de los aparatos de fax: un rodillo de goma motorizado arrastra a la hoja, haciéndola pasar por una rendija donde está situado el elemento capturador de imagen.
Este sistema implica que los originales sean hojas sueltas, lo que limita mucho su uso al no poder escanear libros encuadernados sin realizar antes una fotocopia (o arrancar las páginas, si se es muy bestia), salvo en modelos peculiares como el Logitech FreeScan que permite separar el cabezal de lectura y usarlo como si fuera un escáner de mano. A favor tienen el hecho de ocupar muy poco espacio, incluso existen modelos que se integran en la parte superior del teclado; en contra tenemos que su resolución rara vez supera los 400x800 puntos, aunque esto es más que suficiente para el tipo de trabajo con hojas sueltas al que van dirigidos. -
Modelos especiales: aparte de los híbridos de rodillo y de mano, existen otros escáners destinados a aplicaciones concretas; por ejemplo, los destinados a escanear exclusivamente fotos, negativos o diapositivas, aparatos con resoluciones reales del orden de 3.000x3.000 ppp que muchas veces se asemejan más a un CD-ROM (con bandeja y todo) que a un escáner clásico; o bien los bolígrafos-escáner, utensilios con forma y tamaño de lápiz o marcador fluorescente que escanean el texto por encima del cual los pasamos y a veces hasta lo traducen a otro idioma al instante; o impresoras-escáner, similares a fotocopiadoras o más particulares como las Canon, donde el lector del escáner se instala como un cartucho de tinta.
Conectores: ¿paralelo, SCSI o USB?
Esta es una de las grandes preguntas que debe hacerse todo futuro comprador de un escáner. La forma de conectar un periférico al ordenador es siempre importante, pues puede afectar al rendimiento del dispositivo, a su facilidad de uso o instalación... y fundamentalmente a su precio, claro.
Puerto paralelo
Es el método más común de conexión para escáners domésticos, entendiendo como tales aquellos de resolución intermedia-alta (hasta 600x1.200 ppp, pero más comúnmente de 300x600 ó 400x800 ppp) en los que la velocidad no tiene necesidad de ser muy elevada mientras que el precio es un factor muy importante.
El puerto paralelo, a veces denominado LPT1, es el que utilizan la mayor parte de las impresoras; como generalmente el usuario tiene ya una conectada a su ordenador, el escáner tendrá dos conectores, uno de entrada y otro de salida, de forma que quede conectado en medio del ordenador y la impresora. Como primer problema de este tipo de conexión tenemos el hecho de que arbitrar el uso del puerto paralelo es algo casi imposible, por lo que en general no podremos imprimir y escanear a la vez (aunque para un usuario doméstico esto no debería ser excesivo problema).
Conector SCSI
Sin lugar a dudas, es la opción profesional. Un escáner SCSI (leído "escasi") es siempre más caro que su equivalente con conector paralelo, e incluso muchos resultan más caros que modelos de mayor resolución pero que utilizan otro conector. Debido a este sobreprecio no se fabrican en la actualidad escáners SCSI de resolución menor de 300x600 ppp, siendo lo más común que las cifras ronden los 600x1.200 ppp o más.
La utilidad de la conexión SCSI radica en dos apartados: velocidad y pocos requisitos de microprocesador. Lo primero es fácil de entender: la interfaz SCSI puede transmitir de 5 a 80 MB/s, dependiendo del estándar SCSI en concreto, mientras que el puerto paralelo a duras penas supera 1 MB/s (y eso en los modos "avanzados" ECP o EPP). Si como vimos antes una imagen A4 puede ocupar 25 MB o más, resulta evidente que un escáner SCSI es la opción a utilizar para escanear imágenes grandes con una cierta resolución y calidad de color.
La otra cualidad de SCSI incide también en la velocidad, aunque de otra forma. No se trata sólo de que se puedan transmitir 10 ó 20 MB/s, sino que además dicha transferencia se realiza sin que el microprocesador realice apenas trabajo; esto permite ir escaneando imágenes mientras realizamos otras tareas, agilizando mucho el trabajo. En un escáner paralelo resulta muy normal que mientras se realiza el escaneado el rendimiento del ordenador baje tanto que no merezca la pena intentar hacer nada hasta que haya finalizado el proceso.
Puerto USB
Esto es lo último en escáners; tanto, que hace poco más de un año sencillamente no existía ningún escáner en el mercado con este tipo de conexión. Los puertos USB están presentes en la mayoría de ordenadores Pentium II, AMD K6-2 o más modernos, así como en algunos Pentium MMX.
En general podríamos decir que los escáners USB se sitúan en un punto intermedio de calidad/precio. La velocidad de transmisión ronda los 1,5 MB/s, algo más que el puerto paralelo pero bastante menos que el SCSI; la facilidad de instalación es casi insuperable, ya que se basa en el famoso Plug and Play (enchufar y listo) que casi siempre funciona; todos los ordenadores modernos tienen el USB incorporado (los Pentium normales ya son antiguos... ¡qué se le va a hacer!!); y además dejan el puerto paralelo libre para imprimir o conectar otros dispositivos.
La interfaz TWAIN
Si bien hace unos años aún existía un número relativamente alto de aparatos que usaban otros métodos propios, hoy en día se puede decir que todos los escáners normales utilizan este protocolo, con lo que los fabricantes sólo deben preocuparse de proporcionar el controlador TWAIN apropiado, generalmente en versiones para Windows 9x, NT y a veces 3.x. Desgraciadamente, sólo los escáners de marca relativamente caros traen controladores para otros sistemas operativos como OS/2 o Linux, e incluso en ocasiones ni siquiera para Windows 3.x o NT; la buena noticia es que la estandarización de TWAIN hace que a veces podamos usar el controlador de otro escáner de similares características, aunque evidentemente no es un método deseable...
WEBCAM
En 1991, el la universidad de Cambridge, Inglaterra los investigadores de la sala de troyanos del laboratorio de computación conectarón una cámara a un dispositivo de captura de video y la implementaron en la cafetera del laboratorio. Así pudieron ejecutar un programa para verificar si habia café en la cafetera, en lugar de recorrer el vestíbulo o subir las escaleras sólo para encontrar que la cafetera esta vacia. Las imagenes de la cafetera llegaron a la World Wide Web algunos años más tarde, y nació el concepto de la Webcam.
En la Webcam radica un concepto sencillo; tenga en funcionamiento continuo una cámara de video, obtenga un programa para captar un imagen en un archivo cada determinados segundos o minutos, y cargue el archivo de la imagen en un servidor Web para desplegarla en una página Web.
Una cámara web en la simple definición, es una cámara que esta simplemente conectada a la red o INTERNET. Como te puede imagianr tomando esta definición, las camaras webs pueden tomar diferentes formas y usos.
Unos de los tipos más comunes de cámaras personales que estan conectadas a computadoras del hogar, funcionando con la ayuda de algunos programas usuarios comparten una imagen en movimiento con otros. Dependiendo del usuario y de los programas, estas imagines pueden ser publicadas disponibles en el internet por vía de directorios especificados, o algunos disponibles a los amigos de usuarios que ahora poseen la propia dirección para conectarse. Esas cámaras son típicamente solo cuando los usuarios de las computadoras están encendido y conectados a Internet. Con el apoyo de un modem DSL y Cable, usuarios viven sus computadoras en más y mejores observadores de web, esto tiene otras complicaciones incluyendo velocidad y seguridad.
Otros tipos comunes de cámara web es la cámara que se basa en una escena en particular, monumento, u otro lugar de interés de visitantes potenciales. Más de estas cámaras estan disponibles 24/7. Pudes tener muchos pequeños conteos de pinturas (imagenes) detrás de otros muchos más excitantes en el tiempo del dia, si este es el caso.
QUE SE NECESITA
Antes que todo, el Hardware.De manera específica, una cámara; por supuesto, no cualquier cámara. Para una Webcam, necesita una cámara de video digital que pueda conectarse a su computadora y le permita grabar video para enviarlo por Internet. Los ejemplos comunes son la Intel Create and Share Camera Pack, la serie Logitch QuickCam y el sistema 3Com serie HomeConnect; aunque hay muchas otras. Tambien puede utilizar una camcorder al pasar su señal a través de uan tarejta periférica para la captura de video o una tarjeta de video, como uan ATI ALL-inWonder. Si la forma en que está programada le permita captar imagines en formato JPEG o GIF y cargarlas en un servidor Web, es adecuada para el uso en el Web.
Muchas cámaras actuales están disponibles con interfaces de puertos paralelos y también hay versions USB. La version paralela puede ser un problemas si quiere utilizar la impresora mientras la Webcam está en operación. El USB facilita el trabajo en gran medida, pero solo recibe soporte total en Windows 98, Windows 2000 y Macintosh. Otras cámaras incluyen uan tarjeta periférica(casi siempre PCI) que funciona como unidad de captura.
Un aspecto al que debe prestar mucha atención cuando elija una camará de video es su capacidad para captar imagenes de alta calidad en condiciones poco iluminadas. Muchas Webcam en Internet despliegan imagenes que se ven sobrepuestas o muy oscuras, a menudo como resultado directo de la falta de senbilidad a la luz por parte de la cámara. Puede mejorar su cámara si agrega hardware como un montaje remoto, que permite que el visitante de su sitio controle la cámara y vea todo el escenario.
Qué es el CD ROM
El CD ROM constituye una innovación radical dentro de la tecnología del almacenamiento de información. Es un nuevo medio de edición, el centro de una nueva generación de aplicaciones para la computadora y un instrumento educativo de potencia hasta ahora inimaginable. Es el primer dispositivo practico que permite a casi cualquier empresa confeccionar y vender, y a cualquier usuario comprar y usar directamente bases de datos digitales de gran volumen.
En un disco CD ROM caben 550 megabytes de datos digitales, que se conservan con una precisión y una seguridad comparables a las de los mejores periféricos de computadora. Esa capacidad es suficiente para almacenar:
-
El contenido de ciento cincuenta mil paginas impresas (alrededor de doscientos cincuenta libros de buen tamaño).
-
Imágenes nítidas de quince mil documentos comerciales (dos archivadores grandes).
-
El contenido de mil doscientos diskettes flexibles de 5.25 pulgadas.
-
Una imagen nítida en color y diez segundos de narración por cada uno de los tres mil segmentos de un programa educativo de consulta (casi ocho horas de contenido).
-
Grandes cantidades de cualquier otra cosa representable en forma digital, o cualquier combinación de todas mencionadas."
Pese a sus extraordinarias cualidades, el CD ROM no es todavía el medio de almacenamiento universal capaz de reemplazar a todos los demás. En casi todos los sistemas reales, el CD ROM necesita el apoyo familiar de discos magnéticos, la memoria RAM y del procesador."
Una limitación importante del CD ROM deriva del hecho de que sólo puede leerse. Se presta, pues, a la grabación de bases de datos invariables o históricas, pero no a las evolutivas. Las bases de evolución lenta pueden también difundirse en este medio si se sacan nuevas ediciones con regularidad; en cualquier caso, el ciclo de actualización mínimo que por ahora resulta practico está en torno a un mes.
El término tiempo de acceso es laxo y se abusa mucho de su significado. Consta de los siguientes componentes: tiempo de posicionamiento radial (frecuentemente llamado tiempo de acceso), que es el que tarda la cabeza en colocarse sobre la pista escrita; tiempo de asentamiento, que es el que tarda el ubicador de la cabeza o servomotor en dejar de moverse una vez que la cabeza llega a la pista buscada y cuando el sector deseado pasa bajo ella."
El rendimiento del CD ROM es moderado. Conectado a una instalación multiusuario muy solicitada, no podría atender la demanda de registros. Incluso al servicio de un solo usuario, una unidad de CD ROM con las características actuales seria frustrante si se pretendieran hojear rápidamente imágenes de alta resolución o reindexar una base de datos de gran tamaño.
El tiempo de acceso radial medio es de 500 ms o más, y 40 ms o menos de los de más calidad. También los valores de tardanza son preocupantes: entre 60 y 150 ms por término medio.
Tampoco debe eternizarse el dispositivo de almacenamiento en la transferencia. La aparición de cada vez más aplicaciones gráficas, de texto completo, de archivo de imágenes, etc., con registros de centenares o millares de Kbytes, obliga a tener en cuanta los tiempos de transferencia. Las unidades de CD ROM funcionan a 1.3 Mbit/s, un valor situado entre el de los diskettes flexibles (250 Kbit/s) y los Winchester (5 Mbit/s o más).
El Origen del CD ROM
Gran parte del interés que ha suscitado el CD ROM es atribuible al enorme éxito cosechado en el campo del sonido por el disco compacto o CD. Tan buena ha sido la acogida de los nuevos discos, que el 100% de toda la música que antes se hacia en discos LP ahora ya se vende en CD. Los reproductores, que empezaron a venderse a cerca de cuatro mil pesos, pueden ahora adquirirse ahora por menos de dos mil pesos. La capacidad de producción de discos CD crece en todo el mundo para satisfacer la demanda. En los dos primeros años de vida del nuevo formato se han vendido más de 65 millones de discos CD. Tan favorable situación alimenta la confianza en el éxito del CD ROM.
Durante la década de 1970 aparecieron diversos sistemas de videodisco de lectura mecánica y capacitiva, pero el único que ha sobrevivido ha sido el videodisco óptico, conocido ahora como LaserVision (LV).
Los discos LaserVision tienen normalmente 12 pulgadas de diámetro, aunque hay algunos de 8 pulgadas. En los de 12 pulgadas caben treinta o sesenta minutos de programa por cada cara, según el formato; en casi todos los discos se usan las dos caras.
Los primeros prototipos de tocadiscos LV aparecieron en los laboratorios hacia 1970, y a lo largo de los ocho años siguientes varias empresas (en particular Phillips, DiscoVision y Pioneer) invirtieron alrededor de 500 millones de dólares en desarrollar un producto viable, que se presentó por fin en 1978. La inversión se ha detenido, y ahora hay mejores aparatos, más instalaciones de grabación de masters y la producción crece a un ritmo estable. La base de técnica, ingeniería y manufactura que de todo ello ha resultado ha permitido desarrollar otras categorías de productos, entre ellos el CD ROM."
La idea del CD ROM se concretó a principios de la década de los ochentas, conforme maduraba el CD y empezaba a quedar clara la aceptación generalizada del nuevo medio. Entonces se le ocurrió a alguien que podría usarse una versión del CD para distribuir grandes cantidades de datos digitales.
A finales de 1984, después de que el mercado de computadoras personales empezara a estabilizarse, se presentaron varios prototipos de unidades lectoras de CD ROM. En 1985, junto a la primera oleada de bases de datos en CD ROM, se lanzaron unidades y subunidades comerciales."
Varias firmas se adelantaron al lanzamiento del CD ROM, y al comienzo de los ochentas adaptaron los discos LaserVision a la grabación de datos digitales. La adaptación consiste en transformar éstos en una señal similar a la de video, que se graba en el disco.
El disco óptico escribible o grabable constituye un tercer vástago del videodisco. Grabable significa que el usuario puede almacenar información directamente en el disco, sin necesidad de recurrir a ninguna operación de manufactura. Los discos grabables se han pensado desde el principio como medios de almacenamiento digital. Tanto las fabricas de periféricos como las de discos y las de computadoras tienen todavía que trabajar mucho en este campo. La primera generación de discos ópticos grabables deriva claramente del videodisco, con el que comparte muchas de las dimensiones básicas, el funcionamiento de la unidad lectora y los métodos y materiales de fabricación del disco. En un disco de 12 pulgadas caben alrededor de 1,000 megabytes por cada cara, se encuentran en el comercio desde 1983.
La segunda generación de disco ópticos grabables se puso a la venta en 1985. Son menores y más baratos que sus predecesores, y se basan en una combinación de las técnicas de discos compactos. Ocupan lo mismo que las actuales unidades de tamaño normal para diskettes de 5.25 pulgadas, lo que facilita la intercambiabilidad con los soportes magnéticos e incluso entre marcas de unidades ópticas; con todo, hay por el momento otros obstáculos que se oponen a la tan deseada intercambiabilidad.
Todos los discos presentan marcas legibles inmediatamente después de realizada la operación de escritura, por lo que también se llaman DRAW (lectura directa tras la escritura). Muchas unidades incorporan un circuito que lee continuamente a la par que escribe para verificar los datos.
1.6 Estructura del disco
Se comenzará con el propio disco. Como ilustra la figura 1, el disco CD ROM tiene 120 mm de diámetro (alrededor de 4.72 pulgadas), 1.2 mm de grosor y en el centro un hoyo para el eje de 15 mm de diámetro. La información, almacenada en una espiral de diminutos hoyos, se moldea sobre la superficie, que se recubre de una capa metálica brillante, protegida a su vez por una laca transparente.
Disco Compacto
Los hoyos miden 0.12 µm (micrones) de profundidad y 0.6 µm de anchura. La separación entre dos vueltas contiguas de la espiral es de 1.6 µm, lo que arroja una densidad de 16,000 pistas por pulgada (tpi), muy superior a la de los discos flexibles (hasta 96 tpi) y a la de los duros (varios cientos de tpi). La longitud a lo largo de la pista de los hoyos y los espacios planos situados entre ellos oscila entre 0.9 y 3.3 µm (ver figura 2). La acumulación de tan diminutos espacios produce un resultado asombroso: la longitud total de la pista espiral del disco CD ROM es de casi cinco kilómetros, y a lo largo de ella se ordenan casi 2,000 millones de hoyos.
Hoyos y Planos
Para transformar los datos en hoyos y planos se recurre a una operación llamada grabación de master, que consiste en lo siguiente: la onda portadora de la información codificada se transfiere desde una cinta magnética a un modulador (una especie de conmutador muy rápido), que controla un potente haz de láser de onda corta por medio de una lente, que a su vez lo enfoca sobre la superficie fotosensible de un disco master de vidrio.
La lente se desplaza radialmente conforme gira el master, lo que da lugar a la pista espiral característica del CD ROM. Al revelar la superficie fotosensible, las regiones expuestas se convierten en hoyos (el haz se enfoca de modo que las paredes de los hoyos queden inclinadas). El master revelado tiene un relieve exactamente igual al que tendrán los discos CD ROM.
Del master se obtiene, por galvanoplastia o por reproducción con un fotopolimero, uno o más negativos, llamados matrices, que sirven para dar forma a los discos definitivos. Por lo general, esta operación se hace mediante moldeo por inyección, aunque se están probando otras técnicas basadas en el grabado y la estampación en frío. En todos los casos el material del disco es policarbonato, un plástico transparente que se usa también para fabricar ventanas a prueba de balas y cascos protectores. Gracias a este material, el disco - un objeto de elevada precisión - puede sobrevivir al uso incontrolado por consumidores inexpertos. Los discos CD resisten intactos la temperatura de un coche estacionado al sol y las patadas y los golpes que les propinan los niños.
Todos los dispositivos de almacenamiento óptico utilizan un haz de láser que una lente enfoca sobre un punto muy pequeño. En casi todas las actuales unidades reproductoras de discos LaserVision, CD, CD ROM, y discos grabables grandes y pequeños, el haz lo genera un láser semiconductor de arseniuro de galio.
2.1 Técnicas de Grabación en CD
Uno de los factores que contribuyeron al éxito del CD fue la existencia de una normativa desarrollada conjuntamente por Sony y Philips gracias a la cual puede reproducirse cualquier disco en cualquier tocadiscos. Esas normas fijan básicamente las siguientes variables:
ð Un formato de datos, con indicaciones sobre el espacio para éstos, el direccionamiento de la información y los códigos de corrección de errores.
ð Códigos básicos de canal y de corrección de errores (ECC), y espacio suficiente para más datos y ECC.
ð Estructura microscópica y microscópica del disco.
2.2 Cómo se graban los datos en un CD
Recordemos que toda la información que usa la computadora es binaria (ceros y unos). Antiguamente se perforaban cintas y luego tarjetas para conservar y volver a entregar la información a la máquina. El sistema de conservación de un CD es muy parecido:
En el caso de los CD para audio, el sistema más usado hasta el momento, es grabar primero un disco maestro y después sacar copias.
La información se graba en el disco maestro mediante un láser de potencia, cuyo haz se mueve radialmente sobre el disco mientras éste gira. La intensidad del láser está controlada (modulada) por las señales captadas por los micrófonos. La superficie del disco es de una sustancia fotosensible que modifica sus propiedades de acuerdo con esta modulación. De esta forma el disco queda grabado según una línea espiral formada por millones de pocillos microscópicos (llamados PITS). El ancho y la profundidad de estos pocillos son constantes, pero la longitud está controlada por la señal de audio digital que modula el láser. Un CD suele tener alrededor de 2.5 billones de pocillos.
El DVD: ¿un nuevo estándar?
Las siglas DVD se traducen como Digital Video Device (dispositivo de vídeo digital) o bien Digital Versatile Disc (disco digital versátil). Resulta curiosa esta duplicidad de interpretaciones, que nos hace advertir que mientras unos lo consideran un simple almacenaje para vídeo, otros prefieren destacar que tiene muchas otras aplicaciones.
A primera vista, un disco DVD es prácticamente indistinguible de un CD convencional; quizá tiene un brillo más o menos particular, pero dejando aparte esto nos encontramos con la clásica oblea redonda de material plástico, de 12 cm de diámetro y con el agujero en el centro. Entonces, ¿qué le diferencia del clásico CD-ROM o del aún más clásico CD de música?
Para ver la diferencia necesitaríamos un microscopio; en el DVD, al igual que en el CD, la información digital se representa mediante microscópicas marcas como agujeritos en la superficie del CD (tapadas por una resina transparente protectora). Lo que ocurre es que en el DVD dichas marcas son más pequeñas y están más juntas, por lo que al caber más la capacidad es mayor. ¿Simple, verdad?
Tipos de DVD
Mientras que de nuestro viejo amigo el CD sólo existía un tipo (aparte de los mini-CDs de 8 cm), en el DVD tenemos hasta 4 variedades (y esto sin contar los grabables): una cara y una capa, una cara y dos capas, dos caras y una capa y dos caras y dos capas. Cara se refiere a las dos del disco DVD: la de adelante y la de detrás (de nuevo una solución simple pero eficaz); capa es algo más complicado, se refiere a capas de material (y por tanto de información) superpuestas en la misma cara del disco.
Así, la capacidad de un DVD va desde los 4,7 GB de la variedad de una cara y una capa hasta los 17 GB de la de dos caras y dos capas; o,
equivalentemente, la capacidad de 7 a 26 CDs convencionales. ¿Escalofriante, verdad?
¿Y para qué sirve tanta capacidad, se preguntará usted? Y yo, la verdad. Para distribuir programas no, sin duda, porque ¿quién es el guapo que tiene un disco duro de 17 GB? ¿Se imagina que la nueva versión de Word ocupara más de los 650 MB de un CD-ROM? No, la principal función es el almacenaje de vídeo digital, para lo cual 17 GB no es una cifra demasiado exagerada.
En el formato MPEG-2, un formato de compresión de vídeo digital (en el que emiten Canal Satélite y Vía Digital, por ejemplo), esos 17 GB se quedan en menos de 10 horas (eso sí, con sonido Dolby Digital AC-3). Y como la variedad más común de DVD es la de una cara y una capa, resultan algo más de 2 horas de vídeo; suficiente para una película con mayor calidad que en VHS, doblada en varios idiomas y con subtítulos en algunos más, a elección del usuario.
Los DVD para datos informáticos se denominan DVD-ROM, mientras que los de vídeo se denominan DVD-Vídeo o simplemente DVD. También existen normas que definen DVDs de 8 cm, pero probablemente se usen tan poco como los CDs de ese tamaño.
FAQs sobre el DVD
Llegados a este punto en que usted ya sabe lo que es el DVD (una especie de CD apretado que se usa sobre todo para guardar vídeo), vamos a lo práctico, en forma de FAQs (vamos, de preguntas típicas y respuestas):
-
¿Puedo usar un disco DVD en mi unidad de CD-ROM normal? No, para nada; necesita de una unidad lectora de DVDs, que cuestan como el doble de una de CD-ROM de marca.
-
¿Puedo usar mis CDs en una unidad de DVD? Depende. Los CDs de audio y los CD-ROMs normales, sí, sin problemas. Los CDs grabables (como las copias habituales de CDs), depende de la unidad pero es probable que sí. Los CDs regrabables, probablemente no, pero algunos lectores de DVD son capaces de hacerlo.
-
¿Cómo son de rápidas estas unidades de DVD? Las hay fundamentalmente de velocidad "1x" y de "2x". Las 1x están totalmente desfasadas, aunque llegan como mínimo a 1,2 MB/s (el equivalente a un CD de 8x). Las de 2x llegan como poco hasta 2,4 MB/s, el equivalente a un CD 16x, y a veces 20x o incluso más si en vez de un DVD hemos introducido un CD-ROM.
-
¿Necesito algo más para ver el vídeo digital? Sí. Necesita una tarjeta descompresora de vídeo MPEG-2, que a veces viene con la unidad DVD y a veces no, en cuyo caso suele ser más cara. Además, deberá tener un ordenador potente, digamos un Pentium 133 con 32 MB de RAM.
-
¿Existen unidades de DVD grabables? Sí, pero no estándar. Existen al menos dos tipos distintos e incompatibles, además de bastante caros, y no es seguro cuál ganará... o si perderán los dos a favor de un tercero.
Al finalizar este trabajo podemos llegar a la conclusión de que los “Herramientas de Multimedia” son cada dias mas importante en nuestro medio de vivir, ya que sin esta la computadora no pudieran manejar y combinar medios de texto, gráficos, animación, musica, voz y video.
Además sin esta herramientas la multimedia no pudieran manipular imágenes fotográficas, grabaciones de sonido y corto de video en forma digital.
2
Descargar
Enviado por: | Hector Almonte |
Idioma: | castellano |
País: | República Dominicana |