Sistemas Multimedia

Características. Aplicaciones. Requerimientos. Hardware. Software. Especificaciones MPC. Almacenamiento. Imagenes. Gráficos. Sonido. Desarrollo. Productos

  • Enviado por: Verónica Torricos
  • Idioma: castellano
  • País: Bolivia Bolivia
  • 48 páginas

publicidad

I. Introducción

El término “multimedia” viene de la yuxtaposición de la partícula “multi”, que implica variedad, y el plural latino de “médium”, que significa medio. Multimedia es la difusión de la información en más de una forma. Más precisamente, llamamos multimedia a cualquier combinación de texto, sonidos, imágenes o gráficos estáticos o en movimiento.

El soporte habitual es de tipo electrónico y a menudo es un sistema informático el encargado de generar la presentación de esa información en la forma y secuencia correcta. No obstante, otras formas de comunicación con múltiples recursos expresivos pueden también recibir la calificación de multimedia. Sería el caso de representaciones teatrales, musicales, cinematográficas, de televisión, etc.

Concretamente, consideraremos el estudio de las manifestaciones compuestas de texto, fotografías, animaciones, efectos sonoros y visuales, secuencias de vídeo, elementos de interactividad, realidad virtual, etc. que se presenten al usuario por medios informáticos.

II. Características de los Sistemas Multimedia

Las creaciones multimedia se basan generalmente en presentar los contenidos con gran atención al detalle, enfatizando mediante los recursos expresivos más sofisticados aquellos pormenores susceptibles de una mejor comprensión por esos medios. La motivación y el interés del receptor del documento se fomentan asimismo con elementos de impacto, entre los que se pueden incluir sonidos o efectos de diversa índole en el momento adecuado. También la organización de la información puede mejorarse recurriendo a modelos sofisticados de navegación por el documento.

Podemos analizar cuatro características fundamentales en los programas Multimedia:

  • Interactividad

  • Ramificación

  • Transparencia

  • Navegación

  • Definamos en qué consisten estas características teniendo siempre como referencia el concepto de interacción emergente de la comunicación humana, como construcción conjunta de significados válidos socialmente, y la idea de interacción desde una perspectiva tecnológica como control de operaciones.

  • Interactividad

  • Se denomina interacción a la comunicación recíproca, a la acción y reacción. Si la presentación multimedia permite al usuario actuar sobre la secuencia, velocidad o cualquier otro elemento de su desarrollo, pruebas o alternativas que modifiquen su transcurso, entonces se califica a la presentación como de multimedia interactiva.

    Desde el punto de vista de la interactividad, se distingue a veces también entre presentaciones o documentos multimedia interactivos y aplicaciones multimedia. Las primeras responden a un criterio básico de presentación de información al usuario y en las segundas el usuario puede generar y almacenar sus propios documentos o informaciones multimedia, manejándolas de una u otra forma. Lógicamente, la línea divisoria entre estos dos conceptos no es clara y absoluta, ya que según aumenta la interactividad, una presentación puede llegar a asemejarse notablemente a una aplicación. No obstante, la actitud del usuario ante una aplicación se orienta a su uso y aprovechamiento más o menos regular para realizar o ayudarse en una tarea determinada. Ante un documento multimedia, sin embargo, el usuario tiene una actitud más bien de consulta o aprendizaje.

  • Ramificación

  • Es la capacidad del sistema para responder a las preguntas del usuario encontrando los datos precisos entre una multiplicidad de datos disponibles.

  • Transparencia

  • La tecnología debe ser tan transparente como sea posible, tiene que permitir la utilización de los sistemas de manera sencilla y rápida, sin que haga falta conocer cómo funciona el sistema.

  • Navegación

  • Si la presentación está construida en forma de grafo, de modo que es posible navegar de unos puntos a otros siguiendo ciertos elementos de enlace, entonces se trata de una creación hipermedia. Los documentos con características hipermedia permiten canalizar el interés del usuario a través de una ruta que él va escogiendo en cada instante. De esta forma el acceso a la información que se busca es más sencillo. Aun en el caso de no estar buscando un detalle concreto sino únicamente examinando el contenido del documento, la posibilidad de trazar nuestra propia ruta, dentro de cierto límites marcados por la propia estructura del grafo de navegación, hace que la asimilación de estos contenidos pueda llegar a ser más fácil y cómoda. Por otro lado, es interesante que la ruta principal que propone el autor quede clara, pues es probablemente la más adecuada en términos generales, ya que introduce los conceptos en un orden prefijado. Un tipo de información relacionado con las creaciones hipermedia es aquél en el que el elemento protagonista es el texto y los enlaces se establecen partiendo de ciertas palabras o frases que conducen a otras secciones o partes del documento, que en este caso se califica como hipertexto. El hipertexto es un caso particular degenerado de la hipermedia.

    Un ejemplo típico de hipermedia es la “World Wide Web” que forma un entramado mundial de documentos con enlaces internos y, sobre todo, con enlaces de unos a otros. El contenido de muchos de estos documentos es claramente multimedia y su funcionamiento se basa en la conexión mediante TCP/IP de los sistemas que los sirven, dando lugar al servicio más popular de los disponibles a través de la red Internet.

  • Ambitos de Aplicación

  • En el mundo empresarial la tecnología multimedia tiene una implantación ya consolidada. Los usos más frecuentes son las presentaciones de proyectos, resultados, productos, previsiones, etc. También en publicidad, formación, mercadotecnia, encuestas, catálogos, etc. se ha demostrado muy útil y valiosa. Por otro lado, las aplicaciones multimedia en bases de datos, comunicaciones, planificación y control de proyectos (reuniones, tiempos, plazos, etc.) y otras necesidades comunes en las empresas aumentan día a día.

    En la industria son precisamente las aplicaciones las que más utilidad han demostrado. Desde los sistemas de control industrial como el propuesto en el punto anterior hasta las herramientas de simulación para operarios, pilotos, etc., pasando por los sistemas de gestión de piezas y stocks o de producción, el uso de estas tecnologías va en aumento.

    La educación es probablemente el ámbito en el que el uso del modelo multimedia puede aportar una mayor innovación y beneficio. La generalización de este modelo puede suponer una modificación radical del proceso educativo a todos los niveles, desde los primarios a los superiores. Es posible que en futuro no muy lejano los profesores adopten un papel de control y orientación, así como de desarrollo del material que los alumnos manejarán de forma más independiente que en el modelo tradicional. En este caso, las presentaciones interactivas tienen lógicamente el mayor protagonismo, aunque también son útiles pequeñas aplicaciones y simulaciones más o menos cercanas a la realidad virtual que permitan al alumno manejar elementos y escenarios interesantes. La enorme cantidad de posibilidades formativas es difícil de sintetizar, aunque algunos ejemplos son: aprendizaje del lenguaje y de la pronunciación, tanto en la lengua materna como en lenguas extranjeras; en materias como las matemáticas, física, química, etc. posibilidad de seguir desarrollos, comprobar resultados, ejercicios interactivos, representación gráfica animada de estructuras y modelos, imágenes, etc.; en educación superior, en medicina, ingenierías, informática, etc. las simulaciones tienen un papel fundamental; y en cualquier materia, la posibilidad de organizar de forma útil y flexible los contenidos proporciona una ventaja clara sobre los formatos tradicionales. Un aspecto también muy importante que converge con el modelo multimedia es el de la educación a distancia, de gran importancia en algunas áreas geográficas.

    En el ámbito doméstico la electrónica de consumo está confluyendo con el modelo multimedia de forma que no sólo a través del ordenador doméstico el usuario puede disfrutar de materiales de referencia, juegos, comunicaciones y control domótico, sino que también mediante dispositivos producto de la evolución de los televisores, reproductores de CD-ROM y videodiscos, o incluso de las consolas de videojuegos, se están introduciendo canales de acceso a esta tecnología. El desarrollo de los formidables mercados asociados a estos productos es difícil de predecir y está muy ligado a la evolución de los sistemas telemáticos como la televisión interactiva por cable, el acceso doméstico a Internet, etc.

    En los lugares públicos como bibliotecas, museos, campus universitarios, centros comerciales, bares, cines, teatros, aeropuertos, estaciones y en las propias vías públicas, empiezan a aparecer puntos de acceso a información. Dadas las condiciones habituales de uso de estos terminales, un contenido informativo visual e impactante, así como una interfaz de usuario intuitivo y de aprendizaje inmediato, típicos requisitos del material multimedia, son básicos para el éxito de su funcionamiento. Las ventajas de estas instalaciones son un servicio de información amplio, rápido y completo, independiente de horarios (24 horas al día, 7 días a la semana) y capaz de atender la demanda de un público creciente con la simple duplicación sucesiva de los equipos. Además, es frecuente ya ofrecer al usuario la posibilidad de acceder a sistemas de compra de entradas para espectáculos, de reserva de alojamiento, llamada de taxis, planos de la zona con itinerarios al destino deseado, pago electrónico y otros accesos interactivos a servicios de diversa índole, como Internet, recepción y envío de fax, etc. Se instala a veces impresoras que permiten la obtención de informaciones o comprobantes impresos en papel.

  • Requerimientos para una Producción Multimedia

  • A) Organización

    Un proyecto multimedia de pequeña entidad se puede plantear como la escritura de un libro, es decir con una programación limitada a la capacidad organizativa básica individual del autor, planteando los capítulos o secciones que pretende incluir y construyendo el documento poco a poco sin más previsiones o trámites.

    Un gran proyecto multimedia, sin embargo, exige una organización similar a la producción de un largometraje o un programa de radio o televisión.

    • Etapas de un Proyecto Multimedia

    Típicamente, las etapas en las que se divide el proyecto son las siguientes:

  • Planificación y evaluación de costes

  • Se deben contemplar las necesidades de material, personal y tiempo. Se debe diseñar en esta etapa un documento de requisitos y especificaciones del producto, así como un prototipo básico o prueba de concepto, si es posible.

  • Diseño y producción

  • Desarrollo de todo el material. El trabajo en grandes equipos de personas exige especial cuidado en el control de la marcha de cada tarea y en los trabajos de integración.

  • Pruebas

  • Es esencial no descuidar esta fase, pues la solidez y estabilidad del resultado final dependen de ella. Un buen conjunto de usuarios preseleccionados y motivados, sobre cada una de las plataformas a cubrir, deben poner el sistema en todas las situaciones posibles y evaluar el grado de satisfacción de los requisitos en cada aspecto de los planteados en las especificaciones.

  • Distribución

  • Un empaquetado, distribución y promoción adecuadas son básicas para el éxito del producto. Es necesaria también una adecuada política de post-venta que incluya un servicio de atención al usuario.

    • Participantes de un Proyecto Multimedia

    En cuanto al equipo de personas que suelen formar parte de un proyecto multimedia, podemos identificar las siguientes categorías:

    • Gerente de proyecto

    Es el responsable de la organización, el desarrollo y la implementación del proyecto. El control de los presupuestos y los gastos, el mantenimiento de la integridad del equipo y de los resultados de cada tarea, y la revisión de los tiempos y plazos son también tareas importantes del gerente de proyecto.

    • Diseñadores de multimedia

    Se ocupan de generar, adquirir y/o manipular los objetos multimedia (imágenes, sonidos, etc.) y suele ser especialista en el manejo de uno o varios de estos tipos de datos. Se incluyen en este apartado diseñadores gráficos, ilustradores, animadores, especialistas en procesamiento de imagen, de sonido, diseñadores de interfaces.

    • Escritores o guionistas

    Construyen un guión similar al de una película, pero teniendo en cuenta que el medio les va a permitir saltos en la linealidad, interacción, etc.

    • Programadores multimedia

    Se trata de programadores especializados en el aprovechamiento de las posibilidades de los sistemas de creación multimedia y capaces de trabajar con soltura con los diferentes tipos de datos y tecnologías asociadas a este tipo de software.

    • Asesores especialistas en el ámbito de aplicación

    En función del área abordada por el proyecto, será necesario contar con la colaboración de profesionales conocedores del tema. Ellos certificarán que los puntos de vista son los adecuados y proporcionarán información sobre los aspectos dudosos. A menudo serán estos especialistas los que escriban el texto concreto con los contenidos específicos, que se suele diferenciar del guión general, obra normalmente del guionista.

    B) Software y Hardware

    Un consorcio de compañías de software (Software Publishers Association, SPA), junto a otras compañías de fabricantes de hardware y liderados por Microsoft, crearon, en el año 1991, el MPC (Multimedia PC Marketing Council). El MPC es un conjunto de estándares sobre el equipo mínimo para ejecutar aplicaciones multimedia.

    A grandes rasgos, es posible señalar tres grandes grupos de interés: Audio, Vídeo y Almacenamiento.

    Respecto al primero de esos grupos podemos diferenciar tres elementos atendiendo a la consideración de la forma de la señal de audio:

  • CD-Audio
    Debe ofrecer la misma calidad que un reproductor de CD convencional. El equipo sólo requiere para reproducir estos CD-A de un par de altavoces externos y una mínima colección de comandos equivalentes a los del frontal de cualquier reproductor.

  • Forma de onda o Waveform
    A diferencia del CD-A, la forma de la señal de audio en este caso es digital. Por lo tanto el computador puede entenderla y manipularla directamente (por ejemplo los archivos ".wav" de Windows o los ".au" de SUN). Los dispositivos de entrada pueden ser desde un micrófono a un reproductor de cassette que se conectan a una tarjeta de sonido con capacidad para digitalizar dicha información (seguramente permitiendo guardarla en disco). En reproducción, los archivos son decodificados por la propia tarjeta y reconvertidos a su estructura analógica, siendo entonces reproducidos por los altavoces.

  • MIDI.
    No es en sí un generador de audio. El PC envía una cadena de instrucciones a un dispositivo capaz de generar audio MIDI: un sintetizador; que es el encargado de gestionar esta información tomando de una paleta de sonidos predeterminados para ese código y convirtiéndolos en sonido audible a través de los altavoces. Componer música MIDI es, fundamentalmente, un proceso de programación donde se precisa un controlador MIDI (un teclado por lo general) que indique al PC qué sonidos deben tocar y un software secuenciador que interponer entre la tarjeta de sonido y los altavoces.

  • El segundo de los grupos está formados por los elementos dedicados al tratamiento de la señal de vídeo, donde podemos diferenciar entre:

  • La tarjeta gráfica

  • Es la convencional que existe en todo ordenador y que le permite representar en pantalla textos, gráficos imágenes y animaciones. Es una conexión unidireccional entre el equipo y la pantalla.

  • La tarjeta de captura de vídeo

  • Algunas permiten controlar la información de vídeo existente en un Vídeo Disco (en un CD-ROM) de la misma forma que una tarjeta de sonido lo hace con un CD-Audio. La mayoría se emplean para convertir las señales de video analógico provenientes de una fuente externa (TV, VCR ó cámara de vídeo) a formato digital y se suelen denominar frame-grabbers. Lo que permite la posterior edición de las mismas. También existen tarjetas especializadas en la adquisición, compresión y tratamiento, en tiempo real, de secuencias de vídeo que se suelen denominar motion video board ó full-motion video board.

    Por último, el tercero de los grupos, hace referencia a un tema común en el campo de la multimedia con independencia de los tipos de medios que se conjuguen: es la problemática de la necesidad de grandes cantidades de información. Hablaremos tanto de medios magnéticos como ópticos.

  • Especificaciones MPC

  • Existen 3 niveles diferentes. Un nivel no es una mejora del anterior.

    Nivel 1 (1991)

    Hardware:

    • Procesador 386SX

    • 2 MB RAM

    • Disco duro de 30 MB

    • Monitor VGA o VGA+

    • Mouse de dos botones

    • Teclado 101

    • CD-ROM:

    • CD-DA output, transferencia promedio de 150 Kb/sec sin consumir más del 40% del ancho de banda en el proceso.

    • Tiempo de búsqueda promedio de 1 segundo o menos.

    • MSCDEX 2.2 driver o un equivalente que presente interfaces API.

    • Tarjeta de sonido:

    • 8-bit DAC, Linear PCM sampling, 22.05 y 11.025 kHz rate, DMA/FIFO con interruptor.

    • 8-bit ADC, Linear PCM sampling, 11.025 kHz rate

    • Puerto serial

    • Puerto paralelo

    • Puerto MIDI I/O

    • Puerto de Joystick

    • Audífonos o parlantes conectados al sistema de la computadora

    Software:

    Compatibilidad binaria con Windows 3.0 más la extensión Multimedia o Windows 3.1.

    Nivel 2 (1993)

    Hardware:

    • Microprocesador 25 MH 486SX o compatible.

    • 4 megabytes de memoria RAM (se recomienda 8 megabytes).

    • Disquetera de 3.5" Floppy.

    • Disco duro de 160 MB como mínimo.

    • Resolución de video de 640x480 con 65,536 (64K) de colores, como mínimo.

    • Mouse de dos botones.

    • Teclado 101 o equivalente.

    • CD-ROM:

    • Doublespeed con CD-DA outputs (300 KB/sec de transferencia promedio).

    • No más del 40% del ancho de banda debe ser consumido cuando se mantiene una transferencia promedio de 150 KB/sec.

    • Tiempo de búsqueda promedio de 400 milisegundos o menos.

    • 10,000 horas MTBF

    • CD-ROM XA ready (mode 1 capable, mode 2 form 1 capable, mode2 form

    • 2 capable)

    • Capacidad de Multisession.

    • MSCDEX 2.2 driver o un equivalente que tenga interfaces de audio API.

    • Tarjeta de Sonido:

    • 16-bit DAC, Linear PCM sampling; 44.1, 22.05, y 11.025 kHz rate, DMA/FIFO buffered transfer capability

    • 16 bit ADC, Linear PCM sampling; 44.1, 22.05, y 11.025 kHz rate, DMA/FIFO buffered transfer capability; con entrada para micrófono.

    • Puerto serial

    • Puerto paralelo

    • Puerto MIDI I/O

    • Puerto de Joystick

    • Audífonos o parlantes conectados al sistema de la computadora

    Software:

    Compatibilidad binaria con Windows 3.0 más la extensión Multimedia o Windows 3.1.

    Nivel 3 (1995)

    Hardware:

    • El CPU debe tener la certificación MPC.

    • Procesador de 75 MHz Pentium(R), capacidad MPEG1 y sólo un nivel cache como mínimo.

    • 8 megabytes de memoria RAM.

    • Disquetera de 3.5".

    • Disquetera de para discos de 1.44 MB.

    • Disco duro de 540 MB como mínimo.

    • Mouse de dos botones.

    • Teclado 101 o equivalente.

    • CD-ROM:

    • Los datos deben ser transferidos al host system en bloques de 2048, 2336 y/o 2352 bytes, de acuerdo con el formato del CD.

    • 16-bit DAC, Linear PCM sampling; 44.1, 22.05, y 11.025 kHz rate, DMA/FIFO buffered transfer capability

    • 16 bit ADC, Linear PCM sampling; 44.1, 22.05, y 11.025 kHz rate, DMA/FIFO buffered transfer capability; con entrada para micrófono.

    • Debe ser compatible con la versión MSCDEX 2.2 de Microsoft o un equivalente.

    • CD-DA outputs y control de volumen.

    • Uso de la memoria cache de 1.5 MB per sec.

    • Quad speed.

    • 16-bit D/A, A/D

    • 44 kHz sampling

    • wavetable synthesizer

    • MIDI playback

    • Controladores del volumen.

    • Resolución de video MPEG de 352x240 30 fps y colores de 15-bit.

    • Puerto serial

    • Puerto paralelo

    • Puerto MIDI I/O

    • Puerto de Joystick

    • Audífonos o parlantes conectados al sistema de la computadora

    Software:

    Compatibilidad binaria con DOS versión 6.0 o mayor.

  • Almacenamiento

  • Las formas de almacenamiento que se utilizan en el ámbito de la producción y comercialización multimedia son: los CDs y los discos flexibles.

    • Almacenamiento Óptico: CD-ROM

    En el campo de la multimedia se requiere comúnmente disponer de grandes cantidades de información para su realización y para su puesta en práctica.

    Hablaremos en este punto de los soportes de información basados en tecnología óptica de grabación y/o lectura. Estos aportan grandes capacidades de almacenamiento, accesible de forma rápida, con un bajo coste, compactos y fiables (resistentes a manipulación por usuarios no técnicos y en entornos sin un especial acondicionamiento). Se emplean en aplicaciones donde el volumen de información es importante: sistemas de tratamiento de imágenes y de sonido, nodos en redes de comunicaciones, autoedición, sistemas documentales y servicios, de documentos, bases de datos y multimedia.

    Se pueden distinguir dos grandes familias: los analógicos y los numéricos o digitales. La primera está constituida por una serie de soportes que almacenan la información de forma analógica y tiene su campo de aplicación más específico en la grabación y reproducción de imágenes de vídeo animadas o estáticas. Su realización más importante es el LaserDisc o Videodisco. La segunda gran familia es la formada por los discos numéricos o digitales, donde la información se almacena directamente en formato digital. La forma de introducir dichos datos permite clasificarlos funcionalmente como: grabables únicamente por el fabricante (CD-ROM, CD-I, DVI) y grabables directamente por el usuario (WORM, WMRA).
    Este es el soporte de almacenamiento más común que se puede encontrar en los equipos multimedia actualmente. Tiene sus orígenes en el CD - Audio (CD-A) convencional desarrollado por Philips y Sony Corp. , en el que se pueden encontrar aproximadamente unos 76 minutos de música. Aprovechando la misma tecnología de base en cuanto al proceso de fabricación y el diseño lógico y físico del disco, apareció el CD-ROM. En él se dispone del orden de 650 MB de información digital por cara. Esta se registra a lo largo de un único surco en espiral. La densidad lineal es constante a lo largo de toda la espiral lo cual implica un formato de velocidad lineal constante (CLV) en el que el motor de rotación adecua su velocidad para que cada sector, esté en el interior o en la periferia del disco, se lea en el mismo tiempo.

    La información se guarda en hendiduras tridimensionales (creadas con un láser de alta potencia) que forman depresiones dentro de las áreas planas del disco. Esta superficie irregular se resguarda de todo contacto con el lector mediante un recubrimiento protector. Su lectura se hace mediante un rayo láser de baja potencia que atraviesa la capa protectora de plástico y se refleja en las hendiduras, por lo que no implica contacto físico ni desgaste. Así, la pérdida o degradación de la información es virtualmente nula. Su enorme capacidad, longevidad, bajo coste y portabilidad lo ha convertido en el medio estándar de almacenamiento en los equipos informáticos.

    Puesto que se utilizan métodos ópticos, no sufre alteraciones por el efecto de campos magnéticos y al no existir contacto físico con el disco, la vida media de estos dispositivos se incrementa de forma considerable. Proporcionan almacenamiento en modo de sólo lectura y su coste de fabricación es bajo. Su capacidad equivale a unos 500 disquetes de 3.5" de alta densidad o 250.000 páginas tipografiadas.

    Habitualmente un lector de CDs trabaja sobre un único disco, pero existen dispositivos capaces de manejar 6, 12 y más de estos discos denominados jukebox.

    En la literatura se suele denominar disk a los medios magnéticos convencionales y disc a los dispositivos de sólo lectura (CD-ROM). Existen diversos estándares para los discos ópticos que reciben el nombre del color del libro en se publicaron, así suele hablar de:

    • Red Book para hacer referencia al estándar de los discos compactos de audio digital.

    • Yellow Book para los discos que se utilizan en los computadores: CD-ROMs.

    • Green Book para los CD-I. Orange Book para los discos compactos de que admiten una operación de escritura. White Book para los CDs de vídeo: DVDs.

    Existen diferentes tipos de interfaces para CD-ROM, entre las que cabe nombrar:

    • Sistemas propietarios, generalmente asociados a las tarjetas de sonido.

    • Interfaces SCSI.

    • Interfaces IDE (o ATA), entre las que destaca el estándar ATAPI o enhanced IDE.

  • Sistemas de Archivo

  • A diferencia de disquetes y discos duros, los dispositivos de tipo CD-ROM tienen un formato de sistema de archivos que se ha estandarizado y es portable entre diferentes sistemas operativos.

    El sistema de archivos original se denominó High Sierra. Posteriormente, con pequeñas modificaciones, fue estandarizado por ISO y hecho oficial como ISO 9660. Este estándar es como una descripción del mínimo común denominador del formato. Los nombres de ficheros se limitan al formato 8+3 de MS-DOS, con los caracteres en mayúsculas y con un máximo de ocho niveles de subdirectorios.

    Para sistemas compatibles UNIX (por ejemplo Linux) estas restricciones eran demasiado severas. Por lo que apareció el Rock Ridge Interchange Protocol (RRIP) que utiliza algunos campos reservados en el formato ISO 9660 para dar soporte a las características típicas de un sistema UNIX: nombres largos, enlaces simbólicos y un mayor número de niveles de subdirectorios.

    También existen otros sistemas entre los que cabe destacar por su difusión el HFS de Apple Macintosh o el de Sun Microsystems. Así como sistemas híbridos que permiten la existencia de diferentes sistemas de archivos en un mismo soporte (por ejemplo el ISO 9660 y el HFS).

  • Usos especializados

  • Puesto que el formato físico es el mismo para CD-A y CD-ROM, la mayoría de unidades lectoras de CD-ROMs pueden reproducir CD-A. Existen discos multimedia que contienen un sistema archivos ISO 9660 así como una o más pistas de audio en el mismo soporte, permitiendo la existencia de un software que una vez en ejecución (en memoria) puede reutilizar la misma unidad para reproducir sonido.

    Los CD-I (Compact Disc - Interactive), son un estándar para máquinas de reproducción de contenidos autónomas dedicadas al mercado de consumo que permite audio y vídeo. El propio disco contiene el software para ejecutar en la máquina.

    PhotoCD es un proceso desarrollado por Kodak donde las imágenes digitalizadas mediante un escáner de fotografías son almacenadas en un CD-ROM. Estas imágenes pueden ser visualizadas en un ordenador con el soporte software correspondiente. En estos discos, generalmente de color dorado, se almacenan unas 100 imágenes, cada fotografía es guardada en cinco diferentes resoluciones (desde 128x192 hasta 2048x3072 pixeles) con 24 bits para cuantificar el color. Dependiendo del dispositivo de visualización utilizado (televisión, ordenador, etc.) se selecciona la imagen de la máxima resolución soportada. A estos discos se les pueden ir introduciendo las imágenes de forma progresiva, escribiendo en diferentes áreas de índice cada vez que se añaden contenidos, por lo que se les conoce como discos de multisección.

  • Sistemas híbridos.

  • Un disco magneto - óptico o MO, consiste en una capa magnética sensible al calor, protegida por una cubierta de milímetro y medio. El proceso de escritura se produce en dos pasadas, una para borrar y otra para escribir. Un rayo láser calienta el material para alterar su magnetización selectivamente.

    • Almacenamiento magnético: Discos flexibles o "disquetes"

    Es un medio de almacenamiento magnético que puede ser grabado y borrado muchas veces. Nos facilita la búsqueda de la información. Consiste de un plástico flexible circular, que tiene una capa de óxido ferroso capaz de sostener puntos magnéticos. Antes de usar un disco, este debe ser formateado. Al formatear el disco éste se divide en pistas y cada pista se divide en sectores. Cada sector almacena 512 bytes.


    Tipo de disco

    5.25
    DD

    5.25
    HD

    3.5
    DD

    3.5
    HD

    Número de pistas

    40

    80

    80

    80

    Sectores por pistas

    9

    15

    9

    18

    Total sectores

    720

    2400

    1440

    2880

    Total almacenamiento

    360 K

    1.2 M

    720 K

    1.44 M

  • Imagen: Gráficos por Computador

  • Los gráficos por computador, están presentes en diferentes manifestaciones del día a día: en televisión, en películas, en libros y revistas, en pósters y, por supuesto, en los monitores de los computadores. Son tan habituales que no se les suele prestar demasiada atención. Estas imágenes pueden provenir del mundo real (como por ejemplo mediante el uso de fotografías o dibujos que son digitalizados) o que pueden ser generados en un computador (utilizando algún software).

    • Conceptos básicos de los gráficos por computador

    Actualmente, los computadores cuando manejan gráficos lo hacen sobre monitores basados en mapas de bits o Bitmaps. Es frecuente encontrar los términos bitmap y raster para hacer referencia al mismo concepto, en el campo de técnicas aplicadas a procesado de imágenes: la colección de puntos individuales o pixels. Los puntos o pixels que componen una imagen se corresponden con los bits, bytes o palabras en memoria. Esta memoria está usualmente en la tarjeta de vídeo y se la llama memoria de vídeo o frame buffer para distinguirla de la memoria principal.

    Para el caso del monitor monocromo más sencillo, cada pixel puede tomar dos valores blanco o negro, por lo que basta un único bit para representar su estado.

    Aunque el monitor sólo representa puntos en blanco o negro, mediante la utilización de un patrón alternativo de pixels blancos y negros es posible dar la sensación de niveles intermedios (escala de grises). Este proceso, que se conoce como dithering, se utiliza frecuentemente en impresoras de puntos y láseres par representar esos valores de grises. La desventaja del dithering es la pérdida de resolución debida a la necesidad de utilizar varios pixels para representar cada valor de "gris".

    Un monitor que realmente sea capaz de representar tonalidades de gris debe ser capaz de trabajar con un rango de intensidades que permitan representar los valores entre el negro y el blanco. En este caso, es necesario utilizar un número de bits para definir la "cantidad" de gris para cada pixel. Esta idea se puede ver como la generalización del esquema anterior al que se le añade una tercera dimensión. Por esto, se habla de que existen planos de bit en la memoria de vídeo o profundidad de color (colour depth).

    En el caso de utilizar un monitor digital, esos valores de 4 bits se corresponden directamente con cuatro señales en el hardware de vídeo. En los monitores analógicos, que aceptan un rango continuo de niveles de entrada, la tarjeta de vídeo ha de transformar (mediante conversores digital a analógico) estos valores de pixels en niveles de tensión aceptables por el monitor.

    En los monitores de color, éste se produce como combinación de tres colores primarios: rojo, verde y azul. Por lo tanto cada pixel puede tomar un valor entre 224,, o aproximadamente 16,7 millones de colores.

    Como en este caso aumenta la necesidad de memoria (3 bytes por pixel), en muchos sistemas se utiliza lo que se denomina una paleta de colores (colormap ó lookup table - LUT). De esta forma es posible utilizar menos bits por pixel para representar el contenido de los puntos en la pantalla. Estos valores se utilizan como índices en esa tabla de colores. Con este sistema sigue siendo posible elegir entre los 16,7 millones de colores, pero sólo es posible mostrar 256 diferentes de forma simultánea

    Los requerimientos de memoria se reducen en un factor de 3. Las desventajas son la reducción en el número de colores que es posible mostrar de forma simultánea y la complejidad añadida de mantener la paleta de colores. También aquí es posible utilizar la técnica de dithering, comentada al principio de este punto, para representar un mayor número de colores.

    En la tabla siguiente se puede ver de forma comparativa un sistema de visualización en color sin y con utilización de paleta de color. Los usuarios de sistemas basados en el uso de paletas observarán, a veces, la existencia de un fenómeno de parpadeo de colores (color flashing o tecnicolor). Este aparece cuando se muestran diferentes imágenes de forma simultánea y donde el sistema de representación gráfica (el manejador de ventanas) cambia el mapa de color como resultado de hacer activa una u otra de las ventanas de visualización. Haciendo con ello que los colores que se representan en las otras ventanas cambien rápidamente.

    Tipo de Display

    Bits por pixel

    Colores

    Resolución

    Memoria de Vídeo

    Color

    24

    16,7 millones

    1024 * 768

    2'3 MB

    Color con paleta

    8

    256 (de una paleta de un millón)

    1024 * 768

    769 KB

    Comparación de Sistemas de visualización.

    En ocasiones se destinan para los gráficos un total de 32 bits por pixel, en estos, 24 se dedican a representar el color del pixel y los ocho restantes forman el denominado canal alfa que codifica otras informaciones, como por ejemplo: para representar transparencias y niveles o capas en los "objetos" que componen una imagen.

    Otras veces, pese a no utilizar estos 8 bits sobrantes, el echo de tener las representaciones de los pixels alineadas con fronteras de 32 bits supone una ventaja de velocidad.

    Respecto a cómo se eligen los colores a representar en la paleta, únicamente comentar que existen técnicas de vector cuantization para tales efectos.

    • Naturaleza de los gráficos por computador

    Es posible distinguir dos clases en los gráficos en función de la forma en que se almacenan los datos de la imagen: vectoriales y mapa de bits. Ambos tipos de gráficos constituyen dos filosofías diferentes de abordar un mismo tema: la representación de una imagen o gráfico en un fichero.

    • Gráficos Vectoriales

    Las imágenes en formato vectorial se componen de objetos. Todos los objetos se construyen a partir de primitivas (que son las instrucciones básicas de dibujo, como por ejemplo líneas, rectángulos y elipses). Los objetos se pueden agrupas para formar otros más complejos con lo que es posible hablar de la existencia de una jerarquía de objetos.

    Las ventajas de este tipo de gráficos es que son muy flexibles en lo que a manipulación se refiere: es posible modificar su tamaño en cualquier dirección y magnitud sin pérdida de calidad. También son muy bajos sus requerimientos de memoria al poder representar el contenido de la imagen como una serie de instrucciones junto a sus parámetros y la información de color asociada.

    • Mapas de Bits.

    Los bitmaps (o raster graphics) son imágenes compuestas de puntos discretos conocidos como pixeles (pixels o picture elements), donde cada uno de estos pueden tomar cualquier valor dentro de un rango.

    La resolución de un bitmap viene dada por sus dimensiones, en pixels, en horizontal y en vertical. Así un bitmap de 640 por 480 visualizada sobre un monitor VGA se verá mejor que uno de 320 por 200 sobre el mismo monitor y pero que uno de 1024 por 768. Esto es, a mayor número de pixels por unidad de área, mayor será la resolución y menos imperfecciones se observarán en la imagen.

    La profundidad de color de un bitmap viene determinada por la cantidad total de memoria reservada para cada pixel. Así, el número de colores posibles por pixel vendrá dado por 2 elevado al número de bits por pixel. Lógicamente, la correcta visualización de estos vendrá determinada por la capacidad del hardware: la memoria de vídeo.

    • Compresión

    El principal problema de los gráficos en formato de mapa de bits es la necesidad de disponer de espacio para su almacenamiento, que pueden llegan a alcanzar valores muy grandes. Por ello se utilizan técnicas de compresión que pueden reducir de forma apreciable el tamaño de los mismos.

    La necesidad de métodos efectivos de compresión de datos es evidente en la mayoría de aplicaciones dirigidas a la transmisión y almacenamiento de información digital (imágenes y sonido). Así, en un CD-ROM que dispone de aproximadamente 650 Mbytes, se almacenan uno s72 minutos de sonido de calidad CD estéreo y sin comprimir. Pero el mismo CD-ROM, sólo puede almacenar 30 segundos de video digital con calidad de estudio sin comprimir. Para guardar una película de unos 90 minutos, haría falta aproximadamente unos 120 Gbytes. Si se digitaliza una fotografía de 35 mm en color a una resolución de 2000 por 2000 (lo que significa extraer unos 4 millones de los 20 millones de pixels que puede ofrecer la película fotográfica) se genera un fichero de 10 Mbytes. Y un documento escaneado a 300 pixels por pulgada con 1 bit por pixel genera un total de 8'4 Mbits de datos, que requieren 5 minutos de transmisión en una línea a 32 K.

    Respecto al caso particular de las imágenes, es posible obtener unos porcentajes altos de compresión sin pérdidas significativas de la calidad visual de la imagen, debido a que contienen un alto grado de redundancia:

  • Espacial, debido a la correlación existente entre los pixels vecinos.

  • Espectral, debido a la correlación entre las componentes de color.

  • Y "psicovisual", debido a propiedades de la visión humana.

  • A mayor grado de redundancia, mayor será el grado de compresión que se pueda alcanzar.

    La intención de este punto no es realizar una revisión formal de la teoría de la compresión de imágenes, sino proporcionar la mínima información necesaria para entender los algoritmos/estándares de compresión de imágenes.

    En el campo de la teoría de la información, el proceso de compresión de datos basados en la reducción por redundancia se conoce como source enconding. Las imágenes contienen, básicamente, dos tipos de redundancia: estadística (espacial) y psicovisual. La redundancia estadística se presenta por la aparición de ciertos patrones espaciales que aparecen con mayor frecuencia que otros; mientras que la redundancia psicovisual proviene del hecho de que el ojo humano es menos sensible a ciertas frecuencias espaciales. El diagrama de bloques de un modelo de source enconding está compuesto por los elementos siguientes:

  • El transformador (transformer, T) aplica una transformación uno a uno de los datos de entrada. La salida de este bloque es una representación de la imagen más apropiada al método de compresión utilizado que lo es la imagen sin tratar. Las transformaciones típicas son correspondencias predictivas lineales (linear predictive mapping), que hacen corresponder al valor de intensidad de un pixel con una señal de predicción de error por diferencias con la parte predecible del valor de intensidad; como por ejemplo: correspondencias unitarias (transformada discreta del coseno o DCT) que comprime el valor de energía de una señal en un número más pequeño de coeficientes y correspondencias no unitarias (multiresolution), como la descomposición en subandas y la transformada por Wavelets.

  • El cuantizador (quantizer, Q) genera un número limitado de símbolos que puedan ser utilizados para representar la imagen comprimida. Es una correspondencia muchos a uno que, por lo tanto, no es reversible. Puede ser escalar, en cuyo caso hace referencia a la cuantización de los datos elemento a elemento; o vectorial, en cuyo caso se trabaja con bloques de datos.

  • El codificador (coder, C) asigna un código, una secuencia binaria, a cada símbolo de los obtenidos como resultado de aplicar la etapa anterior. Puede emplear códigos de longitud fija o variable. Estos últimos (variable - length coding o VLC) son también conocidos como códigos de entropía, puesto que asignan los valores de forma que se minimice la longitud media de la representación binaria de los símbolos. Para ello, se asignan los códigos más cortos a los símbolos que aparecen más frecuentemente.

  • Diferentes sistemas de compresión de imágenes implementan diferentes combinaciones de estas etapas. Y así, es posible realizar una clasificación de los métodos de compresión en

  • Sin pérdidas (Lossless o noiseless) que buscan minimizar el tamaño sin perder información en la imagen.

  • Con pérdidas (Lossy) que tiene como objetivo obtener la mejor fidelidad dado un tamaño o minimizar el tamaño dado un factor de fidelidad con la información original

  • Los bloques de transformación y codificación son, por sí, sin pérdidas. Sin embargo la etapa de cuantización es susceptible de pérdidas. Por lo que los métodos sin pérdidas, que sólo hacen uso de redundancias estadísticas no emplean la etapa de cuantización. En la mayoría de casos, una pequeña pérdida de información debe permitirse para alcanzar altos porcentajes de compresión. Los métodos con pérdidas hacen uso de los dos tipos de redundancia mencionados.

    • Formatos de ficheros gráficos y estándares

    • GIF (Compuserve Graphics Interchange Format) permite obtener ratios de compresión razonables (principalmente debido a que sólo permite el uso de 8 bits para representar el color de un pixel). Utiliza el algoritmo de compresión de Lempel-Ziv cuyo comportamiento es muy bueno en el caso de que existan secuencias de bits de un mismo color (como líneas y espacios regulares o repetidas). Es un formato sin pérdidas.

    • PPM (portable pixmap) es un formato de bitmap que incluye una mínima cabecera, por lo que en tamaño es poco mayor que lo que ocupan los pixels de la imagen. Existen variantes en formato binario y Ascii. Siendo este último unas cinco veces mayor que el primero.

    • RGB es un formato propio del sistema operativo IRIS de Silicon Graphics, Inc. Es aproximadamente del tamaño del bitmap.

    • TIFF (Tagged Image File Format) permite trabajar en diferentes plataformas, con cualquier profundidad de pixel y admite diversas opciones de compresión. Generalmente se utiliza sin comprimir o utilizando el algoritmo LZW. Es aproximadamente del tamaño del bitmap.

    • PS (PostScript) es un formato de fichero basado en un lenguaje de descripción de páginas creado por Adobe, que permite almacenar ficheros gráficos en formato vectorial y que se ha convertido en un estándar en el campo de la impresión. Es alrededor de dos veces el tamaño del bitmap, puesto que almacena la imagen como secuencias de bits en formato ASCII. Es posible introducir imágenes en formato raster (bitmaps) en tipo de ficheros como una primitiva más de dibujo y en ese caso se denomina EPS (Encapsulated PS). En esencia un fichero en formato PostScript es un pequeño programa que indica cómo se debe dibujar el contenido.

    • WMF (Windows Metafiles) también son de naturaleza vectorial y permiten combinar información en formato raster y vectorial.

    • PICT es el formato usual en plataformas Macintosh. No soporta color en 24 bits.

    • TGA (TARGA), desarrollado por AT&T Truevision es uno de los más utilizados en el área de síntesis de imagen. Permite diferentes tipos de compresión y variantes como paletas, comentarios y ordenación de los datos.

    • PCX es un formato muy próximo al raster, utilizado en plataformas Windows.

    • BMP es un formato sencillo de bitmap propio de plataformas Windows.

    • DXF (AutoCAD) se ha convertido en uno de los estándares en software CAD. Es un formato vectorial en el que la información está en formato ASCII codificado. Suelen ser de gran tamaño y no permite especificar colores en 24 bits.

    • GL/2 (Hewlett Packard) es un lenguaje para la realización de gráficos vectoriales.

    • JPEG (Joint Photografic Expert Group), permite obtener muy buenos porcentajes de compresión (ratios iguales o superiores a 10 veces los obtenidos por las técnicas sin pérdidas). Utiliza un formato de compresión con pérdidas y se obtienen mejores resultados en imágenes reales con muchos colores y en las que existen pocos objetos con características geométricas. Soporta 24 bits por pixel. Y con porcentajes de calidad superiores al 10% no se aprecian grandes pérdidas en la imagen recuperada, debido a que con 24 bits por pixel se representan más colores de los que el ser humano es capaz de distinguir.

    Este estándar define una familia de técnicas de compresión para imágenes estáticas continuas (más de dos niveles) en niveles de gris o color. Basándose en el efecto de redundancia psicovisual, JPEG emplea un esquema de compresión con pérdidas basado en una transformación sobre los símbolos.

    JPEG permite cuatro modos de operación: secuencial (baseline), jerárquico, progresivo y sin pérdidas.

    La codificación de una secuencia de datos en JPEG se define en función de lo que el decodificador precisa para descomprimir la secuencia. No existe una definición formal del formato de fichero, resolución espacial o modelo de color a emplear. Aunque sí existe una definición de los mínimos recomendables: el JPEG File Interchange Format (JFIF) para permitir el intercambio entre diferentes plataformas y aplicaciones.

    • Hardware Gráfico: Tarjetas de Vídeo.

    Dado que hoy en día los monitores son capaces de mostrar imágenes en alta resolución y true-color, los factores que influyen en las posibilidades gráficas son:

    • La cantidad de memoria disponible para la visualización

    • Y la velocidad a la que es posible "dibujar" en los monitores

    Estos factores se controlan a través de las tarjetas de vídeo. Estas son tarjetas de circuito impreso que incluyen una memoria y/o un procesador (o varios) para mejorar las capacidades gráficas de un computador.

    La memoria local de estas tarjetas permite aumentar el rango de colores y resoluciones con que se pueden mostrar los gráficos en la pantalla. El procesador se encarga de las tareas habituales tales como redibujar la pantalla cuando, en un entorno gráfico, se activa una aplicación cuya ventana estaba total o parcialmente oculta por otra, descargando de esta forma de trabajo al procesador central.

    Las tarjetas de vídeo son las responsables de mostrar la información en la pantalla del computador. Con la llegada de los entornos gráficos, la cantidad de información involucrada en esta tarea ha hecho necesaria la incorporación de un hardware que descargue de este trabajo al procesador central. Con la llegada de las aplicaciones multimedia y los gráficos en 3D, la necesidad de hardware se ha incrementado considerablemente, lo que ha llevado a desarrollar una circuitería (que incluye un microprocesador) altamente especializada.

    VGA fue el último de los estándares de vídeo definidos por IBM. A partir de aquí, The Video Electronics Standards Association (VESA), un consorcio de fabricantes de tarjetas de vídeo y de monitores cuyo objetivo es estandarizar los protocolos de vídeo ha desarrollado una familia de estándares conocida como Super VGA, que son compatibles con el estándar anterior (VGA) y que permite mayores resoluciones y un mayor número de colores.

    Puesto que los pixels son más pequeños a medida que se utiliza una resolución mayor y los objetos son de un tamaño fijo en la pantalla, aparecerán más pequeños conforme aumente la resolución de la pantalla.

    Todos los estándares SVGA soportan la visualización en 16 millones de colores, pero el número de estos que puede ser utilizado simultáneamente está limitado por la memoria de vídeo del sistema. Si se aumenta el número de colores o la resolución se hará necesaria una mayor cantidad de memoria. Sin embargo, disminuir uno de los dos permitirá aumentar el otro. En la siguiente tabla se muestran las posibles combinaciones para los tamaños más usuales de memoria de vídeo.

    Memoria de vídeo

    Resolución

    Profundidad de color

    Número de colores

    1Mb

    1024 x 768

    8-bit

    256

    800 x 600

    16-bit

    65,536

    2Mb

    1280 x 1024

    8-bit

    256

    1024 x 768

    16-bit

    65,536

    800 x 600

    24-bit

    16.7 millones

    4Mb

    1024 x 768

    24-bit

    16.7 millones

    6Mb

    1280 x 1024

    24-bit

    16.7 millones

    8Mb

    1600 x 1200

    32-bit

    16.7 millones

    Memoria de Vídeo.

    Dentro de las tarjetas de gráficos de los PCs actuales podemos distinguir cuatro componentes principales:

    • El procesador gráfico.

    • La memoria de vídeo.

    • El random access memory digital-to-analog converter (RAMDAC).

    • El software manejador (driver).

    Los primeros sistemas VGA eran lentos. La UCP soportaba una alta carga por el proceso que requerían los gráficos y la cantidad de información que se transfiere a través del bus a la tarjeta gráfica. Los problemas aumentaron por el hecho de que la memoria utilizada (DRAM) no podía ser escrita y leída simultáneamente, lo que quiere decir que el RAMDAC debía esperar para leer cuando la UCP no estaba escribiendo y al revés.

    El Procesador Gráfico

    Es problema se solucionó al introducir un chip dedicado a procesar los gráficos en las tarjetas gráficas. En lugar de enviar una imagen completa, la UCP envía un pequeño conjunto de instrucciones de dibujo que son interpretadas por el driver del fabricante de la tarjeta gráfica y ejecutadas por el procesador de la tarjeta.

    Estas operaciones incluyen transferencias y dibujo de bitmaps, cambios en la geometría de las ventanas, dibujo de líneas, escalado de fuentes de letras y dibujo de polígonos. Y son llevadas a cabo por el procesador de la tarjeta de gráficos, que está diseñado para llevar a cabo estas tareas en hardware a velocidades mucho mayores de lo que lo haría el software que se ejecuta en la UCP El procesador gráfico escribe entonces los datos en la memoria de vídeo. Como hay menos datos que transferir habrá menos congestión en el bus del sistema y la carga de la UCP se verá reducida en forma considerable.

    La Memoria de Vídeo

    La memoria que guarda la imagen se la suele denominar frame buffer (véase punto 1.1) y se encuentra, usualmente, en la misma tarjeta de vídeo. Los primeros sistemas de vídeo utilizaban memoria DRAM estándar. Sin embargo, esto requería de un refresco continuo de los datos que impedía el acceso a los mismos durante esos periodos. Como consecuencia, al incrementar las frecuencias de reloj, la productividad descendió en gran modo.

    Una ventaja de incluir la memoria de vídeo en la tarjeta de gráficos es que hace posible su adecuación a tareas específicas y ha contribuido a la aparición de nuevas tecnologías de memorias, como por ejemplo:

    • Video RAM (VRAM), es un tipo especial de DRAM de doble puerto, que puede ser escrita y leída al mismo tiempo. Utiliza frecuencias de refresco menores que la DRAM ordinaria y como resultado la productividad aumenta.

    • Windows RAM (WRAM), utilizada en las tarjetas Matrox Millenium, es también de doble puerto y puede utilizarse a frecuencias un poco mayores que la VRAM convencional.

    • EDO DRAM, ofrece un ancho de banda mayor que la DRAM, puede utilizarse a frecuencias mayores que la DRAM normal y mejora el tratamiento de los ciclos de lectura/escritura de manera más efectiva.

    La información en la memoria de vídeo es una imagen de lo que ha de aparecer en la pantalla, almacenada como un bitmap en formato digital. Pero el medio de representación de esta información en el monitor utiliza señales analógicas. Estas requieren más que una indicación de encender o apagar la señal, necesitan información acerca de dónde, cuándo y con qué intensidad el cañón de electrones debe ser disparado en el monitor. Aquí es donde interviene el RAMDAC.

    Muchas veces por segundo, el RAMDAC, lee los contenidos de la memoria de vídeo, la convierte en una señal analógica RGB y la envía por el cable de vídeo hacia el monitor. La frecuencia a la que puede convertir la información y el diseño del propio procesador de gráficos, dictan el rango de frecuencias de refresco que la tarjeta de gráficos puede soportar. El RAMDAC también limita el número de colores disponibles a una determinada resolución, dependiendo de su arquitectura interna.

    El Software Manejador

    Es importante en la productividad y características que ofrecen las tarjetas. Se ocupa de traducir lo que las aplicaciones quieren visualizar a instrucciones propias del procesador de la tarjeta. Esta traducción es de gran importancia, puesto que los procesadores son capaces de operaciones más complejas que las de actualizar el valor de un pixel en la pantalla: pueden dibujar líneas, curvas y mover grandes bloques de datos entre otras. Es misión del driver decidir las instrucciones que deberá ejecutar el procesador de la tarjeta para llevar a cabo la tarea que indica la aplicación (la visualización).

    En la mayoría de casos existe un driver diferente para cada resolución y/o profundidad de color. Esto quiere decir que, incluso a pesar de la sobrecarga que conlleva utilizar diferentes resoluciones y número de colores, una determinada tarjeta ofrecerá diferentes prestaciones dependiendo de cómo se haya implementado un driver en particular.

    • Escaners

    Básicamente, un escáner se utiliza para obtener imágenes en un formato que sea válido para un computador. Las imágenes pueden ser fotografías para su retoque, corrección ó uso en procesos de maquetado gráfico. Pueden ser logotipos hechos a mano para el encabezamiento de documentos o cartas. También pueden ser páginas de texto, de las que cierto software (denominado OCR o Optical Character Recognition) es capaz de extraer (con mayor o menor acierto) el texto que contiene y guardarlo en un fichero.

    La lista de aplicaciones en las que se utiliza un escáner es mayor de lo que aquí se ha enunciado. En cualquier caso, lo que es más interesante es hacer notar que la diversidad de las mismas ha resultado en la aparición de diversos formatos de escaners para adaptarse a cada caso: compactos para aplicaciones exclusivas digitalización de documentos (mayormente OCRs); de fotografía, en los que la fuente de luz es fija y se mueve la foto; de mano, para casos de menores requerimientos y de sobremesa (desktop or flatbed scanners), los más flexibles. Estos son capaces de digitalizar imágenes, documentos, páginas de libros y revistas y, con los accesorios adecuados, diapositivas.

    Proceso

    Todos los escaners, se basan en el principio de la reflexión o transmisión (reflectance or transmission). El objeto se sitúa (en el caso de los escaners de sobremesa) sobre una pieza móvil que consiste en una fuente de luz y un sensor. La luz reflejada o transmitida por el objeto es recogida por el sensor y convertida en un voltaje proporcional a la intensidad de luz: cuanto más brillante es una parte, más luz se refleja (o transmite) resultando en un mayor voltaje.

    El sensor utilizado en la mayoría de los escaners es un CCD (Charge Coupled Device) lineal. Que consiste en una serie de elementos sensibles a la luz, dispuestos en una línea. A mayor número de estos elementos por unidad de longitud, mayor es la resolución obtenida. El CCD mide la luz reflejada y la convierte en un voltaje que toma un valor analógico, este se hace un muestreo y convierte en valores discretos mediante la utilización de un conversor ADC (analogue-to-digital converter).

    Resolución

    En el CCD se obtienen tantos pixels como elementos tiene. Así, para un escáner de sobremesa capaz de obtener una resolución óptica horizontal de 600 ppi (pixels per inch) y un tamaño máximo de anchura de documento de 8.5 pulgadas habrá un total de 5.100 elementos de CCD en lo que es denomina cabezal o (scan head).

    El cabezal del escáner está montado en un elemento móvil que se desplaza a lo largo del objeto a digitalizar. Realizándose la captura de una línea cada cierto número de milisegundos.

    El número de elementos físicos en la matriz del CCD determina la frecuencia de muestreo en la dirección x y el número de lecturas de línea por unidad de tiempo, con relación a la velocidad de exploración, determina la de la dirección en y. Aunque se utilicen estos parámetros para definir la "resolución" de un escáner, este término no es el adecuado. En la determinación de la resolución de un escáner hay que considerar otros factores como la calidad de la electrónica, la óptica, los filtros y el motor de control. La definición de resolución depende de varios factores y es la capacidad de un escáner para determinar los detalles de un objeto.

    Es posible mejorar la resolución aparente mediante la técnica de interpolación, que bajo el control de software o hardware calcula puntos intermedios entre los que recoge el escáner.

    Interpolación

    Típicamente, los escáners ofrecen resoluciones de 2,400 dpi (dots per inch), 4,800dpi y 9,600dpi. Mientras que las resoluciones ópticas son del orden de 600 por 1.200 dpi, es posible ofrecer las anteriores mediante interpolación.

    Para ello, a partir de los puntos que se obtienen por el proceso de escaneado, se calculan puntos intermedios que aproximen el comportamiento de los obtenidos. El problema es que nunca serán tan precisos como los que se obtienen en la etapa inicial, por lo que las imágenes obtenidas muestran un aparente desenfoque. Este efecto no es apreciable en imágenes de gráficos de líneas, pero si en el caso de imágenes de tonos continuos como las obtenidas a partir de fotografías.

    Escáners de color

    Los escáners de color trabajan con tres fuentes de luz, una para cada uno de los colores primarios (rojo, verde y azul). Algunos escáners tienen un cabezal con una única fuente de luz fluorescente con tres CCDs con un filtro para cada uno de los colores primarios que obtiene una imagen en una sola pasada. Otros, otros tienen tres fuentes y un sólo CCD, por lo que realizan tres pasadas sobre el objeto.

    Otra alternativa es utilizar un escáner de una sola pasada utilizando luz blanca y leyendo los colores separados en el cabezal, puesto que incorporan tres filas de elementos, conteniendo cada una un filtro directamente en el chip (esta misma aproximación se utiliza en las cámaras de vídeo). También es posible utilizar un prisma que descompone la luz blanca en sus tres componentes y dirigirlas a tres filas de CCDs, lo que requiere una óptica de alta calidad y gran precisión en la disposición de los elementos.

    Resolución Tonal

    El rango de colores (o niveles de gris) que se obtienen en un escáner está en relación con el rango dinámico de los conversores analógico a digital del mismo, la pureza de la luz utilizada como iluminante, la calidad de los filtros y cualquier ruido que pueda producir el sistema. En teoría, un escáner de 24 bits ofrece un rango de 8 bits (256 niveles) por cada color primario, esta diferencia se admite como suficiente para la capacidad de discriminación de color del ojo humano.

    Desgraciadamente, algunos de los bits menos significativos son afectados por el ruido existente, mientras que operaciones de corrección de tono posteriores a la operación de escaneado reducen mucho el rango dinámico. Por esto es mejor realizar las correcciones de tonos antes de la propia operación de escaneado. Algunos equipos ofrecen valores de 30 y 36 bits para el color, obteniendo un mayor nivel de detalle y permitiendo que posteriores operaciones de corrección ofrezcan valores más precisos en 24 bits que los métodos tradicionales.

    El Software Manejador

    Los escaners, suelen utilizar como estándar de acceso a sus funciones el protocolo TWAIN. Este es un estándar en el proceso de adquisición desarrollado por Hewlett-Packard, Kodak, Aldus, Logitech y Caere que establece la conexión entre escáners y PCs y la utilización por parte de las aplicaciones.

    En la práctica, la opción de adquisición (acquire) de una aplicación permite al usuario indicar fuente TWAIN lo que permitirá ejecutar el driver oportuno a utilizar sin salir de la aplicación. Después del escaneado, el driver ofrece la imagen obtenida a la aplicación que lo ha ejecutado.

  • Sonido

  • El sonido es uno de los elementos más importantes, junto con el vídeo, en un sistema o producción multimedia. El almacenamiento y tratamiento del sonido se realizará en nuestro caso mediante técnicas digitales. Esto significa que el sonido, un fenómeno físico esencialmente analógico, ha de ser convertido en una señal eléctrica y después transformado en información digital y almacenada en la memoria de un computador. Otra forma de manejar el sonido en un sistema multimedia es generándolo directamente mediante instrumentos musicales electrónicos, que pueden estar integrados en los circuitos del propio computador o ser dispositivos externos con los que habrá que comunicarse adecuadamente.

    Como se sabe, el sonido es una onda de presión que se transmite a través de un medio, como el aire, y que produce una sensación, llamada auditiva, al perturbar el estado de reposo de las estructuras del oído.

    El tímpano, una membrana, vibrará en simpatía con las partículas de aire que la rodean y provocará la vibración de los huesos del oído interno. En la figura 1 se puede apreciar la estructura del órgano auditivo.

    El elemento que transforma estos movimientos vibratorios en señales neuronales es la membrana basilar, dentro de la cóclea, según se esquematiza en la figura 2. La forma de la cóclea hace que las vibraciones que penetran en ella a través de la ventana oval alcancen de forma más intensa una zona más o menos profunda en función de su frecuencia. La membrana basilar está recubierta de pequeñas vellosidades conectadas a haces nerviosos que transmiten la información al cerebro. Como se puede apreciar por esta descripción, la información espectral del sonido (conjunto de frecuencias que componen la señal en un momento dado) llega ya desmenuzada a los centros auditivos del cerebro.

    Las características de los sonidos que nos permiten identificarlos y diferenciarlos se pueden resumir en las siguientes:

  • Intensidad

  • Corresponde a la amplitud de la onda sonora, es decir a cuánto se alejan las partículas (y por tanto el tímpano) de su posición de reposo en cada periodo de la vibración. El oído responde a un rango de intensidades impresionante. Desde el sonido casi imperceptible al umbral del dolor, la relación de intensidad es de 130 dB o 10.000.000.000.000 a 1. La sensación sonora se incrementa aproximadamente al doble cada vez que la amplitud del sonido se multiplica por diez. Muchos sonidos presentan un patrón claro de intensidad que varía con el tiempo. A este patrón se le llama envolvente. Por ejemplo, un piano presenta un fuerte golpe de gran intensidad inicial, que decae más o menos rápidamente hasta desaparecer. Una flauta sin embargo, presenta una envolvente más aplanada, ya que no existe golpe inicial, sino una intensidad del sonido mantenida mientras dura la nota.

  • Frecuencia y periodo

  • Son dos conceptos que representan el mismo fenómeno físico y que están inversamente relacionados. Miden, respectivamente, cuántas vibraciones por segundo se producen y cuántas fracciones de segundo dura una vibración. Las unidades en que se mide la frecuencia son los ciclos por segundo, o hercios (Hz). El periodo se mide en segundos. Los humanos somos capaces de percibir frecuencias de entre 20 y 20.000 Hz aproximadamente.

  • Timbre

  • Dos instrumentos musicales distintos, como un violín y una flauta, que estén interpretando la misma nota (frecuencia) con la misma intensidad, son sin embargo claramente diferenciables. Esto es así porque existe una tercera característica importante de los sonidos que es su timbre o forma de onda. Lo que ocurre en realidad es que no todos los sonidos son tan simples como el movimiento armónico de un péndulo, sino que la mayoría están provocados por movimientos complejos de los objetos. Estos movimientos complejos, sin embargo, se pueden descomponer en una suma de movimientos simples. Por ello, el timbre corresponde al conjunto de frecuencias que se pueden encontrar en un sonido en mayor o menor proporción. A la frecuencia que aparece con más fuerza, si la hay, se la llama frecuencia fundamental y es la que percibimos, por ejemplo, como la nota que está generando un instrumento o un cantante.

    • Digitalización

    El sonido, para su manejo en un sistema multimedia, ha de adquirirse por medios electrónicos. El primer elemento de la cadena es el micrófono, que convierte las variaciones de presión del medio en señales eléctricas. Estas son después amplificadas para que alcancen los niveles adecuados para atacar las siguientes etapas del proceso.

    La digitalización consiste en convertir los valores de intensidad de la señal en valores numéricos que la representen. Para ello se utilizan circuitos convertidores de analógico a digital ("ANALOG TO DIGITAL CONVERTER", o ADC) que llevan a cabo una conversión o lectura cada cierto tiempo. A cada lectura se la llama muestra y el número de muestras que se toman por segundo es la frecuencia de muestreo. Lógicamente, en algún momento esa misma señal o una versión mezclada, procesada o alterada de ella, ha de volcarse de nuevo al exterior en forma de sonido. Para ello se usa un convertidor de digital a analógico ("DIGITAL TO ANALOG CONVERTER" o DAC) conectado a un amplificador de salida y a un altavoz.

    La precisión con la que el ADC lee los valores de la señal, es decir, el número de bits de la representación digital que obtiene, o tamaño de palabra del convertidor, tiene una repercusión directa en la calidad de la señal. En la figura 9 se puede apreciar claramente este efecto.

    La frecuencia de muestreo también tiene una influencia clave en la exactitud con la que la señal se ve representada en su forma digital, y por tanto en la fidelidad con la que se reproducirá después. Esto se aprecia en la figura 10, en la que se puede comprobar el efecto de deformación "aliasing" que aparece al muestrear una señal a una frecuencia menor al doble de su frecuencia. Efectivamente, según se formaliza en el Teorema de Nyquist, la frecuencia de muestreo debe ser al menos doble que la máxima frecuencia de la señal que se pretenda conservar. Por tanto, para obtener una sensación sonora fiel a la que se tendría frente al sonido original, la frecuencia de muestreo ha de ser superior a 40.000 muestras por segundo.

    El equipo necesario para realizar todas las operaciones comentadas sólo se encuentra integrado de serie en algunos computadores, como los Apple Macintosh. En los computadores personales típicos, los circuitos de muestreo y reproducción de sonido se encuentran disponibles en forma de tarjetas conectables a los buses estándar: ISA y PCI
    Aparte de las capacidades de hacer un muestreo y reproducir sonidos (ADC y DAC), la mayoría de las tarjetas de sonido disponen de los siguientes elementos:

    • Un chip de síntesis de efectos sonoros por tabla de ondas o por modulación de frecuencia. Se usa a menudo para emular instrumentos MIDI sin necesidad de conectar un verdadero instrumento a la tarjeta.

    • Un mezclador capaz de seleccionar y combinar las señales procedentes del micrófono, entrada de línea, reproductor de discos compactos, DAC y chip de síntesis, y dirigir esta señal combinada a la salida de altavoces a la de auriculares, o al ADC. La figura 12 ilustra las conexiones del mezclador.

    • Controlador de un lector de CD-ROM (esto es menos frecuente en las nuevas tarjetas).

    • Interfaz para palanca de juegos ("Joystick").

    • Interfaces MIDI (compartiendo el mismo conectador que el "Joystick"

    En cuanto a las capacidades y prestaciones de una tarjeta de sonido, hay que destacar en primer lugar el número de bits de los ADC y DAC. En las primeras tarjetas había que conformarse con 8 bits, es decir tan sólo 256 niveles de señal discernibles. En la actualidad todas las tarjetas disponibles son de 16 bits, lo cual supone 65536 niveles, proporcionando una relación entre el nivel menor y el mayor superior a la que pueden manejar los circuitos analógicos típicos. Esto significa que no es probable que este parámetro aumente en el futuro. Hay que mencionar también que las denominaciones de algunas tarjetas cuyo nombre comercial incluye números como 32 o 64 (AWE-32, AWE-64, Terratec Maestro32, etc.) no deben llevar a engaño. Estos números indican típicamente el número de voces MIDI que puede generar su chip de síntesis. La máxima frecuencia de muestreo utilizable es también una característica básica de una tarjeta de sonido, aunque en la actualidad todas las tarjetas superan las 44.000 muestras por segundo, lo cual excede al doble de la máxima frecuencia perceptible por el oído humano normal.

    Las tarjetas de sonido actuales disponen todas de la circuitería duplicada para permitir grabación y reproducción en estereofonía. Otra característica presente en algunas tarjetas de sonido recientes es la capacidad de grabar (ADC) y reproducir (DAC) al mismo tiempo ("full dúplex"). Si además las frecuencias de muestreo de la grabación y la reproducción pueden ser distintas, entonces la prestación se denomina "enhanced full dúplex". Finalmente, se están introduciendo tarjetas con capacidad de proceso de la señal para simular que el origen de los sonidos se encuentra en una posición y estado de movimiento concretos en el espacio tridimensional alrededor del oyente. Para ello se emplean técnicas de alteración de la amplitud, frecuencia (efecto doppler) y fase de los sonidos. Esto permite que el usuario perciba el sonido como procedente del lugar en el que se desarrolla la acción en un simulador o un juego, por ejemplo. Algunos de estos sistemas proporcionan salida para 4 o más altavoces, en lugar de los 2 tradicionales.

    • Formatos de almacenamiento

    Históricamente, cada modelo de computador o programa definió su propio formato de fichero para almacenar la información de sonido. Algunos de estos formatos han perdurado y se han convertido en los más empleados actualmente. Podemos distinguir dos estilos de formato, los que contienen una cabecera que indica los parámetros empleados en la codificación (frecuencia de muestreo, numero de bits, estéreo/mono, etc.) y los de tipo "raw" o crudo que no contienen más información que los propios datos. Entre los más utilizados, podemos citar los siguientes:

    Extensión

    Nombre

    Origen

    Comentarios

    .au ó .snd

    NeXT/Sun

    NeXT, Sun

    Frec. De muestr. Variable. Tiene una cadena de información.

    .aif(f)

    AIFF

    Apple, SGI

    Frec. De muestr., Tamaño de la muestra y núm. de canales variables.

    .aif(f)

    AIFC

    Apple, SGI

    AIFF con compresión.

    .iff

    IFF/8SVX

    Amiga

    Frec. De muestr. y núm. de canales variables. Sólo 8 bits. Información de envolvente.

    .voc

    VOC

    Soundblaster

    Frec. De muestr. Variable. Sólo 8 bits, 1 canal.

    .wav

    RIFF, WAVE

    Microsoft

    Frec. De muestr., Tamaño de la muestra y núm. de canales variables.

    .mp3

    Microsoft

    (*)

    .vqf

    Yamaha

    (**)

    (*) El formato MP3 no es más que un wav de una calidad muy elevada comprimido. Con un archivo wav podemos conseguir una calidad de reproducción igual a la conseguida con un CD... ¿y cual es el problema?... la cantidad de espacio que ocupan estos archivos. Por medio de compresores se consigue reducir el tamaño de estos archivos de una forma asombrosa y así, con el formato comprimido MP3, podemos tener en poco más de tres megas una canción de tres minutos de nuestro cantante preferido y con calidad CD.

    (**) El VQF es un formato musical parecido al MP3 pero que tiene la propiedad de comprimir hasta un 30% mas que el MP3. Este formato se encuentra en fase beta. Está basado en la tecnología desarrollada por NTT (denominada TwinVQ), se puede comprimir/descomprimir con un software exclusivo desarrollado por Yamaha llamado SoundVQ.

    Entre los formatos sin cabecera tenemos:

    Extensión

    Origen

    Comentarios

    .snd ó .fssd

    Mac, PC

    Frec. De muestr. Variable. 1 canal. 8 bits sin signo.

    .ul

    Telefonía USA

    8000 m/s, 1 canal, 8 bits logarítmicos.

    .snd_

    Amiga

    Frec. De muestr. Variable. 1 canal. 8 bits sin signo.

    Algunas extensiones son ambiguas, como ".snd" que puede denotar tres tipos diferentes de ficheros. Las representaciones de 8 bits con signo almacenan valores en complemento a dos entre -128 y 127, siendo el cero el valor de continua (el que se obtiene cuando no hay señal de entrada, es decir amplitud cero). En las representaciones sin signo, el valor medio de la escala (para 8 bits, 128) corresponde a amplitud cero. Lo mismo se puede decir para muestras de 16 u otro número de bits.

    Para conseguir una representación más flexible (con mayor dinámica, es decir mayor relación entre los valores más pequeños y más grandes de señal representables) con solo 8 bits, se emplea a veces una compresión logarítmica de la escala. Esto significa que la adquisición se realiza con más de 8 bits (16, por ejemplo) y que se aplica una función logarítmica a estos valores para que las muestras de pequeño valor se distingan mejor y los valores altos correspondan a señales mayores.

    Otra forma de mejorar la dinámica manteniendo un número de bits bajo para la codificación es representando las variaciones de la señal en lugar de los valores de ésta. Esta es la idea que subyace a la modulación delta, en la que cada bit indica si la señal está bajando o subiendo. Las versiones más sofisticadas de este tipo de modulación son adaptativas, de forma que el valor de subida o bajada (paso) se adapta a la señal.

    Un formato algo distinto de los anteriores es el "MOD". Se trata de ficheros de aplicación únicamente musical, ya que almacenan un conjunto de muestras cortas en PCM y a continuación una especie de partitura que indica qué muestra hay que emitir en cada momento y a qué frecuencia. De esta forma, el resultado es una interpretación musical.

    Códigos de formato de los datos:

    Valor

    Código

    Formato

    0

    SND_FORMAT_UNSPECIFIED

    Formato no especificado

    1

    SND_FORMAT_MULAW_8

    8-bits, mu-law

    2

    SND_FORMAT_LINEAR_8

    8-bits, lineal

    3

    SND_FORMAT_LINEAR_16

    16-bits, lineal

    4

    SND_FORMAT_LINEAR_24

    24-bits, lineal

    5

    SND_FORMAT_LINEAR_32

    32-bits, lineal

    6

    SND_FORMAT_FLOAT

    32-bits, coma flotante

    7

    SND_FORMAT_DOUBLE

    64-bits, coma flotante

    8

    SND_FORMAT_INDIRECT

    9

    SND_FORMAT_NESTED

    10

    SND_FORMAT_DSP_CORE

    Programa para DSP

    11

    SND_FORMAT_DSP_DATA_8

    8-bits, coma fija

    12

    SND_FORMAT_DSP_DATA_16

    16-bits, coma fija

    13

    SND_FORMAT_DSP_DATA_24

    24-bits, coma fija

    14

    SND_FORMAT_DSP_DATA_32

    32-bits, coma fija

    16

    SND_FORMAT_DISPLAY

    Datos sólo para visualización (no de audio)

    17

    SND_FORMAT_MULAW_SQUELCH

    8-bits, mu-law con códigos para silencios largos

    18

    SND_FORMAT_EMPHASIZED

    16-bits lineal con pre-énfasis

    19

    SND_FORMAT_COMPRESSED

    16-bits linear con compresión

    20

    SND_FORMAT_COMPRESSED_EMPHASIZED

    16-bits linear con pre-énfasis y compresión

    21

    SND_FORMAT_DSP_COMMANDS

    Comandos "Music Kit" para DSP

    22

    SND_FORMAT_DSP_COMMANDS_SAMPLES

    23

    SND_FORMAT_ADPCM_G721

    Formato en modulación delta adaptativa

    24

    SND_FORMAT_ADPCM_G722

    Formato en modulación delta adaptativa

    25

    SND_FORMAT_ADPCM_G723_3

    Formato en modulación delta adaptativa

    26

    SND_FORMAT_ADPCM_G723_5

    Formato en modulación delta adaptativa

    27

    SND_FORMAT_ALAW_8

    Mu - Law de 8 bits


    Algunas frecuencias de muestreo son por diversos motivos más utilizadas que otras. Entre las más populares tenemos:

    Muestras/s

    Descripción

    5500

    La cuarta parte de la Frec. de muestreo del Mac.

    7333

    La cuarta parte de la Frec. de muestreo del Mac.

    8000

    Es un estándar telefónico. A veces se sustituye en la práctica por 8012.8210513.

    11 k

    Un cuarto de la Frec. de muestreo del CD (en realidad 11025) o la mitad de la del Mac.

    16000

    Usada en el estándar de compresión G.722.

    18.9 k

    Estándar CD-ROM/XA.

    22 k

    La mitad de la Frec. de muestreo del CD (en realidad 22050) o la del Mac (22254.545454...)

    32000

    Usada en radio digital, NICAM, LP DAT y HDTV.

    37.8 k

    Estándar CD-ROM/XA de alta calidad.

    44056

    Usada en equipos de audio profesional para que quepa un número entero de muestras en un campo de vídeo.

    44100

    Frecuencia de muestreo del CD

    48000

    Frecuencia de muestreo del DAT doméstico.

    • La Música en la Multimedia: el MIDI

    El estándar MIDI ("Musical Instrument Digital Interface") de comunicación entre instrumentos musicales apareció en 1982. Gracias a él es posible controlar desde un computador la mayoría de los instrumentos musicales electrónicos. También permite controlar unos instrumentos desde otros y capturar y almacenar la información que genera la ejecución de un intérprete sobre un instrumento. Podemos distinguir varios aspectos en este estándar de comunicación: las especificaciones físicas (conectadores, tensiones, etc.), las especificaciones de datos (notas) y las de control (cambios de sonido, velocidad, frecuencia, etc.).

    Un instrumento o dispositivo con MIDI dispone de un receptor y un transmisor, cada uno equipado con un conectivo DIN de 5 patillas (MIDI-IN y MIDI-OUT). Muchos dispositivos ofrecen además un conectivo MIDI-THRU que reenvía una copia de todo lo recibido por el MIDI-IN, de esta forma es posible organizar una cadena de dispositivos conectados. Normalmente, un instrumento envía sus mensajes sólo por el MIDI-OUT y no por el MIDI-THRU. Recientemente, se tiende a ofrecer más de un MIDI-IN y MIDI-OUT para proporcionar mayor flexibilidad en las conexiones. El MIDI es un interfaz serie asíncrono similar al estándar RS-232, aunque con una velocidad de transmisión de 31250 bps.

    En cuanto a los mensajes que se transmiten, podemos destacar 2 tipos fundamentales: mensajes de canal y mensajes de sistema. Los primeros están dirigidos a un instrumento en particular y los segundos a todos los instrumentos conectados. En efecto, cada instrumento MIDI ha de estar "sintonizado" en un canal de entre los 16 que permite el estándar y sólo responderá a los mensajes de canal enviados a aquél en el que está sintonizado. Un instrumento puede sintonizarse en modo OMNI, lo cual implicará que recibe de todos los canales. Los mensajes de canal más habituales son los que indican que se ha pulsado o soltado una tecla, qué tecla es y con cuanta fuerza y velocidad se ha pulsado o soltado. Otros sirven para cambiar el timbre, la octava, etc. del instrumento al que van dirigidos.

  • Herramientas para el Desarrollo de Productos Multimedia

  • Como se ha dicho en un punto anterior, existen paquetes de software pensados especialmente para que el diseñador multimedia desarrolle un producto de la forma más rápida y efectiva posible. Estos sistemas se adhieren a diversos paradigmas de desarrollo, aunque hay que tener claro que en el fondo la construcción de un documento o aplicación multimedia conllevará siempre una actividad de programación más o menos explícita. No será necesario conocer un complejo lenguaje de programación de propósito general o un conjunto de interfaces a bibliotecas de funciones (API's), pero para obtener buenos resultados es preciso saber cómo se construye un programa.

    Los paradigmas o metodologías que se distinguen en el cada vez más nutrido mundo de los sistemas de creación multimedia (“multimedia authoring systems”) son los siguientes:

    • Por guión (“Scripting Language”). Se trata de entornos de programación en un lenguaje simplificado y especializado en el tipo de acciones propias de una aplicación multimedia. Ofrece la máxima flexibilidad, pero el tiempo de aprendizaje y de desarrollo es normalmente el más largo. No son demasiado abundantes.

    • Por iconos y flujo de control (“Iconic/Flow Control”). Es el modelo en general más ágil y suele emplearse para prototipado rápido y proyectos de tiempo de desarrollo corto. El corazón de estos entornos es la Paleta de Iconos, que contiene las posibles funciones e interacciones. Una línea de flujo, que suele dibujarse como si de un programa de diseño gráfico se tratara, une los iconos entre sí describiendo los enlaces y la secuencia de funcionamiento. Es uno de los paradigmas más populares. Sus representantes más acreditados son Authorware, de Macromedia y IconAuthor de Asymetrix.

    • Por tramas (“Frame”). En este caso también existe una paleta de iconos y se dibujan éstos junto con líneas que los enlazan, pero estos enlaces no definen una línea de flujo de control sino relaciones conceptuales entre ellos. El desarrollo es rápido, aunque los resultados son difíciles de depurar. Los productos que adoptan este modelo son relativamente abundantes. El más conocido es el Apple Media Kit.

    • Basado en tarjetas y guiones (“Card/Scripting”). Se basan en un modelo de pila de tarjetas. Una tarjeta sirve de pauta sobre la se colocan botones, campos, imágenes, vídeos, etc. Las reacciones de cada elemento a la interacción del usuario se modelan mediante guiones escritos que, a modo de lenguaje de programación del estilo del paradigma por guión, permiten pasar a otra tarjeta o realizar cualquier otra acción. Son, junto a los de iconos y flujo de control, los productos más potentes y abundantes. Casi todos heredan su diseño del pionero Hypercard de Apple.

    • Al estilo partitura con guiones (“Cast/Score/Scripting”). Se apoya en la metáfora de una partitura musical sobre la que se posicionan síncronamente los eventos a reproducir en un conjunto de secuencias paralelas. Cada elemento se comporta de acuerdo a un guión que define su interacción con el usuario. Es relativamente abundante. El producto más popular que se adhiere a este paradigma es Director de Macromedia.

    • Orientado a objetos, jerárquico (“Hierarchical Object”). Utiliza el modelo orientado a objetos con una representación visual basada en iconos y las propiedades de éstos. Su dominio entraña una cierta dificultad, pero permite construir aplicaciones muy complejas. No es muy común. Ejemplos de este paradigma son mTropolis, de Quark y Dazzler, de Intela Media Ltd.

    • Por enlaces hipermedia (“Hypermedia Linkage”). Es del estilo del paradigma por tramas pero sin un entorno capaz de representar visualmente los enlaces entre elementos. Es poco abundante.

    • Por códigos de marcado (“Tagging”). Es el más sencillo y se basa en usar un formato de texto enriquecido con etiquetas, como el SGML o HTML, para construir el documento multimedia. El HTML se usa amplísimamente en el “World Wide Web”, aunque las herramientas multimedia suelen trabajar en otros paradigmas más visuales y generar después el texto HTML. El SGML se usa en la construcción de árboles de ayuda. Otro ejemplo de este tipo de códigos se encuentra en el formato WinHelp.

  • Bibliografía

  • PC Magazine.

  • 2) http://www.zdjournals.com/tma/9508/tma89501.htm

    3) http://www.dircon.co.uk/pctechguide/05graphics.htm

    4) http://www.dircon.co.uk/pctechguide/18scanners.htm

    5) http://bucanero.ugr.es/wwwcurso/ccordoba/node15.html.

    6) http://www.dircon.co.uk/pctechguide/08cd-rom.htm

    Indice

    Capítulo I

    Introducción, pág. 1

    Capítulo II

    Características de los Sistemas Multimedia, pág. 2

    Capítulo III

    Ambitos de Aplicación, pág. 5

    Capítulo IV

    Requerimientos para una Producción Multimedia, pág 7

    Capítulo V

    Especificaciones MPC, pág. 11

    Capítulo VI

    Almacenamiento, pág. 15

    Capítulo VII

    Imagen: Gráficos por Computadora, pág. 20

    Capítulo VIII

    Sonido, pág. 35

    Capítulo IX

    Herramientas para el Desarrollo de Productos Multimedia, pág. 44

    Capítulo X

    Bibliografía, pág. 46

    1