Comunicación Audiovisual
Sistemas Multimedia de los Medios Audiovisuales
TEMA 1:EL CONCEPTO MULTIMEDIA.
El uso de técnicas digitales ha permitido la integración de los distintos soportes de información en una única plataforma digital: el ordenador.
Multimedia: capacidad de los actuales ordenadores de proyectar imágenes, sonidos y texto de forma simultánea, así como la capacidad de realizar paralelamente el control de todo tipo de dispositivos periféricos. (unidades cd-rom, magnetos, dispositivos digitalización...).
El concepto multimedia aglutina técnicas gráficas, textuales y sonoras en un solo medio.
El microordenador: soporte ideal para este tipo de aplicaciones, gracias a las más altas velocidades de proceso.
Elementos de un producto multimedia:
-Hipertexto.
-Vídeo.
-Animación.
-Audio.
-Interactividad.
La viabilidad del producto multimedia se fundamenta en la existencia de una cultura del ordenador doméstico, lo que permitirá la difusión masiva de producto.
DIFERENCIAS entre el proceso de edición multimedia y el proceso de edición en papel:
-Los diferentes medios integrados.
-Su componente de desarrollo y programación.
-La necesidad de crear un guión al estilo cinematográfico, así como los niveles adecuados de interfaz de usuario e interactividad.
El soporte multimedia carece de un lenguaje expresivo propio y definido.
La producción multimedia aborda el mundo multimedia y el mundo educativo: EDUTAINMENT (education y entertaiment) define parte del trabajo que se está desarrollando bajo el epígrafe multimedia.
USO DE LA TECNOLOGÍA MULTIMEDIA:
El ordenador simplifica mucho el trabajo de todos los medios audiovisuales, sin embargo para crear multimedia es necesario disponer de amplios conocimientos( 3D, 2D, sonido...)
El ordenador se ha convertido en el soporte ideal para todo tipo de aplicaciones gráficas y artísticas, siendo varios los factores que han contribuido al desarrollo del campo multimedia:
-Potenciación de las posibilidades gráficas de los microordenadores.
-Existencia de lenguajes de programación más cercana al lenguaje natural.
-Creciente estandarización en cuanto a protocolos de conectividad.
-Simplificación del software de grafismo y animación.
-Aplicación de técnicas de procesamiento paralelo, que aceleran la velocidad de cálculo de las imágenes.
ELEMENTOS MULTIMEDIA:
TEXTO E HIPERTEXTO: Los programas de tratamiento de textos son las herramientas empleadas para capturarlo. Estos permiten almacenarlos en diferentes formatos.
El hipertexto precisa de aplicaciones de desarrollo como Macro Media Director o Hyper Card para ser generado.
IMAGEN: Adobe Photoshop es una herramienta de generación y tratamiento de la imagen digital.
Una vez tratada la imagen está se archiva en: un formato, números de colores, resolución adecuada.
IMAGEN 3D: La imagen una vez generada, no se diferencia a nivel informático de la imagen en 2D. Los formatos que se archivan y las técnicas de compresión son idénticas a las empleadas en la imagen plana.
ANIMÁTICA: se puede definir como la generación de imagen móvil, tanto en 2D como en 3D, mediante el uso de ordenadores. Elemento multimedia por excelencia.
Este elemento ejerce un gran poder de atracción, que los publicistas han sabido aprovechar.
SONIDO: el software de tratamiento de audio permite simular una mesa de mezclas multipistas, filtrar, ecualizar... Cuando se incluye un sonido dentro de un CD-ROM se hace como archivo informático, no como pista convencional.
VÍDEO: la grabación y reproducción, en tiempo real, de imágenes en las unidades de disco de un ordenador ha sido sólo posible gracias a las actuales algoritmias de compresión y descompresión de imagen y sonido. El estándar actual en el MPEG (promovido por el Motion Pictures Experts Group, con relaciones de compresión de hasta 1:200) en un CD-ROM se puede almacenar alrededor de una hora de vídeo digital en calidad VHS.
El Quick Time/ Video for Windows incluye en el sistema operativo, una serie de rutinas de compresión, descompresión, y visualización de imágenes y sonidos.
INTERACTIVIDAD Y EXPERIMETANCIÓN
Interactividad: control a tiempo real de un dispositivo o proceso. Requiere un interfaz gráfico para garantizar una perfecta comunicación entre el hombre y el pc.
-Interacción; capacidad de un usuario de relacionarse con un sistema, modificando parámetros de funcionamiento del mismo; permite controlar la navegación...requiere: Dispositivos de entrada: teclado y ratón.
-El tiempo real: fundamental para hablar de interactividad. Para la animación se define como la capacidad de respuesta de un sistema en el transcurso de tiempo que hay de un fotograma a otro; transcurso de lapso de tiempo de 1/25 segundos. Velocidad de respuesta lo suficientemente rápida como para crear la ilusión de lo que allí sucede.
Para conseguir una interacción aceptable es el de acción y reacción (en la física), en términos informáticos: evento-suceso. La idea que subyace en este concepto es la de que toda acción permisible del usuario en un momento dado, debe corresponderse con una reacción del sistema.
Dos tipos de evento:
-Evento usuario: escoger una opción, pulsar un botón...
-Evento de sistema: protector de pantallas, ante un período de inactividad.
Experimentación: una de las ramas de desarrollo multimedia que más capacidad demuestra la posibilidad de experimentación, de simulación: pedagogías.
DATOS DE INTERÉS:
El empleo de la tecnología multimedia es muy amplio.
Usos del ordenador: en un 50% ocio y cultura. El resto para uso doméstico y trabajo.
Incremento de venta de discos de CD-ROM, creación líneas editoriales creativas.
CARACTERÍSTICAS DEL MERCADO
-
El fabricante crea la tecnología.
-
La producción genera aplicaciones y da utilidad a la idea del fabricante.
-
El editor organiza y define aplicaciones.
-
Distribución acerca al consumidor el producto.
-
El consumidor adquiere el producto.
LOCALIZACIÓN DE MERCADOS.
Mercados a los que puede dirigirse el producto multimedia:
-
Mercado educativo.
-
Mercado doméstico (libros receta, gestión doméstica...)
-
Mercado lúdico (libros, apoyos al hobby...) el que mayor cuota se lleva: SEXO.
-
Mercado técnico y profesional.
-
Mercado de la formación personal.
SOPORTES
El CD-ROM, como argumento de venta:
-Duradero.
-No degradable con la lectura.
-Tecnológicamente avanzado.
TIPOS DE VENTAS POSIBLES:
Existen dos formas de venta básicas para cualquier producto multimedia:
-Venta indirecta a través de un distribuidor especializado.
-Venta indirecta a través de medios.
Canales de distribución: varios, ya sabéis cuales.
PRODUCTOS MULTIMEDIAS:
Editoras importantes de software americanas: Knowledge adventure, Microsoft, Warner New Media, Discis (editora de softt. educativos), Simon y Shuster. Se han producido importantes fusiones:
-Acuerdo entre la división editorial de Paramount y Davidson y associates (uno de los más importantes editores de software educativo mundial), acuerdo Microsoft con Dorling KinRandom House con Broderbund.
Editoras de software hispanas: Abaya, BSI multimedia, Enciclopedia catalana, Didaco-Costaisa, Grupo Zeta...
TEMA 2:HARDWARE MULTIMEDIA
La tarea multimedia se caracteriza por la posibilidad de conectar un número periférico que hacen uso a información relativa al audio y la imagen.
La elevada ocupación de memoria de la imagen animada obliga a recurrir a algoritmias específicas de compresión y descompresión de imagen y sonido.
PLATAFORMAS INFORMÁTICAS:
Toda tarea informática requiere el empleo de una plataforma básica de trabajo.
Una plataforma (Windows, Mac…) viene marcada por el sistema operativo que la soporta.
MAINFRAMES: Grandes computadoras o sistemas de elevada potencia. Estos suponen las mayores velocidades de procesos obtenibles en la actualidad, pero son muy caros, y su empleo está restringido como soporte de desarrollo multimedia.
ESTACIONES DE TRABAJO: (`para proyectos muy complejos) se agrupa una familia de marcas y modelos de sistemas de gran potencia unidos por su elevada velocidad de procesamiento y su sistema operativo UNIX.
Su empleo en el desarrollo multimedia se ha visto vinculado al tratamiento de secuencias de vídeo digital o al trabajo en 3D con software como Morph, TDI, Advanced Visualizar.
PLATAFORMAS DE PC:
-1982: el primer IBM PC, con sistema opertativo MS-DOS, gran aceptación área de gestión.
-1983: interfaz gráfico Windows. Llega al usuario en 1985.
-1989: PC 486.
-1990: Versión 3.0 de windows abren las puertas al entono PC al mundo gráfico y multimedia.
El entorno PC se basa en la familia de procesadores de INTEL. El procesador 386 constituye el requisito mínimo para cualquier aplicación multimedia de consumo actual.
MULTIMEDIA con PC, PROS Y CONTRAS:
Ventajas del PC en la edición profesional multimedia:
-Precio asequible.
-Bajo coste mantenimiento.
-Buena relación precio/potencia.
-Gran oferta de fabricantes.
Desventajas en relación con MAC en el ámbito productivo:
-Menor grado de normalización de hardware.
-Incompatibilidades hardware/software.
-Mayores conocimientos del sistema para su mantenimiento.
-Escasez de personal especializado en grafismo digital.
PLATAFORMA MAC, POWER PC
-1984: primer Apple Mac. Integraba un sistema operativo con interfaz gráfico de usuario. Mac tiene como objetivo desde sus inicios facilitar el manejo de sus ordenadores a los usuarios no expertos.
Los actuales Mac Power Pc se han convertido en plataformas completas para todo tipo de aplicaciones multimedias. Utiliza un procesador RISC Power PC.
MULTIMEDIA con MAC, PROS Y CONTRAS:
Ventajas en la edición profesional multimedia:
-Unificación del hardware de tecnología AV y del entorno gráfico.
-Numerosas opciones de software.
-Importante oferta de personal especializado.
Desventajas de Mac frente a PC en el ámbito productivo:
-Coste mayor de los equipos.
-Diferencia notoria en precio y oferta de hardware de terceras partes.
PODER COMPUTACIONAL:
Vídeo digital y realidad virtual son dos de las tecnologías que mayor número de ciclos de CPU consumen por unidad de tiempo.
SISTEMAS QUE OPERAN A TIEMPO REAL:
Dos formas básicas de usar un ordenador:
-Proceso Batch: trabajo se organiza en torno al ordenador. Antes de empezar el trabajo todos los datos son recopilados y puestos en una forma que puedan ser tratados por el personal.
-Modo Tiempo Real: ordenador integrado en el entorno de un sistema que automáticamente captura sus datos de entrada. Un sistema multimedia ideal, que responde a demandas tanto cíclicas como guiadas.
-Tiempo de respuesta del sistema: intervalo de tiempo determinado en el que se producen las respuestas. Este tiempo puede variar en función del dominio del problema.
Los tiempos de respuesta es la principal diferencia entre los sistemas.
DISPOSITIVOS DE ENTRADA Y SALIDA
Dispositivos de entrada: pantalla táctil, Joystick, Lápiz óptico, reconocimiento de voz, trackball.
Capura de Imagen: para imagen estética y video a tiempo real.
Condicionantes para la difusión de la imagen: Baja resolución de la imagen y formato reducido de vídeo digital. Para ello, se requiere un hardware de gama media, debido a las limitaciones que puede presentar el producto.
-La resolución de una imagen está medida por la cantidad de pixels por pulgadas o centímetros. Para la producción multimedia: resolución de pantalla: 72 pixels por pulgadas.
-Los circuitos integrados CCD (matriz compuesta por miles de elementos fotosensibles integrados en un chip) forman la base de los dispositivos de entrada y salida de vídeos, cámaras…
Existen tres periféricos para la captura de la imagen:
-
Escáner: dispositivo de exploración de imágenes.
-
Tarjetas digitalizadotas de vídeo.
-
Cámaras fotográficas digitales basadas en la tecnología CCD.
Captura de sonido: la mayoría de los PC requieren:
-
una tarjeta digitalizadora de sonido.
-
Equipos reproductores: lectores CD-audio, una pletina, ecualizador y mesa de mezclas.
Dispositivos de Salida: Dar soporte sensorial a las respuestas del ordenador: monitor, tarjeta de sonido, módem, impresora, conector de ampliación…
Periféricos de visualización: monitores de vídeo, convertidores de scan para TV, LCD, cañones de proyección…
Las capacidades de visualización de los actuales ordenadores se han visto incrementadas en tres facetas básicas:
-
Nuevos monitores y tarjetas gráficas que potencian el fotorrealismo de las imágenes.
-
Proliferación de pantallas LCD (calidad cercana a los monitores convencionales de rayos catódicos) la más habitual sigue siendo VGA.
-
Auge sistemas de proyección: sistemas basados en tres haces.
Destktop vídeo: fusión de los sistemas de vídeo y los microinformáticos, de forma tal que las complejas técnicas de vídeo, animación y edición mixta están al alcance de cualquiera. Sistema económico capaz de realizar parte de estas tareas sobre vídeo doméstico.
LANC: conjunto de protocolos definidos en su momento por Sony, que permite disponer de un patrón de fabricación y referencia común. Comandos y lenguajes compatibles con numerosas aplicaciones, empleando un auténtico estándar para todas las labores.
DISPOSITIVOS DE ALMACENAMIENTO:
-Discos Magneto-ópticos: (mini-Disc)
-se comercializan en dos tamaños: 3'5 y 5'25 pulgadas.
-Su velocidad de acceso no lo hace aconsejable como discos de trabajo.
-Medio de almacenamiento y transporte masivo de información.
-Discos Magnéticos: Dispones de uno rápido facilita las tareas de producción.
- de 200 Mb a 4 GB.
-Otros soportes: Cintas DAT, inadecuadas comos soporte multimedia por su lentitud de acceso, interesantes para archivo de proyectos. Discos WORM, tampoco son adecuadas para almacenamiento por su coste.
SOPORTES MULTIMEDIAS
-Sistema VDI: creado por Philips.
-Sistema láser analógico para el almacenamiento de imagen y sonido HI-FI.
-No es compatible en red, para verlas por Pc necesario tarjeta digitalizadora de la señal.
-Sistema CDI: Philips, con Sony y Matsushita. 1986 se crea, se comercializa en 1991.
- Disco Compact Disc o CD-ROM.
- Son solo de lectura, no se puede modificar contenido.
-Válido para PAL, NTSC, SECAM.
-Sistema DVI: Digital vides Interactive. De RCA y General Electric en 1987.
- Basada en el CD-ROM como soporte.
-Almacena imágenes, audio, vídeo, datos, todo lo que se trate de soporte digital.
-Almacena dos horas mediante técnicas de compresión con apenas pérdida de definición. Relaciones de 144:1. Elimina información repetida.
SISTEMAS CD ROM: discos ópticos digitales.
Se trata de un soporte óptico de densidad lineal creado por Philips y sony en 1985. La información se halla grabada en espiral. La capacidad se mide en minutos y segundos. Un segundo de sonido ocupa 75 sectores de 2kb, unos 150 kb de dotas.
Existen dos tamaños físicos:
-Minidiscos de 80 mm: almacenan 18 minutos de audio digital. Unos 158 Mb de datos.
-Estándar de 120 mm: de 63 minutos (553 Mb) o 74 min. (650 mb)
Ventajas: Gran capacidad de almacenamiento.
Inconveniente: Lentitud de acceso, y solo lectura.
FORMATOS DE DISCOS CD-ROM: estandarizados en una serie de documentos por ANSI
RedBook: define estructura de los cd de audio.
Yellow Book: estándar discos CD-ROM.
Green Book: define CD-I
Orange Book: disco magnetoópticos + CD- grabables.
BlueBook: estándar para discos LaserDisc.
La estructura interna se divide en sesiones y pistas.
La pista es un bloque de información contigua que puede ser: de datos o audio.
Sesión: segmento grabado del disco compacto, que puede contener una o más pistas-
Los formatos multisesión permiten grabar la capacidad del disco en varias sesiones.
Dos formatos básicos de discos CD-ROM:
-CD-ROM mode 1 data sectors.
-CD-ROM mode 2 data sectors.
pantalla. Painter es el paquete de pintura digital más usual del mercado. Frenad e Illustrator son las herramientas más potentes del diseño vectorial.
Morph es el estándard de Mac y PC en la generación de matamorfosis gráficas bidimensionales.
IMÁGEN 3D:
Existen numerosos programas para el tratamiento de la imagen 3D. StrataStudio Pro: existe la posibilidad de crear modelos a partir de formas básicas que vienen incorporadas en la aplicación como el cubo, la esfera, el cono, el plano, o bien crear formas a medidad basándose en métodos de extrusión, revolución o diseño por alzado-planta-perfil.
ANIMÁTICA:
En animación 2D, Director es el programa estrella.
SONIDO:
Existen numerosas aplicaciones MIDI para la composición musical. SoundEdit permite editar y mezclar sonido, efectos de audio, limpiar y ecualiza sonidos, se necesitas conocimientos previos de técnicas de grabación y tratamiento de sonido. Principales posibilidades:
-
Ventana gráfica de representación del sonido y su espectro.
-
Posibilidades múltiples de conversión del sonido entre diferentes formatos y plataformas informáticas.
-
Ventana de control del sonido.
-
Ventana de selección e información.
-
Filtros y efectos.
-
Mesa de mezclas, control de volumen, etc.
-
Sistema de mezclas.
-
Mesa de ecualización.
-
Controles de volumen, amplitud, etc.
-
VÍDEO:
-
REALIDAD VIRTUAL:
-
Tecnología de compresión:
-
Compresión de imágenes:
-
Entornos de desarrollo:
-
MacroMedia Director:
-
Panel: = q los mandos de un casette, permite rebobinar, avanzar cuadro a cuadro, etc. la animación.
-
Paint: módulo de dibujo de tipo bitmap. Director dispone de características de ayuda al diseño y ejecución de animaciones. Efectos tintas: transparencia, doble imagen e inversión...
-
Score: se especifican todas lasputas de animación, transiciones, sonido, etc. Existe un panel resrvado para para el script asociado al fotograma que, utilizando el lenguaje Lingo, permite determinar qué ocurrirá cuando sucedad dterminado evento. Lingo es un lenguaje muy orientado a la multimedia y al concepto de tiempo.
-
Cast: Almacén de personajes: imágenes, movies, sonidos, paletas de color, etc.
-
Color: se crean las diferentes paletas de color q se emplearán para reproducir las secuencias.
-
Text: se pueden archivar textos de todo tipo con especificación del tipo de letra, cuerpo, color, marco, etc.
-
Digital video: reproduce secuencias de tipo digital y editarlas o seleccionar porciones de las mismas.
-
Tweak: desplaza elementos gráficos por pantalla basándose en incrementos numéricos especificados en pixels, posibilita su ubicación exacta.
-
Tools: paleta de herramientas con las q es posible crear algunas primitivas PICT vectoriales, como texto, botones, líneas, rectágulos y elipses.
-
Message: asociada a Lingo, lenguaje de programación orientada a objetos.
-
Script: define la interacción con el sistema.
-
Los ejecutables: han sido compilados. Autónomos.
-
Shared Cast: almacén de datos y scripts compartibles por varios movies.
-
Los no ejecutables: no son autónomos.
-
Sprites: objeto gráfico q puede estar dotado de movimiento propio.
-
Botones: reaccionan a ciertos eventos de tipo Mouse Up o Mouse Down, soltar o pulsar el botón del ratón. Son capaces de captar los eventos generados y realizar acciones como respuesta.
-
Campos: Almacena datos tanto numéricos como textuales. Cada campo está identificado por un nombre y un número.
-
Comando Lingo, sb todo las asociados con el manejo de secuencias de vídeo digital.
-
Tempo: Temporiza la animación, especificando el número de fotogramas por segundo, pausas, esperas a pulsación del teclado o tratón, etc.
-
Palette: se define qué paletade color será la activa en la secuencia dada. Ajusta efectos cromáticos como transiciones de paleta o animación de color.
-
Transition: Efectos de transición entre paleta entre fotogramas (ej.cortinillas)
-
Sound1:Ñ introduce sonidos, preprogramados o digitalizados.
-
Sound2: =, pero tb con posibilidad de fundor sonido de un canal con el otro.
-
Script: Asociado al lenguje del script, los comando tecleados en este canal sólo serán ejecutados al pasar el cabezal reproductor por el fotograma en q hayan sido especificados.
-
Enlaces inteligentes
-
Acdeso a utilidades Director desde un programa. Se puede acceder a cualquier ítem de un menú.
-
Manejadores autoprogramables.
-
Ejecución de aplicaciones externas.
-
Condiciones de ejecución: día, fecha, posición del ratón, estado del teclado cuando se oprime el ratón.
-
Pilas ( stacks): Colección homogénea de información constituida por tarjetas. Puede tener varios fondos.
-
Fondos (backgrounds): conjunto de elementos q comparten otros objetos.
-
Tarjetas (Cards): fragmento de información de una pila. Puede contener botones
-
Botones (buttons): capaza de captar señales del ratón y realizar acciones como respuesta.
-
Campos (fields): elemento q contiene texto
-
Tipografía TrueType. TrueType ha proporcionado al usuario medio un sistema económico y de alta calidad, tanto para su definición en pantalla como para la imagen impresa. Apple incorpora ocho fuentes TrueType en su sistema operativo.
-
Tipografía PostScript. Líneas de Bezier: curvas por ajuste de curvatura variable. A la agrupación de líneas de Bezier se le llama path, y conforma la estructura del carácter.
-
Acceso a la información sin requerir conocimiento alguno de informática
-
Aprendizaje casi inmediato
-
Integración en un solo ordenador de texto, imágenes digitalizadas, sonido y animación
-
Acceso instantáneo a toda información relacionada con la que se está observando
-
Una red de nodos textuales
-
Un icono que representa el nodo, un ratón o membrana táctil u otro dispositivo que propicia de forma sencilla la aparición del nodo deseado
-
La posibilidad de que el propio usuario defina enlaces a los nodos de la base de datos hipertextual
-
Tres posibilidades de recorrer el hipertexto:
-
Abriendo ventanas sucesivamente
-
Haciendo búsquedas concretas
-
Mediante el navegador del sistema
-
No permite conocer las posibilidades globales que ofrece el programa
-
Supone un gran esfuerzo para acceder a ramificaciones profundas
-
Exige un cierto conocimiento previo de los contenidos
-
Índices: Entre los más comunes, se encuentran los listados alfabéticos y los analíticos. Generalmente, permiten una mayor exhaustividad en la relación de contenidos y facilitan una búsqueda de información concreta, pero suponen un conocimiento previo de la materia por parte del usuario y no aportan información respecto a la relación entre contenidos.
-
Esquemas: Son menos exhaustivos que los índices. Ofrecen el itinerario de los contenidos básicos que el sujeto puede consultar a lo largo del hipertexto. Aunque pueden adoptar distintos diseños (en árbol, llaves, cuadros, etc.), según la información contenida cabe distinguir entre:
-
Esquemas de contenido: ofrecen el esquema lógico del tema o temas que trata el programa
-
Esquemas de programa: ofrecen los caminos que se pueden recorrer
-
Mapas gráficos: Pueden ser analógicos (representación real) o metafóricos (simbolización) dependiendo de la información de que se trate. En algunas ocasiones se acompañan de palabras que ayudan a definir mejor los contenidos.
-
Informativa: El mapa de navegación ofrece información útil al usuario. Puede ser situacional, relacional o navegacional.
-
Informativa situacional: Indica el lugar en que el usuario se halla en el momento de consultar el mapa
-
Informativa relacional: Informa de las relaciones existentes dentro del contenido del programa
-
Informativa navegacional: Indica la información que el sujeto ha consultado hasta el momento presente
-
Recuperadora: Permite el acceso a cualquier información aparecida en el mapa de forma automática mediante un sistema determinado.
-
Elaboradora: El usuario puede señalar los diferentes conceptos que le interesan e indicar al ordenador que organice la información.
-
Posición y orientación.
-
Posición del observador (hipotética cámara).
-
Orientación de la cámara.
-
Ángulo de apertura de la cámara.
-
Dirección del espacio que quedaría representado en pantalla.
-
Construcción de una poligonal auxiliar 3D punto a punto (coordenadas)
-
Modificación, supresión o inserción de un punto de una poligonal auxiliar.
-
Animación alrededor de la escena; permite modificar los ángulos de visualización a voluntad.
-
Animación con observación tangente a la trayectoria; permite definir la trayectoria que seguirá el observador durante la animación. La sensación que se obtiene con este tipo de visualización recuerda al vuelo sobre la escena.
-
Animación por trayectoria del observador y punto de vista; la sensación que una animación así produce simula tomas de travelling.
-
Animación libre interactiva; posibilidad de ir definiendo la trayectoria y el punto de observación a medida que la animación va desarrollándose.
-
Pitch; velocidad de reproducción de un sonido.
-
Ciclo de onda; unidad mínima de una onda, por cuya repetición se puede generar la onda sonora completa. Parámetro interesante para el estudio de los tonos puros.
-
Sinusoidal.
-
Cuadrada.
-
Diente de sierra.
-
Complejas.
-
MIDI OUT o de salida; envían los mensajes MIDI a otros elementos de la cadena.
-
MIDI IN o de entrada; encargados de recibir las señales para su ejecución:
-
MIDI TRHU o de entrada-salida; reenvían los mensajes de entrada.
-
Señales de canal; afectan a un canal determinado y se componen de tres bytes en cadena. El primero denominado status, indica la clase de mensaje así como el canal activo a la recepción del mismo (ejecución de una nota o note on, cambio de programa…); el segundo byte es el de datos o data e indica, por ejemplo, el número de la nota; el tercero es opcional, sólo para teclados con sensibilidad a la presión, indica la velocidad de la pulsación (para poder interpretar la intensidad del golpe a la tecla, lo que sería el volumen en un instrumento convencional).
-
Señales de sistema; afectan por igual a todos los sistemas conectados, existiendo tres tipos: común, de tiempo real y de tipo exclusivo.
-
RGB: tres cables separados, uno transmite la componente cromática roja, otro la verde y otro la azul. Hace falta una serie de cables parate para las señales de sincronismo, que son las que permiten que cuando la señal de vídeo acaba de barrer una línea de televisión, baje y comience a barrer la siguiente.
-
Y/C: sistema de codificación de señales empleando portadoras de luminancia Y y crominancia C. Vídeos de tipo Super VHS trabajan con señales de Y/C.
-
Componentes: combinación entre RGB y luminancia y crominancia. Betacam de tipo SP.
-
Video compuesto: emplea un único cable para transmitirse. Tipo VHS.
-
Dubing: señales dotadas de frecuencias muy elevadas. Se emplean exclusivamente para la edición, para copiar de un magnetoscopio a otro. Comunican directamente el cabezal de reproducción de un magnetoscopio con el de grabación de otro.
-
Radiofrecuencias: señales que se reciben en los aparatos de televisión, pensadas para la radiodifusión.
-
Software del sistema: encargado de la comunicación entre las extensiones y las aplicaciones que hacen uso de sus recursos.
-
Formatos de archivo: incluyen el formato de Movie para imagen en movimiento y una extensión al formato asociado a imágenes estáticas que permiten la compresión de tipo JPEG.
-
Componentes: compresión de la imagen mediante JPEG con relaciones del orden 5:1 hasta 100:1, componentes de vídeo con compresión de 25:1 y compresión de la imagen sintética en movimiento, la animática.
-
Calidad de la imagen y posibilidad de redemisión de la misma.
-
Velocidad de digitalización a imagen fija o en movimiento.
-
Profundidad de video que puede ser digitalizado.
-
Señales de video soportadas por el sistema.
-
Resolución de vídeo.
-
Número de fotogramas por segundo.
-
Profundidad de color por cada píxel de imagen adquirida.
-
Relación de aspecto de la imagen.
-
Ajuste del tono de la imagen.
-
Ajuste de la saturación.
-
Modificación del brillo.
-
Modificación del contraste.
-
Ajuste del nivel de negro.
-
Ajuste del nivel de blanco.
-
Nivel de blanco: grado de luminosidad máximo de una imagen.
-
Nivel de negro: máximo nivel de oscuridad dentro de una imagen.
-
Compresión espacial: permite modificar al relación calidad/memoria ocupada dentro de una misma imagen.
-
Compresión temporal: hace los mismo en secuencias de imágenes adyacentes en el tiempo.
-
Codificadores de ancho de banda constantes: técnica de compresión que producen secuencias de imágenes o fotogramas estáticos que siempre tienen el mismo tamaño expresado en bytes.
-
Codificadores con flujo de datos variables: son esquemas de compresión que generan tamaños diferentes para distintos fotogramas de video o muestra de audio.
-
Operar con un flujo de datos constante pero una calidad de imagen variable.
-
Operar con un flujo de datos variable pero una calidad constante.
-
Ancho de banda disponible en el CD-ROM debido a requerimientos de sincronización.
-
Ancho de banda disponible en el CD-ROM debido a las prestaciones propias del lector empleado.
-
Tiempo de latencia del CD-ROM debido a la búsqueda.
-
Número de fotogramas por segundo y resolución de procesamiento.
-
Procesamiento de la descompresión de vídeo.
-
Procesamiento de la salida de vídeo.
-
Frecuencia de muestreo del sonido y profundidad de bits de color.
-
Procesamiento de la reproducción del sonido.
-
Tiempo de procesamiento para el desentrelazado de lasa señales de vídeo y de sonido.
-
Ancho de banda
-
Resolución de vídeo y número de fotogramas por segundo
-
Sistema de compresión seleccionado
-
Parámetros de compresión seleccionados.
-
Especificaciones de métodos de digitalización.
-
Cantidad de RAM empleada.
-
Reducir la calidad de un fotograma de vídeo iterativamente.
-
Reducir la calidad de una secuencia de vídeo iterativamente.
-
Despreciar fotogramas que son idénticos a fotogramas anteriores y sólo generarían redundancias.
-
Desplazar el sonido lejos de fotogramas clave para reducir picos de ancho de banda.
-
Eliminar keyframes forzados que estén cercanos a otros keyframes automáticos.
-
Eliminar fotogramas que fuerzan un anco de banda demasiado alto, manteniendo así la sincronización audio-vídeo.
-
Futuro prometedor por sus múltiples aplicaciones( ocio,educación...)
-
No reemplazará al papel como soporte de información.
-
Sus principales limitaciones son económicas y tecnológicas, por el momento.
-
En el futuro se caracterizará por su alta velocidad y memoria, y por la estandarización de formatos y conectividad.
-
Es una de las vías más prometedoras para la tecnología multimedia.
-
El sistema de doc. Electr. Con más éxito es Acrobat ( de Adobe, es de libre distribución). Revoluciona el mundo de la edición electrónica.
-
La gran ventaja de Adobe es su patente sobre PostScript.
-
PostScript: rey de la descripción de la página impresa, Permite definirla estructura texto-imagen de una página.Es un lrnguaje.
-
Posee un dialecto que es más rapido, conciso y compacto en memoria, es el PDF
-
La creación de un documento PDF es sencilla:crear archivo EPS o el Post Script de la página en cuestión, lugo con la aplicación Adobe Distiller ,el formato se convierte a PDF.
-
El soporte ideal de estos documentos es el CD- ROM
-
El aumento de velocidad de proceso, aumenta la interactividad.
-
Feedback: Ppio básico de la realidad virtual.
-
Aplicaciones infinitas, sobretodo videojuegos.
-
El primer videojuego en realidad virtual, Virtual Boy de Nintendo, 1995.
-
Ej.: caminar por una habitación, encontrar una puerta ( hotspot) , hacer clic sobre ella, se abre y podemos entrar en su interior.
-
son necesarios los ordenadores rápidos.
-
Concepto acuñado en 1993 por Al Gore ( EEUU) en un informe sobre las nuevas tecnologías.
-
El CD ROM como soporte de transición.
-
El futuro vendrá definido por grandes autopistas de la informaciónde alta velocidad.
-
La edición electrónica On Line permite difundir todo tipo de publicaciones en un soporte digital.
-
Las autopistas de inf. Hoy se basan en redes de telefonía.
-
En el futuro vendrán definidas por redes de transmisión digital, en enlaces RDSI, telefonía móvil GSM, o lo que el futuro depare.
-
El acceso se realiza hoy a travás del módem.
-
Pero el cableado digital basado en fibra óptica permitirá un acceso instantáneo sin necesidad de conversión analógico-digital.( En el futuro próximo)
-
Las compañías telefónicas y de cable del mundo, ofertan enproceso de prueba este tipo de sistema( British Telecom, Pacific telesis, American Airlines)
-
El cambio del cobre en el cable telefónico, a fibra óptica, se está haciendo poco a poco en EEUU( cada año se cambia un 5 %)
-
Tres estándares actuales en televisión de alta definición: el japonés Hi-vision, el europeo HD- MAC o el americano.
-
Bulletin Board System.
-
Vía módem permiten la comunicación informática entre usuarios de diferentes sistemas.
-
Han poblado las líneas telefónicas.
-
Dos de las más conocidas : AOL, Compuserve.
-
Las BBS ya no están de moda.
-
Internet , la ha relegado a un segundo plano
-
Utiliza un sistema de software propio para entorno Macintosh, Mac CIM, o Windows, Win CIM.
-
Empezó con tres ordenadores. Hoy son unos 10 mill.
-
Luego sería usado como canal de comunicaciones entre universidades y centros de investigación de todo el mundo, unificados bajo el protocolo de red TCP-IP( del sistema UNIX)
-
A comienzos de 1995 había 55.000 dominios en Internet.
-
El número de usuarios podrá llegar a ser mayor al número de habitantes en el mundo.
-
El boom de Internet fue en 1993, con la incorporación de todo tipo de servicios y usuarios.
-
En 1995 deja de recibir subvenciones del gobierno de EEUU, abriendo paso al uso comercial libre.
-
IRIS: red española que forma parte de Internet y que une universidades y centros de investigación españoles.
-
Un servicio básico es el E Mail
-
IRC: permite establecer charlas en línea y tiempo real, a través del teclado. Una de sus variantes es la de avatars, actores virtuales que nos representan en la charla.
-
Hoy la velocidad de conexión es lenta, y es debido mayormente por la gran cantidad de usuarios. Además el camino de los datos nunca es directo. Existen Routers ( dispositivo que autentifica nuestra identidady enlaza redes diferentes) que hacen dilatar el tiempo.
-
Paginas Web: páginas electrónicas que contienen información( txt, imágenes,y enlaces de Hipertexto)
-
WWW: servidores de inf. Unidos en forma de red, entre los cuales es posible navegar. Nació en 1989 en el CERN ( suiza). Se le atribuye al científico Tim Barnes Lee..
-
Nació por el deseo de intercambiar documentos hipertextuales, y fue posible porque crearon el lenguaje HTML.
-
Los enlaces o páginas poseen una dirección dentro de la red, denominada URL ( Localizador de Recurso uniforme)
-
Los enlaces que nos hacen pasar de una página a otra ( dentro de una página web) siempre irán resaltados como iconos o con color ( normalmente azul)
-
El sistema almacena el camino recorrido en forma de mapa de navegación, marcando las zonas recorridas en otro color ( magenta).
-
Navegadores: programas q se emplean para poder acceder a los servidores de información web.( Ej. Mosaic de NCSA y Netscape).Permiten tb la recepción de correo electrónico.
-
Los usuarios de www supera a lo s de FTP.
-
Las páginas web se ponen en servicio creando archivos con formato HTML y poniéndolas en un servidor web, servidor que está conectado a la red permanentemente
-
Todo lo q nos imaginemos será poco en comparación con lo que se conseguirá tecnológicamente.
-
Estandarización de pantallas de alta resolución
-
Elevadas velocidades en la lectura de CD ROM
-
Realidad virtual más desarrollada
-
Tv interactiva...
-
Futuro plagado de incógnitas.
Quicktime y Video for Windows es una de las tecnologías más atractivas que se pueden emplear en un proyecto multimedia. Adobe Premier permite editar video y sonido con calidad y sobre todo con facilidad. Elementos de que dispone: mesas de edición, generador de efectos digitales, mesa de mezclas, tituladora,...
Dispone de un entorno interactivo tridimensional en el que navegar.
Los elementos de un montaje multimedia son claros ejemplos de alta ocupación de memoria, por lo q es preciso comprimir previamente los archivos empleando diferentes algoritmos.
Algunos sistemas de compresión son los siguientes:
-ALGORITMOS DESTRUCTIVOS VS NO DESTRUCTIVOS:
Por una parte tenemos la compresión en sí y por otra la descompresión de datos que permite recuperar la información inicialmente perdida.
Algoritmos para tareas de compresión: Huffman: dota a los símbolos de información con mayores frecuencias de aparición con códigas de pocos bits, reservando los códigos largos, de hasta 8 bits, para aquellos símbolos menos frecuentes. El LZW reemplaza apariciones frecuentes de cadenas de símbolos por códigas de una longitud prefijada.
Con un sistema no destructivo es posible comprimir y descomprimir la información infinitas veces, sin que pierda identidad.
En un sistema destructivo cada ciclo de compresión y descompresión produce una degeneración de un grado en la información. Un número finito d ciclos puede provocar q los datos finales no se parezcan en nada a los originales. Número de ciclos de degeneración: número máximo de ciclos de compresión y descompresión ejecutables, antes de que se produzca un deterioro. Los algoritmos de compresión destructivos logran ratios de compresión mayores q los de tipo no destructivo.
JPEG: compresión de imágenes estáticas.
MPEG: compresión con imágenes en movimiento.
Estos algoritmos separan la imagen en dos canales, uno contiene informaci´pon de luminancia, el otro de crominancia.
HyperCard: primera herramienta q desarrolló la idea de hipertexto en microordenadores.
Es un paquete de desarrollo multimedia q ofrece una gran capacidad en cuanto a la interactividad. Existen versiones Macintosh, PowerPC y windows.
Este entorno incorpora un lenguaje llamado Lingo, permite desarrollar animaciones interactivas, lo q hasta ahora sólo era posible a través de los scripts de HyperTalk o SuperTalk. También permite controlar periféricos, como lectores de disco CD_Rom, VCR, y lectores de video-disco.
ESTRUCTURA BÁSICA:
Ventanas:
LOS OBJETOS DEL DIRECTOR
Movies: cada archivo de Director es un fichero distinto q se puede ver en pantalla como un nuevo icono. Varios tipos de movies:
Secuencias: Fragmento o fracción de los fotogramas q componen un archivo de Director. Cada se cuencia tien un nombre propio q define el objeto; ese nombre le vien asignado por una etiqueta en su primer fotograma.
Fotogramas:
Fragamento de información de un archivo de Director. Elemento básico de codificación temporal: especifica el tiempo de permanencia de un fotograma en pantalla. Puede contener información textual, gráfica, sonora de video, gráfica o cualquier combinación de ellas Un tipo de fotograma es el Keyframe: es un fotograma clave o extremo de interpolación. Dos tipos de keyframes en Director:los de la interpolación de tipo lineal y los de tipo curvilíneo.
Un fotograma no puede estar compuesto por más de 48 objetos gráficos o textuales.
Cells: unidad mínima de codificación de información con q se puede dotar de un hipersistema.
Tipos de cells:
Principales posibilidades del entorno
- Importar archivos de todo tipo a una animación.
- Una ventana de QuickTime q permite reproducir animaciones de este formato incluídas en el Cast.
- El comando Export permite la exportación de las animaciones creadas en Director como movies.
- La información obtenidad sobre los personajes del Cast incluye numerosas posibilidades para su manejo.
SCRIPTING HIPERMEDIA: LENGUAJE LINGO
Lenguaje de programción o Script (Lingo) opera en tiempo real bajo interprete y dotado de una estructura tal q pueda ser considerado como el paradigma de la hipermedia. Es un lenguaje orientado a objetos, permite definirlos en cantidad variable durante la ejecución de la aplicación , permitiendo el paso de mensajes de unos a otros y la definición de sus propiedades.
Características
HYPERCARD
Entorno de desarrollo de aplicaciones q incluyen herramientas muy potentes para incorporar rápidamente interfeces de usuario complejos. Incluye un lenguaje de programción, hyperTalk.
HyperCard es una herramienta de ayuda para la creación de herramientas o aplicaciones.
Los objetos de HyperCard
CAPÍTULO 4. TEXTO E HIPERTEXTO
Cuando se presenta al usuario una cantidad de información, los programas informáticos con objetivos educativos, instructivos o informativos han de satisfacer dos características esenciales: la flexibilidad y la apertura que deben proporcionar al usuario que los utiliza.
TIPOGRAFÍA DIGITAL
La madera como soporte presentaba facilidades para la construcción tipográfica, pero sus problemas no eran menores. Los tipos en madera eran caros, de gran estabilidad dimensional pero muy deteriorables con el uso continuado.
Se necesitaba un material de construcción fácilmente trabajable pero duro a la vez, inalterable a la acción oxidativa y de deterioro de la humedad pero económico y lo suficientemente poco poroso como para resistir las fases de limpieza. De esta forma se llegó a los tipos de plomo-zinc.
Tipografía bitmap vs vectorial
El tipo bitmap (mapa de bits) es aquel que viene definido punto a punto, para cada cuerpo o tamaño de carácter. El primer problema de la tipografía bitmap radica en que es preciso disponer de una fuente para cada cuerpo, puesto que el escalado tipográfico en fuentes de tipo bitmap conduce ineludiblemente al deterioro de la calidad impresa de los caracteres.
Sin embargo, una de las grandes ventajas de la tipografía vectorial, respecto de la bitmap, consiste en el casi perfecto escalado de las mismas. La otra gran ventaja del tipo vectorial es que puede imprimirse en una impresora o pantalla de cualquier resolución.
VARIANTES TIPOGRÁFICAS VECTORIALES:
La calidad obtenible es independiente del proceso de creación de página y sólo dependerá de la calidad o resolución del dispositivo de salida.
En la actualidad la tipografía PostScript se comercializa en dos formatos básicos, las de tipo 1 y las de tipo 3. Las de tipo 1 son las soportadas originariamente por Adobe, creadora de PostScript, siendo también denominadas fuentes con encriptación. La gran ventaja de las de tipo 1 frente a las de tipo 3 consiste en la adopción de hints o variaciones tipográficas mínimas para optimizar la apariencia impresa de los caracteres a bajas resoluciones o cuerpos pequeños.
Las de tipo 3 son similares en calidad y prestaciones a las de tipo 1, con la excepción de no estar encriptadas ni contener hints.
En ordenadores Apple Macintosh y PowerPC, los tipos de letra se componen de tres clases de información: Screen, Printer y AFM. Se trata de una fuente bitmap para pantalla (Screen), una parte vectorial para la impresora (Printer) y una última parte (AFM) que incluye información sobre interacción tipográfica, como el espaciado entre caracteres y líneas.
La gran ventaja de los tipos PostScript respecto de los tradicionales es que, por el precio de una fuente, tenemos toda una familia tipográfica: común, cursiva, negrita y cursiva-negrita.
TECNOLOGÍA MÚLTIPLE MASTER FONT
Cada una de estas fuentes contiene una serie de variantes tipográficas básicas o diseños maestros, como son la redonda, negra, cursiva y condensada. Partiendo de estos diseños tipográficos básicos es posible crear variantes intermedias.
Mediante las fuentes de tipo 1 también es posible crear un amplio abanico de variantes tipográficas aunque los resultados obtenidos sacrifican elementos cruciales del diseño tipográfico. La técnica MMFT mantiene indemne la forma tipográfica durante los procesos de transformación.
CONSTRUCCIÓN TIPOGRÁFICA
Gracias a programas como Fontographer se puede diseñar tipos basándose en curvas de Bezier y líneas rectas.
LA ESTRUCTURA DE LA INFORMACIÓN
Hipertexto o hipermedia: nuevo método para el almacenamiento, organización, manipulación y acceso a la información.
Navegando a través de la información
Se puede definir el concepto de navegación como la acción de moverse o desplazarse a través de la información y no necesariamente de aprehenderla. El navegante del conocimiento se mueve por el saber, seleccionando aquellas partes del mismo de su interés y extrayendo pequeñas porciones del todo que suponen los conceptos y metodologías.
El auténtico e inquietante problema, aquello que bloquea el acceso al conocimiento, es la dificultad de navegar por ella, de acceder a aquella información de su interés.
Cuando alguien se plantea localizar aquellos datos importantes para su trabajo o actividad, se encuentra con la muralla que suponen los sistemas convencionales de acceso y localización de la información, tales como índices, listados de referencias bibliográficas, diccionarios, enciclopedias, etc.
La información, los datos, son entidades simples y con sentido propio; es la aglutinación de múltiples datos lo que realmente aporta complejidad al hecho de poder acceder a los mismos, de forma ordenada.
Centrándose en los hipertextos, pueden señalarse algunos problemas importantes con los que se encuentra el usuario y que se resumen básicamente en dos: la desorientación del usuario y el desbordamiento cognitivo.
EL HIPERTEXTO
El hipertexto es una tecnología utilizada para el almacenamiento, tratamiento y recuperación de información. El almacenamiento de ésta se realiza sobre nodos, los cuales se conectan mediante enlaces, formando una red más o menos compleja. La recuperación se realiza mediante el sistema de navegación que permite al usuario recorrer la red a través de los enlaces existentes, además de poder seleccionar uno de los nodos de forma arbitraria.
El número de enlaces en una red es un indicativo de su potencia, quizás tanto como el número de nodos que la componen.
El hipertexto es un nuevo método para la organización de los datos cuya estructura consiste en una red de nodos. Los nodos almacenan texto no lineal que son accedidos por el ordenador en modo interactivo y visualizados de forma dinámica, por tanto pueden ser consultados con rapidez y flexibilidad. La innovación principal reside en la forma de memorizar e introducir el dato en el ordenador, que está inspirada en el proceso mental humano.
El uso del ordenador proporciona una gran cantidad de ventajas con respecto a los soportes convencionales para la información escrita: un instrumento para la exploración de problemas, que sirve de apoyo cuando las ideas están todavía confusas y desorganizadas, de rápida interacción, con posibilidad de seleccionar el nivel de detalle deseado en el momento, que admite cambios repentinos, profundización y abstracción.
Las principales características de un sistema hipertextual son básicamente las siguientes:
La interacción del usuario con el sistema se garantiza mediante el uso de los llamados eventos, es decir la detección que el sistema realiza de acciones de teclado, ratón u otro dispositivo de entrada, así como por el envío de mensajes de un nodo a otro dentro de la red hipertextual.
Para la navegación en la red es fundamental dotarla de un browser (sistema de navegación) estático, que se representará en un mapa para evitar la desorientación del usuario (mapa de navegación), en el que se puede ir señalando los cambios que se vayan produciendo de nivel de profundidad.
COMPONENTES DEL HIPERTEXTO
La estructura básica de un hipertexto consta de:
Cada nodo debe diferenciarse de los otros con colores o gráficos particulares.
Nodos
Un nodo corresponde siempre a una pequeña porción de información. Los nodos se muestran en pantalla mediante una ventana de cualquier tipo. Puede suponerse que cada nodo corresponde a una pequeña sección de una enciclopedia o una imagen gráfica con una explicación.
Enlaces
Un enlace es todo aquello que conecta dos nodos. Los enlaces permiten el acceso de un nodo a otro. Se utilizan para ampliar la información de texto o imágenes incluidas en un nodo. Están asociados a texto, imágenes o cualquier elemento de información, de modo que una selección del mismo mediante un simple “clic” ejecuta el enlace que provoca un salto hacia otro nodo.
MAPAS DE NAVEGACIÓN
Generalmente, las aplicaciones hipertextuales o hipermedia incluyen varios elementos con unas funciones específicas: un sistema de navegación, un sistema de ayuda...
Los sistemas de navegación o interfaces suelen adoptar la forma de un sistema icónico o menú que permite el desplazamiento por el programa.
Los sistemas de ayuda incluyen un tipo de información que suele explicitar las funciones que realizan los iconos de navegación o bien un glosario de las funciones que realizan los menús. Los sistemas de ayuda de algunas aplicaciones suelen diseñarse en forma de índice, generalmente alfabético.
Algunos programas están diseñados siguiendo una pauta lineal en la que el usuario sólo puede avanzar y retroceder de una página o ficha a otra. Los programas ramificados plantean al usuario diversas posibilidades de elección. Este sistema de selección incluye una característica interesante: proporciona una guía que permite un acceso más consciente, más flexible y más abierto a la información. Sin embargo, presenta tres inconvenientes:
Los mapas no ofrecen únicamente solución a los problemas de desorientación del usuario o de desbordamiento cognitivo, sino que, además, añaden posibilidades de aprendizaje.
Tipología de los mapas de navegación
Funciones de los mapas de navegación
TEMA 5: LA IMAGEN DIGITAL
PRIMERA PARTE.
Infografía: aplicación de la informática al tratamiento de la imagen.
Se podría definir como una actividad que, sirviéndose de las ciencias y el grafismo, pretende ante todo comunicar.
La representación simbólica e iconográfica son dos grandes elementos de uso generalizado en el devenir infográfico, minimizando así el elemento textual en la representación multimedia de las ideas.
Infografía y desarrollo tecnológico
El auténtico auge infográfico no se ha producido hasta el advenimiento de los dispositivos de obtención de imágenes de tipo raster, aquel en el que la imagen es creada punto a punto, es decir, en modo bitmap.
Conexionar y controlar dispositivos externos, como los magnetoscopios, las grabadoras reproductoras de vídeo-disco y las unidades generadoras de sonido digital, ha fusionado el grafismo digital con la creatividad videográfica y la edición de audio de alta fidelidad.
La infografía se sirve, en primera instancia del grafismo, como inicial acercamiento a la realidad visual, al igual que un pintor recrearía en su lienzo un retrato o paisaje. Pero la realidad no es plana como lo sería el lienzo, sino que sólo tiene sentido por su tercera dimensión, la profundidad.
Equipamiento necesario
En el caso del diseño gráfico y la creación, el equipo necesario para obtener resultados de gran calidad es bastante asequible. Básicamente consiste en un escáner para digitalizar las imágenes y un ordenador personal con el software apropiado.
En lo referente al tratamiento de imágenes digitalizadas, uno de los programas más utilizados y con más prestaciones en la actualidad es Adobe Photoshop. Para la creación de imágenes, los entornos basados en ventanas cuentan con aplicaciones como Freehand y Adobe Illustrator. Ambos programas están orientados al diseño de todo tipo de imágenes, mediante herramientas de dibujo vectorial como las curvas de Bezier, y ofrecen la posibilidad de utilizar, además, imágenes digitalizadas.
TIPOLOGÍA DE LA IMAGEN DIGITAL
Dos grandes subdivisiones se abren en lo que al grafismo digital se refiere: la imagen bitmap y la vectorial. Se entiende por bitmap la imagen definida punto a punto.
La imagen vectorial, sin embargo, viene definida por las ecuaciones de las formas, líneas y superficies que la conforman.
Se denomina pixel (picture element) a cada uno de los puntos elementales de que se compone una imagen. Las imágenes en escala de grises precisan de varios bits para definir el tono o nivel de claroscuro de cada pixel, 4 bits para 16 grises y 8 bits para 256 niveles.
Se emplea la matriz bidimensional para el trabajo en blanco y negro, y la matriz tridimensional para la definición de imágenes en semitonos o color, asociando a cada pixel tantos bits como sean necesarios para determinar la tonalidad o color en cada punto de la imagen; 1 bit para blanco y negro puros, 8 bits definen 256 tonos y 24 bits unos 16,7 millones de colores.
Esta inicial ventaja de la imagen bitmap sobre la vectorial, se ve compensada con creces por la infinita precisión del trabajo vectorial y sus escasos requerimientos en cuanto a ocupación de memoria se refiere. La imagen vectorial desconoce el concepto de pixel, opera con líneas rectas, curvas y líneas de Bezier, agrupando éstas en paths o polilíneas que, en caso de ser cerradas, definen superficies.
La imagen se adquiere de la realidad mediante el uso de un escáner. Existen dos tecnologías para la realización de este proceso: La tecnología de tambor rotativo y la plana.
La rotativa es la más antigua y cara. Con ella se obtiene mayor calidad.
Gracias a la plana ha sido posible el acceso al color. La principal diferencia con la rotativa reside en que la parte móvil no es el original que se va a explorar, sino el sistema de exploración. Esto exige tres pasadas de lectura de la imagen con sus correspondientes filtros rojo, verde y azul. Según el número de bits asociados a cada pixel, puede definirse una cantidad de colores diferentes. El registro de la imagen debe realizarse a altas resoluciones.
Son varios los factores que afectan a la memoria del pc para almacenar una imagen: El tamaño de la imagen, la resolución, el número de canales asociados a la imagen, el número de colores representados en la imagen.
Curvas de Beizer
Aparición de técnicas materiales de generación de curvas planares por métodos vectoriales. Uno de los sistemas de representación de curvas es el sistema de curvas Beizer. Tuvo una aplicación original para el trazado preciso de planos y especificaciones de construcción.
Las cuvas de Beizer son expresiones bidimensionales, aunque existen también tridimensionales, en función de ecuaciones paramétricas cúbicas. Son curvas de radio variable. Los puntos se unen en trazados formando complejas curvas de Beizer compuestas.
Archivo de imágenes
Problema q surge cuando hay cientos de imágenes que incluye el desarrollo de un producto multimedia, ¿cómo se almacenan? Existen numerosos paquetes informáticos para el archivo de imágenes, como Gallery, MultyAdSEarch, Mars, Aldus Fetch…Las mayoría, muy potentes para uso doméstico, pero incapaces de abordar los requerimientos de una gran editorial o banco de imágenes.
En la actualidad hay dos sistemas: Por una parte, los catálogos en soporte CD-ROM y por otro, los sistemas en línea de acceso vía modem a los bancos de imágenes digitalizadas. Gracias a Internet, ya se es posible demandar imágenes sin moverse de la mesa de trabajo.
TERCERA PARTE: EL COLOR DIGITAL
Se denomina color a la información o cualidad cromática diferencial, que se percibe de un foco de luz o un objeto iluminando.
Se pueden distinguir sistemas de definición de color, que son formas de especificar colores; y sistemas de generación de los mismos. HSL, HSB, Y/C, definen el color con gran precisión pero no lo general; RGB y CMYK son a su vez sistemas de generación cromática.
Ejemplo de un sistema RGB es un televisor; sistema CMYK es una imagen impresa.
Se denomina espacio de color a un sistema de definición, de un mínimo de tres dimensiones o coordenadas, mediante el cual se genera el espectro cromático. Un sistema generador, aquel formado por solo tres componentes, se denomina base generadora de color y es capaz de crear buena parte del abanico de colores.
COMO DEFINIR EL COLOR: a través de nombres, según la impresión visual que de ellos se obtiene; técnicamente se definen los colores por su longitud de onda, diferenciándose el color de la luz.
Existen numerosas bases de color, aunque las dos más usuales son la RGB y la CMYK.
COLOR ADITIVO Y SUSTRACTIVO:
Color aditivo: se basan en el color luz. La resultante de los colores aditivos, en concreto de los que forman su base de color, da como resultado el blanco (RGB). Suelen denominarse colores primarios. El sistema aditivo suele emplearse en monitores de vídeos o computadoras, por cuanto su principio de funcionamiento es el de ser capaces de emitir luz.
Color sustractivo: se basan en color pigmento. La combinación de los colores da origen al negro (CMYK). Se conocen como colores secundarios. La imagen impresa se rige fundamentalmente por el empleo de una base cromática sustractiva CMYK, en el caso de la cuatricronomia, que no emite sino refleja la luz recibida.
Para evitar las gran discordancia que existe cuando se construye en pantalla una imagen escaneada, se debe calibrar todos los elementos de captura y salida de color, desde el escáner hasta la impresora, pasando por el monitor.
COLOR ANÁLOGICO Y DIGITAL
Color digital: simulación de la gama cromática que ofrece la naturaleza. No recrea todo el espectro cromático visible, solo una cierta franja o gamut del mismo.
El color digital se expresa asignando de 1 a n bits de información, por cada píxel de imagen. En pantallas y tarjetas de vídeo preparadas para visualizar el color real, cada píxel se descompone en forma de tres canales RGB, y en ocasiones, en un cuarto canal, ALFA, empleado para efectos de transparencia. La combinación de los tres canales genera: 16'7 M de colores.
Las tarjetas de vídeo se limitan a asignar 16 u 8 bits de información por píxel. Con 16 genera decenas de miles de colores. Con 8 solo 256 por segundo. La técnica DITHERING trata de minimizar la deficiencia cromática, simulando un gran rango cromático a partir de pocos colores. Es posible genera diferentes tonalidades de naranja, a partir de píxeles de color rojo y amarillo.
PRINCIPIOS BÁSICOS DE CALIBRACIÓN
Calibrar un dispositivo de color consiste en ajustar su respuesta a la de otro, haciendo que la apariencia visual de los colores que uno genera y el otro muestra sea lo más próxima posible. Para calibrar la gama de colores de varios dispositivos, es necesario modificar los valores de un original para que se ajusten a los del medio al cual va a ser transferido. Para esta tarea se emplean algunos métodos. El COLOR SYNC, es una extensión del sistema operativo; que permite a diferentes programas mostrar los mismos colores.
FILTROS DIGITALES
La aplicación de filtros permite modificar todos o partes de los pixels que componen la imagen (dar más brillo, quitar contraste…)
A través de los filtros reducen considerablemente el rango dinámico de la imagen, si se entiende por éste la cantidad total de valores de luminancia accesibles.; en el caso de incrementar los brillos se perderán tonos oscuros, habitualmente denominados sombras, y en el caso de descrementarlo se eliminan los valores altos de brillo, denominados luces. Efectos semejantes se obtienen en la modificación del contraste de una imagen.
Pero la mayoría de los filtros se basan en matrices de convulsión. Una matriz de convulsión consiste en aplicar, sobre todos o partes de los pixels que componen la imagen, una matriz de transformación; dichas matrices puede afectar a la posición de los pixels, su nivel, su brillo, color, etc. Las matrices de convulsión tienen en cuenta los valores de n puntos de imagen adyacentes a cada píxel en estudio para obtener un nuevo valor del mismo. La matriz se aplica de forma reiterativa sobre los múltiples píxeles de la imagen, comenzando en uno de ellos y a continuación, avanzando a la siguiente posición contigua y repitiendo el proceso de nuevo (sencillito, no? vienen mas cosas, pero es q no se entiendes, echarle un vistazo si queréis, Pág. 147, pero…) El problema que presenta la técnica de filtración, consiste en el gran aumento de ciclos CPU que está tecnología lleva consigo. Una de las soluciones más habitualmente adoptadas se basa en el hecho de que casi todas las operaciones asociadas a la filtración de imágenes o sonidos son básicamente operaciones matriciales, y consiste en el empleo de procesadores especializados en el tratamiento de señales digitales o DSP (digital singal Processing)
ALUGNOS FILTROS USUALES
Los filtros digitales más empleados son:
-Blur: difuminan la imagen, provocan perdida de nitidez.
-Gaussian blur: igual que la anterior pero incorpora una curva de difusión en forma de campana de Gauss.
-Motion blur: imita la pérdida de definición de una imagen en movimiento.
-Pinch: deforma la imagen en forma de estrella de cuatro puntas.
-Spherize: deforma la imagen en forma de esfera.
-Despeckle: detecta altos contrastes en la imagen y los difumina.
-Media: compara el brillo de cada píxel con el de los que le rodean y asigna al píxel en estudio el nivel de brillo prometido.
-Sharpen: mejora la definición de la imagen aumentando la nitidez de la misma al incrementar su contraste.
-Unsharp Mask: solo filtra las altas frecuencias de la imagen, aumentando su constraste sin afectar a las zonas más difuminadas.
-Diffuse: imenta el desenfoque de la cámara fotográfica.
-Facet: agrupa pixels en bloques, aumentando la definición de la imagen.
-Find edges : utiliza el algoritmo sobel para localizar y tratar los bordes o zonas de alto contraste de la imagen.
-Mosaic: agrupa pixels en bloques provocando una pixelacion o efecto mosaico de la misma.
-De interlace: elimina efecto de entrelazado de la señal de vídeo digitalizada.
-Custom filter: son filtros personalizados por el usuario. Los filtros aplicados a imágenes suelen consistir en matrices bidimensionales de transformación, que afectan a cada uno de los píxeles de la imagen, introduciendo en cálculo los valores de luminancia y crominancia de aquellos píxeles adyacentes en un radio determinado.
FORMATOS EN LA IMAGEN DIGITAL:
Existen formatos ideados para almacenar cada uno de los tipos de información existentes. Es importante emplear los denominados formatos estándar de transferencia, creados para poder enviar y compartir información entre diversas aplicaciones. ASCII para el texto, TIFF para imagen digitalizada; EPS diseño vectorial, AIFF para sonido.
FORMATOS GRAFICOS BITMAP
CT o TGA de las tarjetas VISTA.
GIF: distribuir archivos en forma comprimida.
Los formatos bitmap que predominan en la actualidad son :
PICT: basado en el lenguaje de descripción QuickDraw, con tres variantes: PICT1 para blanco y negro. PICT2 para 256 grises o colores, con una variante apta para la definición de imágenes en millones de colores.
TIFF: más estándar. Existe en Mac, Pc, y UNIX.
EPS, en codificación ASCII o binaria, que ocupa la mitad de memoria.
FORMATOS GRÁFICOS SECTORIALES
PICT: propiedad del QuickDraw. Son usuales los archivos PICT con una parte bitmap y otra vectorial. Su utilización principal es la orientada a la creación de transparencias y diapositivas, existiendo los tres mismo subformatos que en bitmap.
EPS: formato usual de grabación de diseño creados bajo lenguaje PostScript; casi todos los programas de creación gráfica operan bajo este lenguaje. Un archivo EPS consta en realidad de dos partes, una parte PICT birmap opcional en uno u ocho bits y otra parte PostScript vectorial.
TEMA 6 : LA IMAGEN EN 3D
Las técnicas de modelado mediante el uso de computadoras, pretenden definir y representar la estructura tridimensional de formas y volúmenes.
Las formas básicas o primitivas, se tratan independientemente, describiendo las interrelaciones que pueden existir entre ellas.
En dos dimensiones el trabajo es sencillo, en tres dimensiones hay que trabajar de forma prospectiva, es decir, planta, alzado y perfil. Existen otros sistemaqs de generación como los de rotación, extrusión etc.
El render es una técnica algorítmica, realizada mediante una serie de pasos matemáticos y lógicos, que permite una descripción gráfica del sólido modelado tan fotorrealista como sea posible. Algoritmos de render según grado de verosimilitud: Flat, Gouraud, Pong, Raytracing, etc.
Las tres grandes fases que componen la creación infográfica son: modelado, scripting y render, de la que depende el realismo de las imágenes producidas.
El render es, un proceso de simulación, las rutinas o algoritmos de render intentan representar imágenes que se asemejen a la realidad. Siendo siempre el punto de arranque el modelo sólido junto con sus especificaciones de iluminación, textura, etc. Y el objetivo final la imagen de calidad casi fotográfica.
Un ejemplo de render bidimensional es el caso del software de animación bidimensional. La computadora debe tener en cuenta los niveles de apilación de los distintos planos gráficos, así como los modos de sobreimpresión: blend, copy, matte, etc.
SISTEMAS DE COORDENADAS.
El sistema de coordenadas es el concepto básico del modelado en 3D y sirve de referencia para dimensionar, orientar y posicionar los objetos. Los ejes se nombran: x y z, son una norma para posicionar un objeto respecto a otro. Se opera según el volumen cúbico tridimensional.
MODELADO A PARTIR DE PRIMITIVAS BÁSICAS
Estas son: el cubo, la esfera, el cono, etc. Una polilínea es una agrupación de líneas, tal que el comienzo de cada vector coincide con el final del anterior.
Modelos matemáticos para la generación de primitivas básicas en 2D: punto, vector, polilínea, polígono, elipse o círculo...
En 3D: facetadas ( cubo, prisma, pirámide...), superficie B_Spline, racional B- Spline, NURBS...
Existen tres elementos de simetría. El cono, figura con un eje de simetría. El cubo, plano de simetría. La esfera, punto de simetría. El punto es el de mayor grado de simetría.
OTROS SISTEMAS DE MODELADO
Modelado por extrusión, rotación, mixto, etc. Sistemas no basados en proyecciones sino en formas de creación topológica, como los sistemas de extrusión.
Otro sistema es el de rotación, crear una esfera como rotación de un cículo, respecto de un eje cualquiera que pase por su centro.
CURVAS GENERALIZADAS DEL ESPACIO
Formas de curvatura fija: elipse y círculos.
Curvatura variable: Splines o B- Splines, que son sistemas para definición de curvas en dos y tres dimensiones de curvatura variable, por lo que pueden adoptar cualquier forma. Lo más usual es el trabajo con Splines cúbicas, equivalentes a las líneas de Bezier.
Curvas 3D generalizadas: Interpolación (Ferguson, Spline cubico), Aproximación
(B- Spline, Bezier)
Transformaciones gráficas: Funcionales ( traslación, rotación, homotecia, reflexión, deformación, interpolación).Relacionales ( fusión, diferencia, intersección)
Las operaciones de reflexión permiten generar imágenes especulares. Las operaciones de traslación son de desplazamiento o movimiento. Las operaciones de rotación afectan a la orientación de los objetos. Las operaciones de deformación son la variación no proporcional en el tamaño del objeto. Se habla de homotecia cuando la deformación es proporcional y no hay perdida de ratio, la figura obtenidas es menor o mayor pero proporcional.
Estas son operaciones que afectan a una sola forma; existen además operaciones relacionales entre objetos como la fusión, dos o más formas se unen para crear una sola; la operación diferencia, intersección, etc. La interpolación o fusión es la creación de formas intermedias entre dos dadas.
MALLAS 3D
La gestión de mallas es otra forma de creación de superficie en tres dimensiones. Se van especifican coordenadas de puntos que van a ser unidos creando una retícula tridimensional.
Una malla es, un conjunto relacional de puntos ordenados de forma tridimensional, de acuerdo a vértices que conforman una superficie 3D. Las mallas pueden ser modeladas mediante el uso de conjuntos fractales de Mandelbrot, Julia, etc.
RENDER 3D
Hay que tener en cuenta a parte del color y forma la iluminación, textura, rugosidad, mapeado de reflexión, perspectiva, etc.
Otro inconveniente es el deterioro que sufre la imagen al redimensionarse, debido al aumento de tamaño de las facetas.
La definición vectorial de los modelos sólidos ha eliminado el recortado de las formas facetadas.
Interacción luz - materia: reflexión, refracción, sombreado, brumosidad, absorción.
Posibilidades: número de focos luminosos variable, intensidad luminosa ajustable, posición de foco móvil, luz blanca y de color...
TIPOS DE ILUMINACIÓN
Luz ambiente: difusa, parece venir de todas direcciones simultáneamente.
Luz direccional: formados por haces de luz paralelos; si proyectan sombras son haces dirigidos de luz.
Luz posicional y cónica: similar a la iluminación de un flexo; genera un haz de luz que se proyecta de forma cónica a partir de un punto dado. El haz de luz no es cónico, se esparce en forma de abanico.
Luz con atenuador: luz que pierde mucha intensidad con la distancia. Útil para simular densidades de aire, humos, profundidad.
Luz puntual: una bombilla, dirige la luz en una dirección preferencial.
PARÁMETROS DE RENDER
Iluminación: posibilidad de ubicación de mas de un foco de luz, especificación de distintos tipos de iluminación ( puntual, ambiente, direccional, cónica)
Materiales: simulación de materiales, metal, madera, plástico, etc. La textura se simula como un mapa bidimensional de superficie, color; la rugosidad como un mapa tridimensional de superficie.
Interacción: reflectividad difusa, materiales rugosos, reflectividad especular, materiales pulidos, y refractividad.
Visualización: posición del punto de vista variable, posibilidades en la orientación del mismo, profundidad de foco definible, simulación de la distancia focal ajustable, etc.
ALGORITMOS DE RENDER
Algoritmos de render: Flat ( se basa en un método de facetación),Gouraud ( interpola), Pong (opera a nivel de píxel), Raytracing(el más sofisticado, simula trayectorias de haces lumínicos) Radiosity ( independiente del punto de vista), etc.
El objetivo matemático de render es, simular digitalmente las interacciones que se dan en la realidad.
La luz, al contactar con la materia, experimenta fenómenos de absorción, reflexión y refracción. En la reflexión, la luz que incide en los objetos es en parte absorbida, en parte reflejada.
Dos tipos de reflexión: Difusa, la luz se ve reflejada en todas las direcciones espaciales simultáneamente, propia de reflexiones rugosas. Especular, propia de superficies metálicas, la luz se ve reflejada en una dirección preferencial, generando el clásico reflejo o spot.
La refracción, se produce cuando la luz, al atravesar el modelo, lo hace con un cambio en el sentido de su propagación. Los fenómenos de refracción son propios demateriales de baja opacidad.
Casi todos los modelos de iluminación necesitan conocer la normal de cada superficie para calcular su color.
El primero, llamado método de Gouraud, efectúa una interpolación a partir de los colores calculados por los vértices del polígono, en los que se conoce la normal. El segundo llamado método de Pong, interpola la normal en el punto en estudio a partir de las normales en los vértices, calculando a continuación el color con la ayuda de esta normal según el modelo de iluminación elegido.
ALGORITMO WIREFRAME O MODELO ALÁMBRICO
Generar una imagen completa de un modelo de alambre de una pieza, en el que sólo se representan las aristas que lo definen, supone tener que hacer miles de operaciones matriciales, una por cada vértice. Los objetos con modelo alámbrico tienen la desventaja de ser ambiguos, el usuario del sistema no puede distinguir el punto de vista desde el cual se ha generado la imagen.
ALGORITMO FLAT
Para resolver la ambigüedad del modelo alámbrico, es necesario emplear un modelo que utilice polígonos al representar facetas en el sólido mejor que aristas, calcular la proyección de los vértices en pantalla y dibujar el interior de los polígonos. En figuras poliédricas, la iluminación de las caras dependerá del ángulo alfa entre la luz incidente I y la normal ( factor de reflectividad Kd), el realismo no es muy bueno debido a la falta de información que suministran las sombras de los propios objetos.
Introducir la iluminación en una escena descrita con facetas es simple utilizando un modelo de iluminación lambertiano para las superficies de los polígonos. Las superficies lambertianas reflejan la luz en todas las direcciones de manera uniforme, lo único que tiene que tener el sistema en cuenta es el ángulo que forma la normal al polígono con el rayo de luz incidente.
Las sombras de los polígonos ayudan al usuario a comprender la imagen, que se percibe como tridimensional. Mejora el realismo de la imagen en 3D ya que se conoce la profundidad a la que se encuentra cada píxel en la pantalla.
La generación de imágenes tridimensionales de este tipo requiere un tiempo que es proporcional al número de polígonos que intervienen en el modelo, uno de los parámetros que caracteriza a un sistema de generación en 3D es el número de polígonos por segundo que es capaz de representar en pantalla.
El problema es que el sistema visual humano emplea los bordes de una imagen para aislar elementos y reconocer volúmenes, es muy sensible a las facetas del modelo. Sí se aumenta el número de polígonos del modelo para suavizar las sombras se ralentiza el proceso de generación de vistas, perdiéndose así la interactividad del sistema.
ALGORITMOS DE GOURAUD Y PONG
La solución al problema de facetación consiste en la interpolación de las sombras dentro de cada polígono, de manera que desaparezcan las discontinuidades debidas a las aristas de las facetas. Henri Gouraud (1971), desarrollo un algoritmo para el suavizado de estas aristas: técnica de sombreado suave o de Gouraud, calcular la iluminación en cada vértice del polígono a partir de las normales, e interpolar el color resultante en el resto del polígono.
Una buena clave visual es la representación de brillos en las superficies, se logra modificando el algoritmo de iluminación lambertiano.
Los trabajos de Gouraud fueron continuados por Bui-Tong Phong (1975). Presentó un modelo mejorado para la simulación de la interacción física luminosa y la interpolación, píxel a píxel, de las contribuciones lumínicas en las facetas. El modelo de iluminación de Phong con la interpolación de Gouraud permite simular materiales metálicos, al poder definirse las características que van a tener las reflexiones especulares.
ALGORITMO RAYTRACING
Desarrollado por Turner Whitted (1980), es lo más parecido a la vida misma; este algoritmo de render calcula las trayectorias de los haces de luz y cuando un haz de luz llega a una superficie, calcula el porcentaje que queda retenido en ella , qué porcentaje queda reflejado y refractado y en qué dirección. Calcular dos nuevos haces de luz: el reflejado y el refractado; y para cada uno de ellos más reflexiones y refracciones, cuyo número es infinito; cuantas más calcule, más real va a ser la imagen.
ALGORITMO RADIOSITY
Las algoritmias basadas en la radiosidad o reflexión difusa, sólo tiene en consideración los fenómenos de reflexión lumínica de tipo difuso obviándola propia de la especular. Con un único cálculo se representa cualquier posible perspectiva del modelo. El inconveniente es que al no observar fenómenos de especularidad, las imágenes no son tan realistas.
MAPEADO DE SUPERFICIES
Mapas de textura:( ayudan a imitar distintos materiales), desarrollado en 1975 por Ed Catmull. Jim Blinn, aplicó la misma técnica a los mapas de rugosidad. Una textura es la aplicación de un mapeado bidimensional sobre una superficie 3D; con está técnica se puede imitar el veteado de la madera etc. Dos sistemas para simular texturas: método bitmap (es el más utilizado) y algoritmo de síntesis.
Mapas de entorno o reflexión: se aplica una imagen 2D sobre la superficie tridimensional de un objeto, con la finalidad de simularla reflexión que el entorno proyecta sobre el sólido. Sólo tienen aplicación en el caso de modelos con superficies de alta reflectividad especular.
Mapas de rugosidad o bumping: simular la rugosidad sobre superficies planas. La rugosidad que se pretende simular es una imagen bidimensional representada en escala de grises, donde los distintos niveles representan el grado de protuberancia para cada punto del sólido que se quiere representar.
OTRAS TÉCNICAS ACCESORIAS
Eliminación de caras ocultas: Hay dos algoritmos para conseguir este objetivo,
B-Tree y Z-Buffer.
El algoritmo B-Tree consiste en ordenar las facetas que comen el modelo, de manera que las primeras que se dibujan queden ocultas por las que se representan después. Exige una ordenación previa de los polígonos.
El Z-Buffer se basa en que al generar la posición de un punto en la pantalla la computadora reserve una zona de memoria especial, llamada Z-Buffer, información relacionada con la profundidad del punto que ocupa en la escena representada. Cuando el ordenador representa un nuevo punto consulta el Z-Buffer del píxel que corresponde en pantalla. Si el valor que ya existe en el píxel es mayor que el que posee el nuevo punto, el sistema asume que este último es el visible y lo sustituye en la memoria del Z- Buffer.
Técnicas de dithering: uno de los problemas es el elevado número de colores necesarios para representar las imágenes. Una solución consiste en emplear un procedimiento de tramado, similar al usado en las publicaciones con fotografías en color, representar imágenes a color con sólo cuatro tintas entremezcladas. Cuando no hay suficientes colores en el sistema se simula el resto; se conoce con el nombre de dithering.
Rutinas de antialiasing: mejora la apariencia de las imágenes, simulando un aumento de definición ficticio. Una vez generada la imagen final, ésta se convierte en un mapa bidimensional de bits sujeto a las imperfecciones impuestas por la resolución del monitor.
Otro sistema más efectivo, es el de efectuar cuatro renders de la imagen con pequeños desplazamientos relativos uno con respecto al otro y crear una imagen final que sea la fusión de las cuatro obtenidas.
TENDENCIAS Y FUTURO
Splines: para modelar superficies curvilíneas de forma libre, de manera que fuesen manipulables. El modo de generarlas es mediante los denominados puntos de control que la configuran.
B-Splines: poseen la particularidad de que el efecto de un punto de control se halla limitado en el espacio a una zona determinada, por lo que su apariencia es fácilmente modelable. Además necesita poca información para su almacenamiento.
Transputers: (hardware), microordenador en un solo chip, conectable a otros similares para su procesamiento en paralelo.
En el aparato de software, han aparecido aproximaciones a lo que será un render fotorrealista: Raytracing, Renderman o Raydiosity.
LA ANIMÁTICA
Animación clásica
Animación; `secuencias de imágenes que, reproducidas a una cadencia adecuada, producirán la sensación de movimiento, que es al fin y al cabo la animación'
Las imágenes sintéticas generadas para cine y televisión requieren una dimensión adicional: el movimiento. El movimiento sería la cuarta dimensión de la realidad, entrando en escena el concepto de animática.
La ilusión de movimiento se genera basándose en el fenómeno de la persistencia retiniana (no estáis ya un poco cansadiiiiiiiitos de la misma mierda repetida hasta la saciedad en cada `nueva' asignatura?...). Para obtener ilusión de movimiento necesitamos que una secuencia esté compuesta, como mínimo, de diez imágenes por segundo; por debajo de esta cifra se pierde la ilusión de movimiento, quedándonos imágenes fijas independientes. Cine 24 imágenes por segundo. TV, 25 (Pal) y 29-30 (NTSC).
La velocidad a la que el objeto se mueve por la pantalla se controla especificando su desplazamiento desde una posición a la siguiente. Por ejemplo, a menor número de imágenes para un movimiento, mayor velocidad. Mediante el ordenador, podemos automatizar buena parte del proceso de producción de animaciones.
*Cámara multiplano; inventada por Walt Disney en 1936, permite fotografiar al mismo tiempo varios planos de células de acetato (láminas transparentes que se superponen para formar la imagen completa), lo que crea un efecto de profundidad en el plano del movimiento que añade una auténtica tercera dimensión a la secuencia.
Animación digital
Para crear movimiento mediante el ordenador, crearemos muchas imágenes fijas y después programaremos la máquina para que calcule los desplazamientos, normalmente mediante una técnica denominada store. Todo el proceso se convierte en una tarea de medición y cálculo.
En la realidad, el movimiento es muy complejo, por lo que para simular con precisión estos movimientos más complicados utilizaremos la técnica rotoscópica. Ésta técnica consiste:
-Con tres cámaras de vídeo se filma el móvil mientras se está desplazando, colocándolas ortogonalmente una respecto de la otra; de esta forma obtenemos las proyecciones del elemento que deseamos representar (planta, alzado y perfil). Éste móvil lleve acoplados señuelos en los puntos clave de articulación. Posteriormente esas cintas de vídeo se digitalizan a intervalos iguales de tiempo, obteniendo posiciones equidistantes, en cuanto al tiempo, de cada uno de estos señuelos (articulaciones).
Animación en tiempo real/animación imagen por imagen:
-tiempo real; para creaciones gráficas sencillas.
-imagen por imagen; para simulaciones (proceso que puede llevar horas).
Suele denominarse animatics, para distinguirlos de los dibujos animados (sabemos que éstos se hacen imagen por imagen) y de las simulaciones, al tipo menos sofisticado de imágenes generadas por ordenador. Los animatics tienes un tratamiento analítico y esquemático. Ejemplo; técnica de morphing (una imagen se convierte en otra, a través de una serie de pasos, como pasar de una cara a otra diferente).
Formatos de la imagen animada
-Scrapbook; consta de varias imágenes en formato PICT de tipo bitmap.
-PICS; evolución más flexible del formato scrapbook.
-Movie; incluido en la arquitectura de sistema Quick Time. Utiliza técnicas de compresión para grabar en un solo archivo información de vídeo, audio y canales auxiliares. La gran ventaja de este sistema es que está soportado en el propio sistema operativo del ordenador.
El personaje animado
La capacidad de expresión y movimiento de un personaje animado es enorme, aunque requiere un gran trabajo y la aplicación de diferentes técnicas para conseguir la pauta de movimiento deseada.
-Inflado y estrechado; son los movimientos más fluídos y exagerados de la animación. El inflado y estrechado ayuda a comunicar a la audiencia la naturaleza y composición de los actores, añade profundidad y realismo a lo que de otra manera serían movimientos rígidos y sin naturalidad. Por ejemplo, para diferenciar entre el bote de un balón y una bala de cañón.
-Anticipación; es el resultado de la más cercana observación del movimiento en el mundo real; un ser vivo, por ejemplo, se encoge antes de saltar o inhala fuertemente aire antes de soplar.
-Acción secundaria; acción de un determinado actor, que ocurre como soporte de otra acción principal que se desarrolla en la pantalla. Estas acciones están subordinadas a la acción principal a la que acompañan. Por ejemplo, movimiento que realiza una cáscara de plátano al provocar la caída del actor principal (acción primaria: actor resbala; acción secundaria: movimiento de la cáscara de plátano).
-Acción directa y acción pose a pose;
La secuencia en la que un actor se mueve a través del escenario de un punto a otro, se crea con el principio de acción directa en mente.
Cuando el actor se desplaza a lo largo de una serie de poses determinadas, entre las cuales queremos que la acción se desarrolle, se está aplicando la acción pose a pose.
-Seguimiento y acción solapada; los actores comienzan y acaban su movimiento no exactamente a la vez que lo hacen otros elementos, por ejemplo, sus ropas, su pelo…
-Slow-in y Show-out; definen el número de fotogramas que se emplean para mostrar una serie de acciones. Por ejemplo, un salto debe ser rápido, por lo que utilizaremos pocos fotogramas desde la posición inicial a la final.
-Trayectorias curvilíneas; el movimiento de los actores funciona mejor cuando está basado en trayectorias curvilíneas (circulares, elípticas… es decir, no lineales). Los movimientos lineales suelen aplicarse a objetos no orgánicos, en principio inanimados.
-Puesta en escena; indica cómo reubica los actores en relación los unos con los otros y en relación , a su vez, con la acción principal desarrollada en la animación. Conceptos de: planificación, movimientos de cámara, ótica, tamaño relativo de los actores…
-Temporización; velocidad a la cual se desarrollan determinadas acciones.
-Exageración; énfasis sobre cualquiera de los atributos del actor o de los movimientos del mismo.
Fases de desarrollo de una secuencia (proceso de creación de una animación)
Fase de diseño
-Grafismo electrónico; fase de creación de los gráficos que se van a animar, tanto 2D como 3D, ya sean de síntesis (creados) o digitalizados. A los grafismos electrónicos en 3D se les denomina modelado sólido.
-Rotulación; en 2D o 3D .
Fase de scripting
Fase en la que se dota a la computadora de toda la información pertinente para ejecutar la secuencia final. Estas órdenes incluyen: posiciones, velocidad, orientaciones, secuencias de rotación, nivel de transparencia… Dos tipos de script:
-Críptico; las pautas de animación se dan según un lenguaje textual (action script, por ejemplo).
-Iconográfico; las mismas posibilidades que el críptico a través de iconos y símbolos indicativos de las distintas acciones. La técnica del keyframe es la más utilizada para definir el script de una animación (fotogramas clave).
Fase de render
Se calcula la visualización final de cada fotograma que compone la secuencia. Esta etapa es más propia de la imagen 3D que de las dos dimensiones. Dos aproximaciones al problema del render tridimensional:
-Aproximado; ideales para realizar pruebas previas al render final porque dan una calidad menor que el render fotorrealista (Flat, Gouraud, Pong…)
-Fotorrealista; (Raytracing y Radiosity) son fotorrealistas. Dan muy buena calidad, pero son de procesamiento lento.
La animación 3D
Cualquier visualización animada de sólidos rígidos incluye:
Para obtener trayectorias de objetos, es necesario trabajar con las herramientas adecuadas. Para ello se construye una poligonal de puntos en el espacio. Estas utilidades permiten realizar las siguientes operaciones:
Para simplificar el proceso de definición de la trayectoria, no es necesario crear una poligonal auxiliar de tantos puntos como fotogramas, basta con definir unos cuantos puntos y el ordenador interpola. Distintos tipos de visualización:
EL SONIDO DIGITAL
El audio digital puede ser tratado en dos grandes vertientes:
-El sonido digitalizado: la computadora actúa de sampler (digitalizador) y editor de audio.
-El sonido de síntesis: mediante interfaz de tipo MIDI a sintetizadores musicales y software de secuenciación.
El sonido es energía, sólo transmisible a través de un medio material. La forma que adquiere esta energía es la de onda sonora. En la naturaleza, los sonidos están formados por un amplio espectro de frecuencias. Los sonidos sintéticos suelen ser tonos puros o mezclas de ellos. Tonos puros; sonidos de una única frecuencia.
Parámetros que determinan la onda sonora
-Amplitud (A); diferencia entre la diferencia de alturas de pico de un máximo y un mínimo de una onda sonora. Se mide en unidades de distancia. Volumen relacionado de forma directamente proporcional a la amplitud de onda (mayor A, aumento de volumen).
.Período (T); tiempo transcurrido entre dos picos en igualdad de fase. Medido en segundos. Sonidos graves T largo, sonidos agudos T cortos.
-Frecuencia (F); nº de picos en igualdad de fase, de una onda, que se suceden en la unidad de tiempo. Se mide en ciclos por segundo (KHz). F altas producen sonidos agudos, F bajas producen sonidos graves.
-Fase (P); indica el punto de inicio de la onda sonora.
-Pitch y ciclo de onda, que son propios del sonido digitalizado, no de la onda sonora como tal:
-Forma de onda; hace referencia a la forma de onda que adquiere el sonido. Tres formas de onda básicas:
Estas son formas de onda puras, pero en la naturaleza habitualmente se producen formas complejas. Luego hay que añadir:
Técnicas de registro
El sonido es una magnitud analógica. Para digitalizar, utilizaremos convertidores A/D o digitalizadores. El proceso de digitalización se hace recogiendo secuencialmente las amplitudes de una onda (muestras). Se entiende por frecuencia de barrido o muestreo el número de muestras sonoras registradas en la unidad de tiempo y suele medirse en ciclos/sg o Hz. Para frecuencias de muestreo bajas obtendremos sonido digital de baja calidad.
Dependiendo de la cantidad de bits utilizados en el registro del sonido obtendremos mayor o menor calidad. Si empleamos 8 bits para el registro, obtendremos una calidad de sonido similar a la de la radio en sistemas AM, produciéndose lo que se denomina ruido de cuantización. Este ruido de cuantización se considera eliminado al registrar con 16 bits o más (HI-FI).
*Aliasing sonoro; fenómeno que se produce a frecuencias bajas de registro (zona de submuestreo), al registrar las frecuencias de audio con valores inferiores al real, deformándose el sonido, sustituyéndose los tonos agudos por otros más graves.
*Clipping; fenómeno que se produce si los niveles de cuantización sonora son inferiores a la amplitud de onda que se va a registrar, produciéndose un desbordamiento de la señal.
Una buena digitalización del sonido consiste en tomar muestras sonoras a intervalos regulares de tiempo. Para evitar fenómenos indeseables y obtener señales de buena calidad debemos:
-Operar a 44 KHz (44000 muestras sonoras por segundo, así es posible registrar frecuencias de audio de hasta 22 KHz- límite de F audible por el ser humano).
-Trabajar con 16 bits de cuantificación (así garantizamos la riqueza tonal).
Transformación de la onda sonora
-Mezcla; el ordenador funciona emulando una mesa de mezclas analógica.
-Variación del volumen sonoro; variación de la amplitud de onda.
-Variación del pitch, si un sonido se registra a 44 KHz y se reproduce sólo a 22 KHz, obtendremos una señal de audio más grave y de doble duración.
-Efectos de eco y reverberación; el eco es un fenómeno generado por la reflexión del sonido al interactuar con medios de diferente densidad, por ejemplo, el rebote y absorción al chocar con una pared. El ordenador simula el eco por adición sucesiva al sonido original de sí mismo.
-Ecualización; mediante la ecualización se divide el rango tonal en varias franjas diferenciadas, permitiendo transformar selectivamente los parámetros. La compresión hace que el sonido suene más agudo, mientras que la expansión produce el efecto contrario.
-Transformada de Fourier; Fast Fourier Transformation (FFT) o transformada rápida de Fourier. No es una transformación del sonido a nivel audible, sino de la forma de representarlo. Es un método matemático que convierte la onda de forma automática y exacta.
Compresión del sonido digital
Mediante el uso de los procesadores de señales digitales (DSP), coprocesadores y chips que liberan al microprocesador central del tratamiento de toda la información, podemos comprimir y descomprimir el sonido en tiempo real.
Sistema de compresión estándar de audio: Audio Interchange File Format (AIFF) o formato de archivo para intercambio de audio. Este formato puede operar con distintas ratios de compresión. Mayor compresión, menor calidad.
Síntesis del sonido: MIDI
El sonido se puede crear mediante el uso de sintetizadores sonoros. Otra vía para la síntesis sonora es el control MIDI de la instrumentación musical digital (Musical Instruments Digital Interface), estándar internacional adoptado en 1982, que permite controlar cualquier tipo de instrumento musical, siempre que disponga del tipo de conexionado necesario. Este sistema supone un lenguaje común, que supone la normalización de los protocolos de comunicación entre los diferentes sistemas que se desea enlazar. A través del cableado (cableado estándar y normalizado) MIDI no retransmiten sonidos, sino órdenes, siendo cada sintetizador el que genere la señal de audio deseada. MIDI es económico, emplea interfaces de baja velocidad de transmisión, permitiendo grabar en tiempo real y tener toda una orquesta a disposición de una sola persona, trabajar en multipista…
Los protocolos de comunicación MIDI son unidireccionales, es decir, las señales viajan en un solo sentido, desde el secuenciador hacia el sistema de síntesis de audio a través de una canalización y conectores normalizados DIN de cinco contactos; las señales de retorno viajan por un cableado paralelo. MIDI reconoce tres tipos de terminales:
Especificaciones de formato
El interfaz MIDI trabaja enviando señales a unos 31'25 Kbaudios (1 Kbaudio=1024 bits, en honor a Émile Baudot, creador del lenguaje Morse).
Cada byte de información transmitido (1byte=8 bits) va precedido por un bit de arranque y seguido por otro de parada, esto es lo que se denomina asincronía, que elimina la necesidad de emplear señales de sincronización del sistema separadas.
Podemos distinguir dos tipos básicos de señales MIDI:
Hardware y software asociados
-Cableado; los cables y conectores empleados son estándares y fáciles de conseguir, constando sólo de cinco polos.
-Transceptores; pequeños módulos externos conectados a cada elemento de la cadena MIDI, que actúan como codificadores de entradas y salidas, al igual que una red de ordenadores.
-Secuenciadores; equivalente al clásico grabador multipista convencional. Puedes ser un módulo más de la cadena o un ordenador provisto de software con múltiples posibilidades. El secuenciador es el encargado de la grabación.
-Sintetizadores; contienen descripciones acerca de cómo suenan determinados instrumentos. Primer sintetizador musical, Mini-Moog.
-Samplers; los samplers contienen digitalizaciones del sonido de los instrumentos reales.
Canales y notas
Los canales midi son el equivalente a las pistas en una grabadora analógica. El trabajo con canales exige disponer de una mezcladora, simulada por el propio software del secuenciador.
Futuro de la tecnología
CD y DAT (Digital Audio Tape)
EL VÍDEO DIGITAL
VÍDEO ANALÓGICO
La codificación de imágenes de video en soportes magnéticos como la cinta de video no fue posible hasta la segunda mitad del S.XX.
Formatos de vídeo
Formatos digitales de grabación de señales de vídeo para magnetoscopio: D1y D2. Los formatos de vídeo analógico: VHS, Umatic, Betacam, etc.
Otros formatos:
El barrido
El barrido que realiza la señal de vídeo en el monitor es similar al sistema que utiliza una impresora láser para imprimir una página. Hay un barrido horizontal y posteriormente un regreso de partida pero una línea más abajo. La imagen de vídeo se barre línea a línea, esa esla causa de que se produzcan fenómenos de flicker.
El flicker se produce sobre todo en sistemas de barrido entrelazados, esa es la otra diferencia entre la señal de vídeo de una computadora y la de un magnetoscopio analógico.
En sistemas entrelazados como PAL, SECAM o NTSC se barren las líneas de televisión impares y luego las pares. Genera un fotograma de imagen pero en dos barridos, cada uno de esos medios fotogramas se denomina cuadro. Un fotogramas está compuesto de dos cuadros , esto implica 25 fotogramas por segundo, puesto que cada fotograma está compuesto de dos cuadros, el par y el impar.
La cinta de vídeo
El registro de señales correspondiente a las informaciones de imagen y sonido está relacionado con dos propiedades físicas de primer orden: la electricidad y el magnetismo.
La cinta magnética es el medio empleado en la grabación para almacenar video, audio y otras informaciones. Consiste en un soporte de poliéster sobre el que se ha depositado una capa de compuestos magnéticos como es el óxido férrico, dióxido de cromo u óxido de cobalto de alta energía. Los anchos de cinta normalizados son de 2 pulgadas, 1 pulgada, ¾ de pulgada para los vídeos profesionales y semiprofesionales y de ½ pulgada para los videógrafos destinados al hogar o aficionado.
Grabación de vídeo
La información de vídeo contenida en un ordenador está asimilada a una matriz bidimensional o tridimensional que contiene la secuencia de bits que identifican el color de cada uno de los pixels de imagen. La computadora convierte esa información contenida en la llamada memoria intermedia de fotogramas o frame buffer en una señal TTL, que es una señal RGB con sincronismos separados.
Codificación: proceso mediante el cual señales separadas se aunan.
Descodificación: proceso contrario a la codificación.
Un fotograma significa 1/25 de segundo en la proyección final, aproximadamente se tarda un segundo para la grabación de cada fotograma, es decir, 25 seg para cada segundo de animación.
VÍDEO DIGITAL: QUICK TIME
Quick time es una de las tecnologías disponibles de desarrollar plenamente el video digital. Se trata de una extensión del sistema operativo. Su principal función es actuar como lenguaje e interfaz para la descripción, grabación y reproducción de todos aquellos tipos de información con evidente relación temporal, como son el video, la animación y el sonido.
Un codec es un archivo que contiene algoritmos de compresión / descompresión, que permite a Quick Time adaptarse a necesidades o recursos hadware específicos.
Las técnicas de compresión empleadas habitualmente son de tipo loosy.
Tres grandes componentes en su arquitectura de sistema:
Sin ningún tipo de hardware añadido Quick Time es capaz de proyectar entre 10 y 20 fotogramas por segundo de vídeo a animación a un tamaño de ¼ de pantalla empleando un motorola 68020 o posterior.
CAPTURA DE VÍDEO ANLÓGICO
Digitalización de video
El digitalizador de vídeo es el componente hardware que permite la conversión analógico/digital de señales de vídeo. Parámetros claves que definen la capacidad de un sistema de digitalización:
El parámetro más importante es la resolución, aspectos:
Ajustes de captura
Importancia de un alto contraste
El brillo es un parámetro que refleja la luminosidad general de una imagen o bien la energía radiante desde la misma.
El contraste es la relación entre las intensidades más luminosas y más oscuras de una misma imagen. Dos niveles:
Eliminación de la señal de ruido
La eliminación de señal de ruido hace que la representación actual de la imagen sea exactamente lo que se ha querido conseguir, mejorando su calidad. Por otra supone que las relaciones de compresión sean mayores, ya que zonas planas de imagen no se verán invadidas por pixels de contenido aleatorio.
Si no existe señal de ruido, se usará un esquema de compresión temporal que haga que fotogramas de video adyacentes, con grandes similitudes, sean consideradas como prácticamente iguales.
La forma de eliminar la señal de ruido se basa en utilizar un material fuente de información de video analógico de muy alta calidad. Una alta calidad en el sistema de digitalización de video y un correcto ajuste de los niveles de blanco y negro favorecen la eliminación de señales de ruido.
ALGORITMOS DE COMPRESIÓN
Un codec es una extensión del sistema, que modifica su métodos de compresión y descompresión para adecuarse a especiales dispositivos de digitalización o bien para la grabación y reproducción de algún tipo especial de información. Distintos codecs ofrecen relaciones de compresión y calidades diferentes en la imagen.
Ancho de banda: cantidad de información que se envía o recibe por unidad de tiempo: kilobytes por segundo o megabytes por minuto, etc.
Ancho de banda de pico: máximo ancho de banda que se puede obtener instantáneamente desde un determinado dispositivo.
Compilación gráfica: fase en la que partiendo de toda información gráfica y sonora se genera el archivo codificado y comprimido para optimizar su velocidad de reproducción.
Parámetros de comprensión:
Velocidad de reproducción: 10-15 fotogramas por segundo.
Algoritmia de compresión: los codecs de video y audio son los mejores para imágenes en movimiento.
Profundidad de color: 16 bits ideal para la máxima calidad de imagen y memoria. 8 bits para secuencias cortas.
Relación de compresión: calidad de imagen y es inversamente proporcional a la memoria ocupada por calidad de imagen y es inversamente proporcional a la memoria ocupada por el archivo final.
Existen dos grandes opciones de compresión:
Compresión espacial
Consiste en comprimir algunos fotogramas aislados. Los algoritmos de compresión son de tipo loosy. Permite disponer de secuencias de video y audio sin ninguna pérdida de calidad y con tiempo de acceso a fotogramas muy rápido.
El MPEG es un sistema estándar ISO muy semejante al JPEG, emplea la transformada discreta de coseno para llevar a cabo la compresión de imágenes aisladas.
Dos tipos de codificadores básicos generalizados:
Compresión temporal
Se basa en una serie de técnicas varias que tienen en cuenta fotogramas adyacentes en la secuencia. Estas técnicas son:
Diferenciación entre fotogramas
Examinar redundancias entre fotogramas adyacentes dentro de una secuencia de video animada.
Codificación entre fotogramas
Técnica similar a la anterior, pero esta puede utilizar varias algoritmias para explotar semejanzas entre fotogramas adyacentes.
Eliminación de fotogramas
Algunos fotogramas son eliminados de cara a poder mantener la sincronización con el audio.
Estimación de movimiento
Se localizan regiones formadas por una determinada cantidad de pixels que son semejantes a regiones en fotogramas anteriores. La información de video dentro de esa región es la misma solo que se ha desplazado de un fotograma a otro.
Compresión de movimiento
Se pueden reproducir secuencias de imágenes que han sido grabadas mediante técnicas de estimación de movimiento, a la hora de descomponer las mismas. Examinar los vectores de movimiento generados anteriormente y desplazar cada uno de los pixels dentro de los bloques contenidos en el fotograma anterior a la posición correcta dentro del fotograma actual en la pantalla.
Tipos de fotogramas
Intraframe: es un fotograma que ha sido comprimido de forma aislada sin necesidad de requerir información de fotogramas adyacentes.
Keyframe: picos de ocupación de memoria a intervalos equidistantes. Su introducción se llevará a cabo cuando la diferencia entre el fotograma actual y su precedente es muy grande.
Deltaframe: es el fotograma que contiene solamente las diferencias entre el fotograma actual que está siendo representado y el que le precede.
Cuando se emplea compresión temporal sin uso alguno de keyframes, la totalidad de la secuencia se verá compuesta por fotogramas de tipo delta o de diferencia. Una secuencia de video convencional se compone tanto de fotogramas de tipo keyframe como deltaframe, el número de fotogramas de cada tipo se estima con relaciones que suelen variar entre 1:1 y 1:15.
Compresores de imagen
El vídeo digitalizado puede ser comprimido mediante compresión software o hardware haciendo uso de microprocesadores de tecnología DSP.
Compresor None
Excelente calidad de imagen, captura en tiempo real y la velocidad de captura dependerá de la velocidad de proceso a disco del sistema.
Compresor Photo
Basado en el algoritmo de compresión JPEG y es capaz de producir la mayor calidad de imagen.
Compresor Graphic
Para la adquisición de video analógico. 256 colores o bien capturando a 24 bits por píxel para una buena imagen en pantalla.
Compresor Animation
Diseñado para imágenes que fueron diseñadas originariamente en formato digital. Carentes de señal de ruido.
Compresor video
Diseñado específicamente para la captura y compresión de video analógico.
Compresores Hardware
Son algoritmos mediante los que se obtiene una elevada calidad de imagen y relación de compresión. JPEG, MPEG, P*64, DVI, etc.
PRINCIPALES PROBLEMAS
Velocidad: el video digital es rápido, pero no tanto; teniendo en cuenta que realiza tareas de lectura de datos, compresión, descompresión y volcado a pantalla o memoria en tiempo real.
Memoria: los formatos d video son autocomprimidos, pero aun así, la memoria ocupada por un archivo de este tipo llega a ser excesiva cuando se habla de secuencias en 24 bits a pantalla completa y con sonido. Las algoritmias de compresión de video propuestas hasta ahora no son capaces de comprimir más allá de entre 5:1 y 50:1.
Artefactos debidos a la compresión
Algunos artefactos visuales indeseables pero comunes en compresión espacial son: blurrines, blockiness, streaking, etc. Son algoritmos de compresión tipo loosy.
Aliasing
Resultado d muestrear una señal a menos de dos veces su frecuencia natural. Se denomina frecuencia Nyquist aquella que se alcanza cuando se muestrea una señal a una frecuencia superior a dos veces la mayor contenida de todas las muestras de esa señal. Pérdida de información.
Decimación
Proceso que permite crear imágenes a una resolución inferior a la del original.
Streaking
Defecto en la imagen debido exclusivamente al ajuste de una compresión espacial excesiva. Defecto similar a la transmisión de un fax (líneas).
Blockiness
Defecto producido por esquemas de compresión tales como MPEG. Ese fenómeno aparece como bloques de pixels que contienen información de imagen de varios fotogramas anteriores en posiciones correspondientes de la imagen.
Blurriness
Producido por la compresión de imágenes en esquemas de compresión como JPEG. La imagen tiende a perder enfoque y algunos importantes detalles de la misma se verán difuminados o simplemente ilegibles.
Pixelización
Apariencia de una imagen que tiene bloques cuadrados de un color constante. Cuanto mayor sea el tamaño del bloque mayor será la pixelización.
Cuantización
Se representa información con una cantidad inferior de bytes de la empleada para la representación original. Se produce cuando una imagen en 24 bits o millones de colores se representa en 8 o 16 bits.
Sincronización audio-vídeo
La sincronización permite mantener la relación o enlace entre el audio y el víde, ello hace que se muestre el fotograma correcto junto con el sonido correspondiente. El entrelazado es una tecnología mediante la cual se combinan flujos de datos linales tipos: audio y video, MIDI y SMPTE…
El desentrelazado es el proceso mediante el cual se lee un flujo entrelazado de información audio-vídeo, de tal forma que ambas pueden ser representadas, en tiempo real, en un monitor y lanzadas a un sistema de amplificador de audio. Este método requiere que el flujo de información sea troceado en pequeñas piezas de información individual y enviadas a cada algoritmo de descompresión.
ALGUNAS TÉCNICAS AUXILIARES
Tablas de apariencia de color
Las CLUT (color lookup tables) son un sistema para definición de los colores contenidos en forma de tabla.
Técnicas de dithering
Es una técnica empleada para poder mostrar una imagen en un monitor que contenga una cantidad de colores inferior a los de la propia imagen. Emplea una clut para indexar los colores.
El método de dither mediante difusión de error permite repartir este error a lo largo de toda la imagen, en lugar de mantenerlo aislado píxel a píxel; ello hace posible obtener una calidad de imagen superior, aunque computacionalmente es más caro en cuanto a tiempo.
Interpolación
Es el proceso de estudiar una señal para crear más datos de lso existentes en la señal original. Usada para redimensionar una imagen de modo que contenga un número de pixels superior al de ala imagen original. Algunos de los algoritmos de interpolación mas usados son el lineal, bicúbica o de vecino más cercano.
Flattening
Proceso mediante el cual todos los datos referentes a una secuencia de audio-vídeo se convierten a un solo archivo.
GENERACIÓN DE SECUENCIAS REPRODUCIBLES
El principal objetivo del vídeo digital es emular las calidades y posibilidades a métodos analógicos como el sistema PAL europeo. PAL es una normativa empleada para la representación de vídeo analógico, la resolución a la que opera es de 768 x 576 líneas de imagen lo cual nos lleva a transmitir 50 campos de imagen por segundo o 25 fotogramas por segundo. El vídeo PAL es entrelazado lo que significa que cada fotograma se compone de dos campos de imagen alternativos o entrelazados.
El vídeo escalable es una técnica que puede emplearse en dos grandes vertientes:
Factores que afectan al rendimiento
Factores de rendimiento
Ancho de banda por requerimiento de sincronización
Durante la reproducción de una secuencia el procesador debe determinar qué piezas de audio y vídeo han de ser leídas y procesadas en un cierto instante de tiempo.
Ancho de banda por rendimiento de un reproductor
Diferentes tipos de CD-ROM tienen diferentes características de rendimiento, ello es debido a la velocidad de rotación de los discos.
Tiempo de latencia por tiempos de búsqueda
Los clips de vídeo deben grabarse en el disco CD minimizando los tiempos de búsqueda, es decir, una vez que le cabezal lector haya sido colocado al comienzo de una secuencia, el resto de la misma puede ser leído de forma lineal. Es recomendable espaciar los keyframes cada 10 o 15 fotogramas.
Velocidad d e reproducción, resolución y descompresión
Es posible utilizar numerosas combinaciones de cada uno de estos tres parámetros, pero hay que tener en cuenta que la combinación de ellos dé lugar a un ancho de banda que entre dentro de lo requerido por la unidad de almacenamiento.
Procesamiento de descomposición de vídeo
Intentar conseguir tiempos de descompresión tan rápidos como sea posible para optimizar la reproducción de la secuencia.
Procesamiento de la salida de vídeo
Cuanto mayor sea la profundidad del bit mayor será la carga de datos en el sistema ya que una mayor cantidad de datos ah de ser movida hacia el sistema de representación o pantalla.
Muestreo de sonido y profundidad de bits
Cuanto mayor sea la frecuencia de muestreo de audio o su profundidad de bits, tanto más datos tendrán que ser cargados y movidos hacia el sistema, los sistemas de audio de baja calidad trabajan a 11 o 22 Hz, los sistemas de alta calidad a 44,1 o 48 Hz.
Procesamiento de la reproducción del sonido
Aunque señales registradas a 11 y 22 Hz son tratadas a velocidades muy distintas en chips de propósito general, hoy en día casi todos los microordenadores contienen un chip específico de sonido que son capaces de tratar ambos tipos de señales con la misma velocidad.
Tiempo de procesamiento por el desentrelazado A/V
Reproducir de forma más sincronizada flujos de datos de audio y video a partir de un medio de almacenamiento requiere el desentrelazado de estos datos. Esto hace que aunque los datos se hayan grabado en forma de paquetes se mantenga la ilusión de secuencia continua de video y sonido.
Factores que afectan a la imagen y al sonido
Optimización de la reproducción
Para mejorar la calidad de la secuencia:
ORGANIZACIÓN DE LA PRODUCCIÓN
Edición multimedia
Con el tiempo el número de soportes capaces de contener información ha ido en aumento. Se da la posibilidad de almacenar elementos como el vídeo, la animación o el sonido. La auténtica revolución viene del nivel de interactividad con que éstos son integrados; esto se consigue mediante el empleo de técnicas hipermedia.
Método de trabajo
Es importante definir una forma de organización para la realización de cualquier producto multimedia. El objetivo final del proceso es la obtención de un producto final que englobe los medios deseados. La consecución del mismo se logra a través de un proceso informatizado, basado en un trabajo cooperativo en red.
Se contratan a profesionales del sector o se subcontrata el desarrollo. La introducción de nuevas tecnologías siempre lleva consigo modificaciones en los procedimientos empleados para desarrollar las tareas de producción.
Existe un alto grado de paralelismo entre la producción editorial y la multimedia. La mayor parte de los grupos editoriales han realizado grandes inversiones en ediciones multimedia. Los principales mercados hacia los que los productos multimedia se dirigen son el educativo, técnico, formación de personal, doméstico y lúdico. Sus canales de distribución son los mismos del libro, música, vídeo y software: librerías, tiendas de discos, venta por catálogo, distribuidores informáticos, grandes superficies.
Fases de un proyecto
Las fases del proceso de edición multimedia no se diferencian en exceso de las de la edición convencional del papel (la editorial). Su principal diferencia radica en el hecho de tener que establecer los adecuados niveles de interfaz de usuario y la interactividad. El objetivo final, al fin y al cabo, es la obtención de un programa de ordenador que englobe todos los medios deseados.
Lo primero que toda empresa interesada en crear productos multimedia se plantea es describir su propia metodología de desarrollo. Los principales objetivos de un método de desarrollo son: establecer una forma de trabajo homogénea, valorar etapas críticas en el proceso, optimizar el flujo de tareas en su lógica secuencia temporal, contener una descripción del método, diagrama de flujo temporal, descripción de tareas en orden cronológico...
Las grandes fases de desarrollo de un producto multimedia son:
- La planificación del proyecto
- Diseño
- Creación
- Integración
- Producción
Es importante señalar la figura del coordinador, básica en este tipo de desarrollos multidisciplinares. Es importante por la muy diferente orientación de cada uno de los medios que hay que integrar y por la especial dificultad que lleva consigo coordinar los diferentes intereses creativos. Requiere un alto nivel de especialización y un elevado componente de desarrollo.
Las fases de desarrollo de un proyecto multimedia pueden realizarse íntegramente mediante medios informáticos. Se ha de tratar acortar el tiempo de desarrollo del proyecto, mejorar la calidad de su contenido y mantener el control creativo, que se dedique más tiempo a la creación de medios que a la programación, disminuir los costos de desarrollo del contenido.
Fase de planificación
El objetivo básico de esta fase es determinar la viabilidad del proyecto desde varios puntos de vista: sus datos técnicos, aportes didácticos, capacidad publicitaria, cálculo de costes y beneficios, recursos que se van a emplear, plazos de entrega, previsión de ventas...
El coordinador expone al resto del equipo los objetivos del proyecto y establece las pautas y criterios necesarios para la elaboración del proyecto. Pone en conocimiento del equipo los distintos medios materiales y humanos de los que se dispondrá. Trata, además, de establecer un horario diario de trabajo con cada uno de los miembros del equipo.
Se han de localizar las obras similares a las que se quieren producir, estudios de mercado, búsqueda de fuentes de información, selección de los medios que se van a emplear (texto, imagen, sonido, vídeo).
Otra tarea importante es la creación de un equipo de proyectos, la definición de la dirección del equipo, y sus niveles de responsabilidad, que queden claramente definidas las tareas de los diferentes miembros del equipo. Posible también la subcontratación de tareas y búsqueda de expertos en desarrollo multimedia, sobre todo para tareas complejas como la programación.
Un grupo de trabajo mínimo ha de estar formado por el coordinador, un diseñador, un animador y montador de vídeo, un compositor y un integrador. Se debe disponer de las herramientas a nivel hardware y software y tener el cuenta el soporte para estampar finalmente el producto.
Se deben primar los parámetros de coste y calidad como objetivos básicos. Suele ser usual la búsqueda de financiación complementaria para el desarrollo del proyecto. Se puede conseguir mediante la colaboración con empresas y la pública (autonómica, estatal o comunitaria). Se distinguen los costes de diseño, creación, compra de material, integración, subcontratación...
Fase de Diseño
El objetivo de esta fase es la creación de los principales nodos. Se trata de crear unos nodos modelo. El diseñador de la aplicación exige la elaboración de un guión previo, un storyboard detallado de las secuencias animadas, para que así el autor pueda definir al animador las pautas de movimiento que ha se seguir.
El diseño de una aplicación informática requiere herramientas gráficas como las de diagramación, que permiten la obtención de diagramas de bloques para representar la aplicación final. El más usual es el flujo.
Fase de creación
Contempla la creación de los originales de texto, imagen, sonido, vídeo, animación...
Fase de integración
Se trata de integrar los nodos acabados. A partir de los nodos modelo obtenidos en la fase de diseño y los originales de texto, imagen, sonido, etc. de los diferentes autores, se integran los nodos finales en el esqueleto de la aplicación.
Fase de producción
Supone la preparación de la información para su replicación final. Se realiza el premastering, la etapa productiva en la que se deben organizar los datos. Su objetivo es construir la estructura lógica de datos que permitirá a las aplicaciones localizar y recuperar datos. Se graba un Cd-rom de prueba, lo que se llama premaster, o se simula el comportamiento de un cd. Existen dos procesos finales de producción: la grabación de cd-rom y la estampación de cd-rom. La creación del master es un proceso industrial mediante el que se obtienen las copias finales en cd-rom.
A continuación se crea la matriz y se desarrollan una serie de tareas encaminadas a dar una adecuada presentación del producto.
Equipo de desarrollo multimedia
Las funciones de un equipo de producción multimedia consisten en la creación de los medios que se van a integrar, la integración de los medios generados y su producción final.
-Creación de medios, captura y edición: Los diseñadores capturan o crean diferentes tipos de medios digitalizando imágenes, vídeo, sonido y texto. Cada miembro del equipo está especializado en la creación de cada tipo de medio, y emplea las herramientas específicas.
-Ensamblaje de medios y scripting: Diseñadores e integradores ensamblan los diferentes medios y le añaden interactividad al desarrollo.
-Preparación final: Proyecto listo para su preparación final. El equipo optimiza los datos para ser alojados en un cd. Se desarrolla un primer premaster y se procede a la creación final del master definitivo, que es enviado para su replicación.
Consideraciones legales
El único requisito para obtener el copyright de un programa de ordenador es que la obra sea original La Ley reconoce la propiedad intelectual del autor sobre la obra original que éste ha creado. No distingue con qué instrumentos el creador elabora sus programas. Se pueden elaborar programas originales a los que la ley reconozca los derechos de autor.
Emplear cualquier lenguaje de programación ha de suponer tener la licencia del mismo, al menos para utilizarlo. La creación de una obra nueva, original, hace surgir inmediatamente un derecho de propiedad intelectual sobre ella al autor de la misma. Si se elabora con un programa del que no se dispone de licencia surgirá la obligación de indemnizar. Si una persona afirma que es autora de un mismo programa ya registrado por otro, deberá comprobar que lo creó antes a la fecha de inscripción anterior. Por ello conviene hacer el registro cuanto antes.
TEMA 13: El futuro multimedia
DOCUMENTACIÓN ELECTRÓNICA.
REALIDAD VIRTUAL.
-Precursor: simulador de vuelo.
-Realidad virtual: generar secuencias 3D de animación interactiva con un feedback sensorial mediante la visión estereoscópica, el uso de data-gloves( guantes), datasuites ( trajes),...Estos dos últimos sustituyen el teclado, al ratón,...
-Primer casco realidad virtual: Ivan Sutherland, 1969.
-La realidad virtual es un sistema multimedia en tres dimensiones.
QUICKTIME VR
- Es la extensión de realidad virtualdel sistema e video digital integrado en QuickTime. Este sistema permite la navegación por un entorno en 3D. Permite que haya más de un punto de vista.
Otra de sus posibilidades es la de definir puntos calientes, hotspots , que sirven de enlace con otros fragmentos de secuencia. Es decir se pueden crear movies interactivos.
AUTOPISTAS DE LA INFORMACIÖN
LAS BBS
COMPUSERVE
- Es la red más ampliamente difundida en la actualidad, a excepción de Internet.b Con la que se puede acceder a una gran cantidad de servicios.
INTERNET
- Redes interconectadas a nivel mundial.
- Origen: 1968. El Departamento de Defensa de los EEUU le encarga a ARPA una infraestructura de comunicaciones capaz de sobrevivir a cualquier desastre natural o bélico.
- 120 países disponen de Internet.
- Usuarios: 30 mill.
- El número de usuarios crece mensualmente un 10%.
FUTURO PLUSCUAMPERFECTO
Descargar
Enviado por: | Wayaba |
Idioma: | castellano |
País: | España |