Información como magnitud física

Física. Teoría de la Información. Magnitudes físicas. Entropía. Cuantificación de la información. Mensajes. Reducción estadística de datos. Codificación de mensajes. Transmisión digital de datos

  • Enviado por: Alex Trier
  • Idioma: castellano
  • País: Chile Chile
  • 39 páginas
publicidad
publicidad

CONCEPTOS DE INFORMACIÓN

LA INFORMACIÓN COMO MAGNITUD FÍSICA

UN APOYO PARA PROFESORES ... Y ESTUDIANTES

Santiago de Chile

Diciembre del 2006

INDICE DE MATERIAS

Presentación 3

El concepto de información 4

.1. Entrando en materia 4

.2. Magnitudes físicas 5

.2.1. Magnitudes extensivas 9

.2.2. Hablemos un poco de la entropía 11

.3. Una magnitud física extensiva : la información 13

.3.1. Mensajes 14

.3.2. Cuantificando la información : la unidad . 14

.3.3. El caso de la certeza 16

.4. La definición de Shannon : H 17

.5. La aditividad de la información 18

.6. Guardando información o archivando datos 19

.6.1. Algunos aspectos técnicos 20

.7. Reduciendo datos 21

.7.1. Reducción estadística de datos 23

.8. Tratamiento de imágenes 24

.9. Tratamiento del sonido 25

.10. Datos híbridos 25

.11. Reducción de datos en la captación 25

.12. Juegos de codificación 26

.12.1. Un ejemplo de codificación 27

.12.2. Mensajes en cristiano 29

.13. Transmisión digital de datos 31

.13.1. El ruido en las comunicaciones 33

Referencias 35

Ensaladas de letras 37

Índice alfabético 38

FIGURA 5 39

Hay seis figuras

PRESENTACIÓN .

Este breve texto pretende dar apoyo a profesores , especialmente de la Enseñanza Media , que quieran introducir conceptos elementales de la teoría de la información en sus clases de física y de matemáticas . Tales conceptos constituyen el soporte de las tecnologías de la información , y han estado entrando con fuerza en las ciencias naturales y sociales .

A pesar de su flacura , este textuelo es ambicioso : ambiciona ser leído , discutido , criticado , mejorado , vilipendiado ... pero , sobre todo , usado .

Es la ocasión de reconocer mi deuda intelectual con el profesor Friedrich Herrmann , de la Universidad de Karlsruhe , R.F.A. , cuyos diversos y creativos escritos y publicaciones han ampliado mi horizonte de profesor .

Agradezco a los profesores Patricio Pérez J. y Carlos Esparza B. por sus comentarios , sugerencias y críticas.

EL CONCEPTO DE INFORMACIÓN

Formalmente el concepto de información puede tratarse en tres planos.

EL PLANO DE LA SINTAXIS

En este plano se trata de la ocurrencia de unidades individuales de información , y de sus interrelaciones.

En este plano se trabaja con la teoría de la información según Shannon , o teoría de las comunicaciones , que ahora algunos autores llaman también teoría clásica de la información . Esta teoría liga los conceptos de información y de probabilidad , dando origen a un concepto cuantitativo de información , una magnitud física extensiva . La teoría se ocupa de la transmisión y del almacenamiento , o archivo , de información .

La teoría de la información de Shannon se mueve en este plano.

EL PLANO DE LA SEMÁNTICA

En este plano se trata de la interpretación o significación de unidades individuales de información , y de sus interrelaciones . La calidad de la información es un concepto que pertenece a este plano . En su acepción más común , el concepto de datos pertenece a este plano .

EL PLANO PRAGMÁTICO

En este plano se trata del efecto o acción de unidades individuales de información , y de sus interrelaciones , concretamente sobre un receptor de información , que adquiere conocimiento .

.1. ENTRANDO EN MATERIA

Por los años veinte del siglo XX se hizo apremiante para los ingenieros de redes telefónicas el problema de optimizar el diseño de tales redes en términos de eficiencia y de eficacia. En particular , se trata de diseñar una red para el envío de una máxima cantidad de mensajes inteligibles en la unidad de tiempo, en presencia de perturbaciones conocidas como ruido .

Este problema exigió el desarrollo de nuevas herramientas conceptuales. Los estudios iniciados por el físico Nyquist y por el ingeniero Hartley culminaron en 1948 con la publicación por el matemático y también ingeniero Shannon de lo que llamó teoría matemática de la comunicación , y que ahora se denomina comúnmente teoría de la información. Lo central de este trabajo enorme, equivalente a la creación de un nuevo capítulo de la ciencia, es la definición de una medida objetiva de cantidad de información. Esta medida presenta características de una magnitud física extensiva no conservada, en el sentido que esta expresión tiene en la termodinámica .

El trabajo de Shannon echa mano de la teoría de probabilidades e introduce conceptos análogos a los que en el siglo XIX fueron inventados para lo que ahora se llama la mecánica estadística. En su trabajo, Shannon se benefició de importantes avances en la teoría de las probabilidades hechas por aquella época por otros científicos e ingenieros, entre quienes destaca el matemático Wiener.

La nueva ciencia de la información no tardó en trascender los marcos de la ingeniería eléctrica y de las matemáticas aplicadas de tal modo que sus conceptos se emplean en forma creciente en las ciencias naturales y sociales , sin olvidar la ciencia económica. Su relación con la física es inmediata.

Este textuelo pretende mostrar los conceptos más elementales de la teoría de la información y la aplicación de estos conceptos al archivo y procesamiento de datos. Son asuntos de gran interés general y de los jóvenes en particular, quienes son los que con más intensidad usan las nuevas tecnologías. Por esta razón el escrito está pensado en primera instancia para ayudar a docentes interesados en presentar y discutir estos temas en una perspectiva general de ciencias . Aspira también a interesar a estudiantes.

Hay material aquí para complementar clases de física y de matemáticas.

Se reconoce que el concepto de información envuelve diversas connotaciones, en varias de las cuales entran aspectos y juicios subjetivos. La información según Shannon es un concepto objetivo puramente cuantitativo. Admitiendo esta limitación digamos también que su amplia utilidad en las ciencias y en la tecnología no se discute .

Como asunto previo hagamos algunas consideraciones sobre las magnitudes físicas.

.2. MAGNITUDES FÍSICAS

Las magnitudes físicas son herramientas conceptuales desarrolladas para la descripción de sistemas y procesos propios de la física. Tal descripción exige dar valores numéricos a estas magnitudes. A su vez, la asignación de valores numéricos implica el establecimiento y la aceptación de un conjunto de definiciones de unidades. Aquí emplearemos solamente el Sistema Internacional de Pesos y Medidas, o simplemente sistema SI , reconocido legalmente en numerosos países. Es un sistema práctico o metro-kilogramo-segundo , de uso común en la vida cotidiana y en la tecnología. Es también extensamente usado en la física, aunque no en forma exclusiva.

El sistema SI reconoce siete unidades fundamentales de referencia. Sólo mencionamos aquí las unidades de

. longitud , el metro , m

. tiempo , el segundo , s

. masa , el kilogramo , kg

. intensidad de corriente eléctrica , el Ampère , A

La asignación de valores numéricos supone el establecimiento de una escala y , en algunos casos , también de un sistema de referencia en el espacio físico de tres dimensiones. Por ejemplo, la longitud puede expresarse mediante un número real no negativo, pero para localizar un punto en el espacio debemos especificar tres números reales que representan longitudes. Otros ejemplos : la masa siempre se mide mediante un número no negativo, pero en el caso del tiempo y de la corriente eléctrica puede ser útil emplear además números negativos.

Se definen muchas otras magnitudes físicas, para medir las cuales se emplean unidades que resultan de combinar las siete unidades de referencia. En no pocos casos estas unidades complementarias han sido bautizadas con nombres propios en homenaje a investigadores o inventores destacados. Así, por ejemplo, la unidad de carga eléctrica, que es el Ampère-segundo o A·s , se denomina Coulomb , C .

Medimos la velocidad en m / s , la aceleración en m / s 2 , la densidad o masa específica en unidades kg / m 3 , la energía en unidades kg · m 2 / s 2 , bautizadas Joule , J . Para la temperatura , T , hay al menos dos escalas de uso común, que miden en grados centígrados o en grados Kelvin , K. También para medir presión se emplean comúnmente diversas escalas.

En muchos casos , pero no siempre, es posible y útil distinguir entre magnitudes físicas de cantidad, que llamamos extensivas , y magnitudes de grado o de intensidad , que llamamos intensivas . Esta distinción se empleó inicialmente en la termodinámica, pero puede extenderse a otros capítulos de la física.

No tenemos problema en reconocer a la temperatura y a la presión , por ejemplo, como cantidades intensivas. Imaginamos intuitivamente que temperatura de alguna manera es intensidad de calor . No está claro por el momento de qué es intensidad la presión , pero evidentemente no es una cantidad. De alguna manera, la velocidad es intensidad de movimiento, aunque es poco frecuente presentarla así.

Por otra parte, es intuitivo que masa, carga eléctrica y energía representan cantidad . También hay una cantidad de movimiento , que ahora preferentemente se denomina con una palabra latina , momentum .

Como ya se dijo , esta distinción entre magnitudes extensivas e intensivas no siempre puede hacerse . Por ejemplo , no está claro que el tiempo pueda clasificarse así , ni la aceleración , para dar sólo dos ejemplos.

CASOS , EJEMPLOS .

Examinaremos algunas propiedades de magnitudes intensivas y extensivas. Veamos algunas situaciones particulares.

Imaginemos dos tazas de agua caliente, idénticas, en reposo, a la misma temperatura. En su conjunto, las dos tazas contendrán cantidad doble de volumen, doble de masa de agua, doble de energía , doble cantidad de calor. Pero la temperatura del conjunto será la misma. Una advertencia : en esta frase la palabra calor viene usada en un sentido intuitivo, no en el sentido que el desarrollo histórico de la física le ha asignado.

Decimos que las magnitudes volumen, masa, cantidad de calor, energía tienen la propiedad aditiva, que es característica de las magnitudes extensivas. La temperatura no tiene esta propiedad.

Consideremos dos conductores eléctricos en forma de esfera, de distintos radios. Si cargamos el conductor mayor con una cierta cantidad de carga eléctrica, con un voltímetro mediremos en este conductor un cierto potencial eléctrico, referido a tierra. Si transferimos la carga eléctrica al conductor menor, mediremos en él un potencial mayor . Podemos interpretar esto así : la intensidad de carga eléctrica ha aumentado.

Ver FIGURA 1

'La Información como magnitud física'

Imaginemos una cierta masa de aire, a una temperatura dada, encerrada en un determinado volumen. Esto determina la presión del aire. La misma masa de aire, encerrada a la misma temperatura en un volumen menor, se encontrará a una presión mayor. La magnitud intensiva presión aparece así relacionada con la magnitud extensiva volumen, es algo así como una intensidad de volumen .

Ver FIGURA 2

'La Información como magnitud física'

Consideremos dos móviles idénticos que se mueven a la misma velocidad, con el mismo vector velocidad . En su conjunto constituyen un nuevo móvil que contiene el doble de masa y el doble de cantidad de movimiento o momentum. Pero su velocidad seguirá siendo la misma. La velocidad es la magnitud intensiva asociada a la magnitud extensiva momentum.

No se asocia comúnmente una magnitud intensiva a la energía.

.2.1. Magnitudes físicas extensivas

Nos vamos a detener en algunas propiedades de estas magnitudes. Ya hemos ilustrado la propiedad aditiva.

Como estamos tratando con cantidades, podemos definir (intensidades de) corriente . Así , caudal es una (intensidad de) corriente de volumen, potencia es una (intensidad de) corriente de energía, fuerza es una (intensidad de) corriente de momentum, flujo puede ser una (intensidad de) corriente de masa, o una (intensidad de) corriente de substancia.....

En algunos casos interesa también definir densidades de corriente, es decir, intensidad de corriente por unidad de área. Así, por ejemplo, la presión, magnitud intensiva, puede interpretarse como una densidad de corriente de momentum, una fuerza en la unidad de área. En ingeniería y en física tiene importancia la densidad de corriente eléctrica, que sin embargo no se ha ganado nombre propio.

Finalmente, es posible y útil definir densidades para las magnitudes extensivas : cantidad por unidad de volumen, o por unidad de superficie, o por unidad de masa...Ya hemos mencionado la densidad o masa por unidad de volumen, agreguemos , por vía de ejemplo, carga eléctrica por unidad de superficie, carga eléctrica por unidad de masa , esta última de interés en el caso del electrón. La energía por unidad de masa es de interés en la comparación de tipos de batería para uso en vehículos.

Llegamos así a una propiedad de fundamental importancia que algunas magnitudes físicas extensivas tienen, y otras no tienen. Se trata de la propiedad de conservación. Hablaremos respectivamente de las magnitudes extensivas del grupo A y de las del grupo B.

Para explicar el concepto de conservación imaginamos una región delimitada del espacio , ® , digamos. Supondremos que ® contiene una cantidad variable (en el tiempo) de la magnitud extensiva X ( t ) . Decimos que X es una magnitud conservada si la variación, en la unidad de tiempo, del contenido de X en ® es exactamente igual a la intensidad neta de corriente de X intercambiada con la región externa, con el resto del mundo , a través de la superficie S que delimita ® .

Ver FIGURA 3

'La Información como magnitud física'

Los ejemplos más conocidos son la energía y la carga eléctrica, pero podemos agregar la masa si no vamos más allá del nivel molecular y atómico de los fenómenos, como también el momentum , definido eso sí en un sistema inercial de referencia , y aún otras magnitudes que no mencionaremos.

Si, en cambio, el contenido de X en ® puede cambiar sin que fluya corriente neta de X entre ® y el resto del mundo, decimos que X es una magnitud física no conservada , y estaríamos en el grupo B .

Ver FIGURA 4

'La Información como magnitud física'

Los ejemplos son aquí tal vez menos conocidos : la cantidad de substancia, ésa que se mide en unidades mol , la entropía, magnitud que aparece en la termodinámica junto con el segundo principio, y la información, magnitud que todavía tiene que serles presentada a ustedes.

Daremos como ejemplo un recipiente cerrado que contiene una solución de sal común , cloruro de sodio , NaCl . Dada la temperatura de la solución existirán en ella determinadas concentraciones de moléculas de sal, de iones de sodio y de iones de cloro . Podemos variar estas concentraciones variando la temperatura, sin sacar o poner substancia alguna : las cantidades de Na Cl , Na + , Cl - , que expresamos individualmente en unidades mol , son magnitudes no conservadas.

Es evidente que la propiedad de conservación / no conservación definida de esta manera sólo tiene sentido para cantidades, es decir, para magnitudes extensivas.

.2.2. Hablemos un poco de la entropía

Esta es una magnitud poco popular en las presentaciones elementales de la termodinámica. No pocas veces se elude mencionarla. Sin embargo, explicar la termodinámica sin la entropía es como explicar la electricidad sin la carga eléctrica, o el movimiento sin el momentum..

El problema tiene que ver con no ser la entropía una magnitud conservada. Pero lo peor es el pecado de origen que se trae la entropía : su definición original, debida al físico Clausius en el siglo XIX, se presenta muy formal, matemática.

Y sin embargo en términos elementales la entropía no es otra cosa que lo que intuitivamente llamaríamos cantidad de calor, como hablamos comúnmente de cantidad de carga eléctrica, de cantidad de movimiento, de cantidad de energía. Los ingenieros químicos no se hacen problema con esto .

Desgraciadamente el desarrollo histórico de la termodinámica dejó reservada la palabra calor para un término de energía, para aquella parte de la energía que se intercambia por efecto de diferencias de temperatura. Este calor debe medirse en unidades Joule . Y con ello quedó armado el lío, para perjuicio de una mejor enseñanza elemental de la física.

Anotemos de paso que en vez de términos de energía tradicionalmente se hablaba de formas de energía .

En los procesos que estudia la termodinámica se intercambia tanto energía como entropía, además se crea, pero nunca se destruye, entropía. El caso en que no se crea entropía es ideal, se habla entonces de proceso reversible. Son los preferidos en las exposiciones elementales de la termodinámica. Es justamente la irreversibilidad observada en los procesos térmicos la que establece la no conservación de la magnitud física entropía. La irreversibilidad caracteriza también los procesos biológicos de deterioro, enfermedad, muerte.

El tango cantó las mañas de la entropía : el mundo fue y será una porquería.

Neruda a su vez explicó así la irreversibilidad :

El obispo levantó la cruz

y en nombre de su dios pequeño

quemó los viejos pergaminos

gastados por el tiempo oscuro.

Y el humo no vuelve del cielo.

Procesos irreversibles son, por ejemplo, la creación de entropía cuando circula corriente eléctrica por conductores, cuando circula una corriente de entropía, cuando difunde azúcar, o sal, en una taza con agua...

La física trabaja también con una definición estadística de la entropía, que es más general que la identificación con cantidad de calor. Se debe especialmente a los trabajos de Boltzmann y de Gibbs hacia fines del siglo XIX . La irreversibilidad se interpreta allí en términos del comportamiento mecánico de enormes conjuntos de moléculas.

Si ponemos gas en un recipiente, este gas termina distribuido uniformemente en el correspondiente volumen. ¿Cómo saben las moléculas de gas que tienen que hacer esto? Pues no lo saben, es un asunto de probabilidades : el estado de distribución uniforme es enormemente más probable que cualquier otro. Por lo demás, ése es el estado más desordenado posible para las moléculas. Asunto de estadística, al fin de cuentas. La mecánica estadística de Boltzmann define la entropía en términos de probabilidades, probabilidades que se refieren , simplificando bastante las cosas , a la forma en que se distribuyen las moléculas.

Ya se verá por qué insistimos en hablar de la entropía.

.3. Una magnitud física extensiva : la información

Estamos llegando ahora a nuestro propósito principal, cual es mostrar la definición de una magnitud que mida cantidad de información. Es la definición desarrollada por profesionales de la comunicación telefónica, quienes necesitaron esta nueva herramienta conceptual. El concepto, la nueva magnitud, se denomina también información de Shannon o información según Shannon en reconocimiento al creador de este nuevo capítulo de la ciencia.

Decimos que hay comunicación cuando fluyen mensajes de una fuente, el emisor, a un receptor o destinatario. El canal de comunicación es el medio material , físico , biofísico , bioquímico , que conduce este flujo. La recepción de un mensaje implica para el receptor una disminución o reducción de incertidumbre, de desconocimiento o de ignorancia respecto de algún determinado asunto. La medida de la cantidad de información que llega al receptor debe expresar cuantitativamente tal reducción. Mientras mayor sea esta reducción tanto mayor será la sorpresa que el mensaje significa para el receptor. Se recibe tanto más información cuanto más inesperado es el mensaje.

Reiteramos aquí que lo que buscamos es una medida de cantidad. Nuestra nueva magnitud nada dirá acerca de una calidad de la información. La apreciación de calidad es asunto subjetivo , pertenece al plano de la semántica . Por ejemplo, el mensaje “esta tarde lloverá con un 80% de probabilidad” tiene un contenido de información susceptible de medición objetiva, pero será apreciado de diferente manera por un escolar, un agricultor, un taxista....

La red de comunicaciones debe transmitir mensajes de manera fidedigna, el uso que de tales mensajes haga el receptor es asunto subjetivo.

La tecnología de las comunicaciones está mucho más diversificada que a mediados del siglo XX , pero no ha sido necesario modificar los planteamientos de Shannon, que son de gran generalidad y rigurosidad.

.3.1. Mensajes

El concepto de mensaje es milenario. Vamos a buscar ejemplos sencillos para llegar a una definición de cantidad de información.

Para empezar , imaginamos el mensaje, cualquier mensaje, como una secuencia de signos independientes. Para la emisión de mensajes se cuenta con un conjunto definido de signos: ejemplos son los sonidos propios de un idioma, o los signos con que ese idioma se escribe, sea mediante un alfabeto, el código Morse, un alfabeto de banderillas... pero para empezar necesitaremos situaciones más simples.

El cara o sello .

Pensemos en una simple moneda. La supondremos buena , sin sesgo : al lanzarla , la mitad de las veces saldrá cara, la otra mitad sello. Decimos que la probabilidad de obtener cara en un lanzamiento es ½ , lo mismo para sello. Los signos cara y sello tienen la misma probabilidad de ocurrencia. Son lo que llamamos probabilidades a priori. Son también independientes: la probabilidad de obtener un signo determinado no depende de los resultados de lanzamientos anteriores.

.3.2. Cuantificando la información : la unidad

Desde el punto de vista de las comunicaciones, al lanzar la moneda estamos enviando mensajes con dos signos. Lanzamos la moneda sin que nuestro compadre, el receptor, mire. El compadre no tiene manera de prever el resultado, su sorpresa será máxima al mirar la moneda. Decimos que en esta situación se transmite al receptor una unidad de información, un bit de información.

La palabra bit es abreviación del inglés binary digit , dígito binario , o también de binary unit , unidad binaria . Binario / a porque empleamos dos signos. Por lo demás, la palabra bit existe en el idioma inglés por derecho propio: significa un poco, una pizca ... y otras cosas más .

Nuestros signos binarios pueden ser muy diversos : cara y sello, y no, blanco y negro, abierto y cerrado, uno (1) y cero (0), dulce y amargo...

La definición de una unidad binaria para (cantidad de) información es particularmente útil porque todo mensaje puede reducirse a una secuencia de preguntas binarias, preguntas de o no. Daremos ejemplos. Ejemplos no son demostraciones...son ejemplos. Desde luego, está claro que el lanzamiento de una moneda es equivalente a una alternativa binaria.

El dado y otras yerbas .

Consideremos lanzamientos de un dado sin sesgo . La probabilidad a priori de obtener cualquiera de las seis caras es la misma , 1/ 6 . También en este caso las probabilidades son independientes . Lanzamos el dado, el compadre no ha mirado y tiene que averiguar el resultado preguntando.

Por ejemplo, y tratando de ser eficiente, podría preguntar i) ¿es par o impar? . En efecto, así tendría él una probabilidad en dos , 1 / 2 , de acertar. Digamos impar, con lo cual el compadre ha obtenido una unidad de información. Ahora pregunta ii) ¿es mayor que 3? Digamos , con lo cual el compadre ha obtenido una segunda unidad de información ... y sabe el resultado. Pero si la respuesta a la pregunta ii) es no, la segunda unidad de información ya no basta para saber el resultado , para tener el mensaje se necesita una tercera pregunta. Examinando otras secuencias posibles de preguntas binarias nos damos cuenta de que el mensaje transmitido por el lanzamiento del dado conlleva o transporta entre dos y tres unidades de información, entre 2 y 3 bit de información. Adelantándonos un poco, son 2,58.. bit .

Una secuencia de preguntas al estilo de ¿es uno? , ¿es dos?, .... sería ineficiente : podríamos llegar a necesitar hasta cinco preguntas para acertar . Estaríamos empezando con una probabilidad de una en seis , 1 / 6 , de acertar...Sólo podríamos acotar el contenido de información entre una y cinco unidades.

Actualmente (2006) en Chile circulan cinco diferentes billetes de banco, de diferente valor y color. Supongamos que tenemos cinco billetes diferentes y le pedimos al compadre que, sin que miremos, saque uno al azar y lo oculte. ¿Cuántas preguntas binarias necesitaremos para averiguar el valor del billete? Pues entre dos y tres. En este caso, el valor, o el color, del billete transportan entre dos y tres unidades de información. Adelantándonos nuevamente, son 2,32.. bits.

Hay un poco de trampa aquí: si consideramos todos los billetes en circulación, las probabilidades de ocurrencia de los valores seguramente no son las mismas: debe haber mucho más billetes de 1000 que de 20000 pesos. Ya discutiremos este asunto: veremos que lo de 2,32.. bit es un valor máximo. La otra : para dificultar falsificaciones, los billetes llevan mucha información adicional al valor y al color.

Supongamos ahora que tenemos una baraja de 52 naipes y le pedimos al compadre que saque un naipe, a nuestras espaldas. Todos los naipes tienen la misma probabilidad de ser sacados: 1 / 52 . ¿Cuántas preguntas binarias necesitaremos para averiguar de cual naipe se trata? Resulta que son cinco como mínimo, pero pueden ser seis. Así que el naipe transporta, por así decirlo, entre 5 y 6 bit de información. Adelantándonos, son aproximadamente 5,70 bit .

En un sorteo del loto hay 3 200 000 combinaciones posibles, el número ganador representa una alternativa entre esas tres millones y tanto de alternativas de supuestamente igual probabilidad . Si tomamos el resultado del sorteo como un mensaje, el número ganador transporta aproximadamente 21,61 bit de información. Más interesantes, claro, son los tal vez miles de millones de pesos del premio...

¿Qué ocurre si las alternativas no son de igual probabilidad? ¿Si las monedas, los dados, los sorteos, están cargados ? ¿Si hay trampa en la selección del naipe? ¿Si elegimos el billete al azar entre todos los billetes en circulación, y no sólo de algún montoncito predeterminado? Lo que ocurre entonces es que ya no nos encontramos a priori en una situación de máxima incertidumbre, de máxima sorpresa. Si sabemos que el dado está cargado , no nos sorprenderá que alguna cara aparezca con mayor frecuencia que otra u otras. El valor o contenido de información de algún resultado o alternativa será entonces menor que para el caso de igual probabilidad, que podríamos llamar el caso de neutralidad. Este último debe ser el caso de máximo contenido de información del mensaje, del resultado. Veremos que la (cantidad de) información inventada por Shannon responde también a esta situación.

Tal vez no sea inoportuna aquí una referencia a los trucos de los magos . Muchos trucos exitosos de magia consisten en que el mago , mientras distrae la atención del público , efectúa manipulaciones subrepticias que alteran las probabilidades de ocurrencia de sucesos o eventos esperados por el público , con la consiguiente sorpresa .

.3.3. El caso de la certeza

Por otra parte, está claro que si tenemos certeza acerca de la respuesta a una pregunta binaria, esa respuesta no nos proporciona información alguna : no aprendemos nada nuevo, no hay sorpresa, nuestra ignorancia no disminuye...La certeza implica, en este caso, que una de las alternativas tiene probabilidad 1, la otra, probabilidad cero. Para el caso del dado, una cara aparecerá con probabilidad 1, para las otras las probabilidades son cero. Y así para los otros ejemplos que hemos examinado.

Hay aún otro requisito que debe cumplir la nueva magnitud (cantidad de) información. Lo estudiaremos usando el lanzamiento de la moneda. Supongamos que lanzamos dos monedas, deberíamos obtener dos unidades de información, dos bit . Ahora bien, la probabilidad de obtener un resultado cualquiera, cara-sello (digamos), es el producto de la probabilidad de obtener cara en la moneda “1” y de la probabilidad de obtener sello en la moneda “2”. De tal manera que un producto de probabilidades da origen a una suma de unidades de información. Nuestra definición de cantidad de información debe tener la propiedad aditiva. Sabemos cuál es la función que nos hace este milagro : es la función logaritmo. Entonces, la definición de (cantidad de) información deberá depender de probabilidades y de logaritmos de probabilidades.

En principio, da igual cómo escojamos la base de nuestros logaritmos. Ya conocemos los logaritmos de base 10 y los logaritmos naturales. Podemos obtenerlos con nuestra calculadora de bolsillo. Pero resulta conveniente usar logaritmos de base 2. Veamos nuestra notación. Sea N = 2 x , entonces escribimos x = logaritmo de N en base 2 por comodidad así:

x = log 2 N

Obviamente log 2 2 = 1

Podemos obtener estos logaritmos con nuestra calculadora , observando que log 2 N es = logaritmo decimal de N dividido por logaritmo decimal de 2 .

.4. LA DEFINICIÓN DE SHANNON : H

Ahora veamos cómo según Shannon se define una cantidad de información. La situación que se plantea es la de un conjunto de N signos o alternativas, cuyas probabilidades de ocurrencia son p 1 , p 2 , ...... , p N , respectivamente . Según Shannon se calcula el contenido de información, por signo o alternativa , como promedio ponderado:

H = - " i p i log 2 p i bit

donde la suma es sobre i = 1 , 2 , ....N , el número de signos disponibles .

En la terminología de Shannon , y de Wiener , H es una medida de entropía , o de incertidumbre. Es de la naturaleza de una estimación estadística , el promedio de la cantidad de información. El signo “"“ hace que H sea positiva, cuando no nula.

El caso de certeza, p j = 1 , resto de las p = 0 , nos da H = 0 , como esperamos. Para ver esto necesitamos comprobar que “cero · log 2 cero” = cero . Escribamos [ p log 2 p ] como log 2 p p y observemos que cuando p tiende a cero , p p tiende a 1 , y el logaritmo de 1 es cero . También podemos ver numéricamente que cuando p tiende a cero, [p log 2 p] tiende a cero , aunque algo más lentamente.

En el caso de iguales probabilidades, o caso neutro, tendremos p = 1 / N y

H = " N ( 1 / N ) log 2 ( 1 / N ) bit

= + log 2 N bit

que resulta ser, aunque no lo demostramos, el valor máximo de la función H.

Históricamente éste fue el primer concepto de una cantidad de información , llamado por el ingeniero Hartley capacidad de información , en un contexto de transmisión de información .

Para el caso de la pregunta binaria, N = 2 , el lanzamiento del dado bueno, tenemos

H = 1 bit

Para obtener esto con logaritmos de otra base habría que introducir una constante numérica adecuada en la definición de H .

.5. LA ADITIVIDAD DE LA INFORMACIÓN

Verifiquemos ahora que la definición de H cumple con la propiedad aditiva. Para ello consideramos dos mensajes simultáneos, a , b transmitidos respectivamente por signos representados por “i” y “j” . Conocemos las expresiones para H a y para H b , calcularemos ahora H a b . Las probabilidades correspondientes son p ( i ) , p ( j ) , p( i , j ) = p ( i ) p ( j ) , la probabilidad para que se den simultáneamente los resultados “i” , “j” .

Recordemos aquí que las sumas  i p ( i ) y  j p ( j ) son , separadamente , iguales a 1 , por la definición misma de las probabilidades.

Entonces :

H a b = " " i , j p ( i , j ) log 2 p ( i , j ) bit

= "" i , j p ( i ) p ( j ) { log 2 p ( i ) + log 2 p ( j ) }

= "" j p ( j ) " i { p ( i ) log 2 p ( i ) + p ( i ) log 2 p ( j ) }

= "" j p ( j ) { " H a + log 2 p ( j ) " i p ( i ) }

= " j p ( j ) H a " " j p ( j ) log 2 p ( j )

= H a + H b bit

con lo que se ha comprobado la propiedad aditiva para la magnitud H . Esto transparenta la necesidad de definir cantidad de información en términos de logaritmos.

El razonamiento es análogo al que siguió Boltzmann en el siglo XIX para llegar a una definición estadística de la entropía .

Para el caso de los dados sin sesgo lanzados simultáneamente resulta

H a = H b = " 6 · ( 1 / 6 ) · log 2 ( 1 / 6 ) = log 2 6 = 2,58.. bit

de modo que H a b resulta ser = 5,17 bit

Ahora , con dos lanzamientos simultáneos de dados podemos dar 6 · 6 = 36 mensajes y observamos que log 2 36 = 5,17 . Se ve que todo encaja .

Evidentemente podemos definir una intensidad de corriente de información en términos de número de mensajes en cada segundo, o de bit / segundo , bit / s . La magnitud H tiene , pues , características de una magnitud extensiva.

Como en el caso de la energía , no se asocia con la magnitud extensiva H alguna magnitud intensiva en particular .

Hemos supuesto siempre que las probabilidades de ocurrencia de los signos son independientes. No es , por cierto , el caso más general . No sería verdad , p.ej. , para un mensaje escrito en cualquier idioma. Intuitivamente nos damos cuenta de que el valor de H disminuirá si las probabilidades no son independientes , pero éste es un tema que va más allá de las intenciones de este textuelo.

Nótese que con posterioridad al trabajo de Shannon se han propuesto otros tratamientos matemáticos de la información , en particular los de Kolmogorov , de Chaitin y de Solomonoff .

.6. GUARDANDO INFORMACIÓN O ARCHIVANDO DATOS

Empezaremos a emplear el término datos como sinónimo de información .

Aunque estamos acostumbrados a asociar los conceptos de archivo , archivero , file , memoria a los computadores , está claro que el tema es milenario.

Un papiro , un pergamino , una hoja de papel , una piedra , una roca , una cuerda pueden servir , han servido , como memoria , en el sentido tecnológico del término. Los archivos se escriben , se perforan , se graban , se funden , se trenzan según el objeto físico empleado como memoria .

Es interesante anotar que los pergaminos , por su escasez , han sido empleados como lo que ahora llamamos memorias de leer y escribir , RW , dando origen a los llamados palimpsestos .

La invención de la imprenta , y después de la fotografía y del cine , ha empezado a proporcionar a la humanidad medios prácticamente inagotables de memoria.

Está claro que las copias de un archivo o file , diez , mil , un millón de ellas , contienen la misma información que el archivo original . No hay multiplicación de la información según Shannon cuando se copia información .

Se ha visto que el archivo de datos supone un sustrato material . Este sustrato puede ser físico , biofísico , bioquímico . El acto de escribir en una memoria , y de borrar , emplea energía . La información es de naturaleza física , information is physical , según insistía el físico Landauer , quien en 1961 calculó por primera vez que el acto de borrar un bit de información de un archivo implica como mínimo un aumento bien determinado de la entropía ,  S = k ln 2 Joule / Kelvin , donde k es la constante universal de Boltzmann y ln representa un logaritmo natural o base e . Hasta ese momento muchos veían a la teoría de la información como puras matemáticas , una rama de las matemáticas aplicadas .

Y sin embargo , ya en el siglo XIX Maxwell había señalado vínculos entre entropía física e información , en la acepción de conocimiento . En 1929 el físico y biofísico Szilard ( sí , es el mismo de la bomba atómica ) inventó una variante de los argumentos de Maxwell para establecer una relación cuantitativa entre entropía física e información .

Profesora , profesor : la información es de naturaleza física.

.6.1. ALGUNOS ASPECTOS TÉCNICOS

En la actualidad (2006) , las tecnologías de la información emplean principalmente tres categorías de sistemas físicos para archivar información , o datos : sistemas electrónicos , sistemas ópticos y magnetoópticos , y sistemas magnéticos.

En los sistemas electrónicos contabilizamos las llamadas memorias flash , o memorias USB , o pendrives.

Los sistemas ópticos y magnetoópticos incluyen los llamados CD , en sus variantes, y los llamados DVD , en sus variantes . CD por disco compacto , DVD por disco digital de video o disco digital versátil.

Los sistemas ópticos operan con diodos láseres para escribir o grabar , leer , borrar , regrabar . La tecnología CD emplea láseres de 780 nm de longitud de onda , es luz invisible , en el infrarrojo cercano . La tecnología DVD emplea láseres de 650 o de 635 nm de longitud de onda , se trata de un color rojo oscuro , visible con alguna dificultad.

Mientras más corta es la longitud de onda , mayor es la intensidad de corriente de información , los bit / s , que puede transportar la luz , y también es más fino el haz láser que puede obtenerse para la escritura . La densidad de escritura de información está limitada por el fenómeno conocido como difracción en óptica física.

Actualmente (2006) están entrando al mercado sistemas ópticos de archivo y reproducción de datos que emplean láseres de longitud de onda de 405 nm , son láseres azul violeta . Hay dos sistemas en competencia comercial , designados Blu-ray y HDDVD , respectivamente . En la fabricación de estos láseres se ha producido un importante cuello de botella , lo que retrasa aún más la diseminación de esta nueva tecnología .

En las tecnologías DVD , los cabezales de lectura y escritura de información portan dos o tres láseres .

Los sistemas magnéticos recurren a diversos materiales y técnicas . Se emplean partículas magnéticas del tamaño de ~ un micrón . Las ferritas son óxidos tales como  - Fe 2 O 3 , Cr O 2 , Ba Fe 12 O 19 . Las ferritas se emplean en las cintas magnéticas , hechas con poliéster , por ejemplo mylar , de ~ 0,025 mm , sobre el que se extiende la ferrita previamente dispersa en un solvente y un ligante . También se emplean en las bandas magnéticas de tarjetas de crédito , o similares.

En una tecnología avanzada de discos duros se emplea la deposición al vacío de películas muy delgadas , por ejemplo 0,05 micrones , de compuestos tales como CoCr o CoNi sobre sustrato de aluminio .

En la escritura o registro magnético de información se pueden alcanzar densidades de ~ 1 gigabit / cm 2 , y superiores .

Los cabezales magnéticos de escritura y de lectura son electroimanes que emplean tanto materiales magnéticos blandos , por ejemplo el permalloy Ni 78 Fe 22 , como ferritas en combinación con SiO 2 . También se ha empezado a emplear deposición de películas delgadas sobre permalloy . Los cabezales magnéticos son más ligeros , menos masivos , que los cabezales ópticos , lo que permite un acceso más rápido a la información archivada .

Otras tecnologías usan la propiedad magnetoresistiva de los materiales , es decir , la dependencia de la resistencia eléctrica del campo magnético presente .

.7. REDUCIENDO DATOS

Usamos aquí la palabra datos en el sentido de información . Consideremos una situación en que un computador ejecuta cálculos . Recibe datos y entrega otros datos . Distinguimos esto de una codificación , pues no se trata de que el contenido de información de los datos de salida sea el mismo que el de los datos de entrada.

Examinemos un ejemplo .

Tenemos un programa para calcular promedios de notas . Sólo para simplificar supondremos que tanto las notas como el promedio se dan como números enteros , se redondean a enteros . Hay 40 notas que van de 1 a 7 . Asignamos a cada nota un contenido o valor de información de l2g 7 = 2,8... bit , de modo que al ingresar todas las notas ingresamos 112,29... bit. Echamos a correr el programa que nos dará como promedio un número entre 1 y 7 , con un contenido estimado de 2,8... bit . Esto pone de manifiesto que ha habido reducción de datos .

Hicimos esto para ilustrar la idea : obviamente las diversas notas no tienen la misma probabilidad de ocurrencia y el contenido o valor medio de información de cada nota es inferior a los 2,8... bit . Lo que no altera nuestra conclusión.

Es como para sorprenderse : el computador escupe menos información que la que traga . Pero es evidente que si le cuento el promedio de notas al director , éste recibe menos información que la profesora jefe del curso , a quien le di la lista de las notas.

Así que usamos el computador para procesar datos cuando nos sobran datos , no cuando nos faltan.

Ahora , sobre este concepto de reducción de datos habría paño que cortar.

Veamos el siguiente caso :

Usted tiene una planilla eléctronica con datos A1 - A100 , B1 - B100 . Para fijar las ideas , los datos vienen como números positivos de dos dígitos. Ahora usted define C1 = A1 + B1 , entra y después copia hasta C100 . Ahora usted tiene un montón de números nuevos . La pregunta es ¿ tiene usted más información que antes ? ¿ menos ? ¿ la misma ? Usted tiene la misma información , los números C no son realmente nuevos , son una representación distinta de A + B , están totalmente determinados por la definición , no hay incertidumbre , no hay sorpresa . Tampoco ha habido una reducción de datos .

Ahora , si usted mete mal el dedo y borra las columnas A y B sí que pierde información . Si tiene usted un número C14 , digamos , que dice 18 , usted ya no sabe si ese 18 era 11 + 7 , u 8 + 10 , o cualquiera de las alternativas . Ahora sí ha habido reducción de datos.

Aún otro caso : usted tiene un programa de computación para listar consecutivamente los números primos , echa a andar el programa , echa a andar la impresora . Al día siguiente llega su señora indignada porque el comedor se le llena de papel impreso , y usted para la impresora . Ahora usted tiene una larguísima lista de números . ¿ Tiene usted por eso más información ? No la tiene : la secuencia que usted estaba imprimiendo está totalmente determinada por el programa de computación , no hay incertidumbre , no hay sorpresa . La lista de números primos contiene nula información .

.7.1. Reducción estadística de datos

Supongamos que usted tiene una serie de datos pareados de temperatura ambiente , en grados centígrados , y de presión atmosférica , en hectopascales .

Representamos estos datos en la FIGURA 5 anexa .

Como los datos no están desparramados por todo el gráfico y parecen seguir cierto orden sospechamos astutamente que existe en este caso una correlación estadística entre temperatura ambiente y presión atmosférica . Esta correlación podría , o no , originarse en una relación causal , en el sentido físico , entre ambas magnitudes.

Se acostumbra en semejante caso hacer una regresión estadística de una variable sobre otra , también llamada ajuste por mínimos cuadrados . Vamos a dar por sabido este método , que viene programado en muchas calculadoras , método que nos da la ecuación de regresión :

presión = 998,4 + 0,493 · temperatura hPa

El intercepto a = 998,4 hPa

La pendiente b = 0,493 hPa / o C

Podemos ahora usar la fórmula encontrada para interpolar valores en el intervalo

10 " temperatura " 40 o C

También hay gente que la usa para extrapolar ....

Esto se puede hacer con calculadoras de bolsillo que vengan con el programa regresión lineal . Para los copuchentos : el coeficiente de correlación resultó ser 0,99 , donde hemos redondeado .

Ahora hemos reducido nuestra información inicial , siete pares de datos , a dos números , la pendiente y la intersección . Estos dos números no permiten recuperar la información original , ha habido reducción irreversible de datos , pérdida de datos . Por otra parte , la fórmula permite generar datos por interpolación en el intervalo de temperaturas señalado , a voluntad . Estos nuevos números no nos traen información adicional , sin embargo : toda la información reducida está contenida en la ecuación de regresión .

Pero el asunto es más complicado , pues la aplicación del método supone incorporar información que no está contenida en los datos originales . En efecto , se introducen hipótesis sobre las propiedades estadísticas de los datos .

.8. Tratamiento de imágenes

Una aplicación muy importante de esta idea de reducción de datos está en la transmisión y reproducción de imágenes , puesto que aquí hay que manejar enormes corrientes de información. En la industria hablan de codificación en vez de reducción .

Consideremos una pantalla de imagen VGA de 640 · 480 elementos o píxeles . Cada elemento presenta tres colores en , digamos , 16348 = 2 14 gradaciones . La cantidad máxima de información , o capacidad de información , por imagen de pantalla es de 640 · 480 · 3 · 14 = 12902400 bit . Si se trata de imágenes de TV ellas se renuevan 25 veces en el segundo lo que nos da una capacidad de corriente de información de 3,2256 · 10 8 bit / s equivalente a 40,32 · 10 6 byte / s ~ 39 Mbyte / s . Las corrientes efectivas de información son excesivamente altas y se ha generalizado por ello la práctica de la reducción de datos en la transmisión de imágenes , por distintos procedimientos , algoritmos , y normas . Los formatos jpeg y jpg resultan de procesos propiamente de reducción de datos . En cambio , los formatos tiff y gif resultan de procesos de compresión , también llamados por algunos autores procesos de reducción sin pérdidas de datos. En este sería propio también hablar de codificación .

Los procesos de manejo de datos , o algoritmos , vienen designados como BITMAP , GIF y JPEG para imágenes y MPEG para video.

En los formatos jpeg o jpg se alcanzan reducciones a menos del 10 % de la cantidad original de datos. El formato tiff se emplea preferentemente en trabajos profesionales de fotografía o creación de imágenes , en los que aún se prefieren los programas Mac a los programas Windows o Linux . El formato gif opera sólo con 256 colores , es decir , desde la partida operamos con menos información.

El formato Ogg (sin traducción) , extensión .ogg , permite interpolar datos de audio y de video , encapsula datos comprimidos o sin comprimir , su uso no está sujeto a patentes .

Es tal vez interesante anotar que la percepción óptica humana presenta mayor resolución , distingue mejor, variaciones de luminosidad que variaciones de color . Es muy sensible también a las variaciones en cantos y delimitaciones. Estas particularidades se aprovechan en los procesos de reducción de datos para manejo de imágenes.

Un truco básico : hay píxeles que no varían a lo largo de un cierto número de imágenes , entonces el píxel se registra sólo una vez pero se anota el número de repeticiones.

.9. Tratamiento del sonido

También en el tratamiento del sonido , del audio , se emplean procedimientos de reducción de datos , que han dado origen al formato altamente popular conocido como MP3 y por cierto también a otros. El formato MP3 se describe muchas veces como un formato de compresión pero es propiamente un formato de reducción de datos , hay pérdida de información . En la industria se habla también aquí de codificación .

MP3 permite corrientes desde 8 kbit / s a 320 kbit / s .

Partamos recordando que un adulto de oído normal puede escuchar sonidos de aproximadamente 20 Hz a 18 kHz , aunque alta fidelidad se entiende hasta los 20 kHz . Por lo tanto , en la transmisión y reproducción de sonido se puede cortar lo que queda fuera de este intervalo de frecuencias y aún recibir un sonido reconocido como de calidad por la gran mayoría de los oyentes. Pero esto es sólo el comienzo de los procesos de reducción.

Mencionamos aún los así llamados efectos de enmascaramiento , útiles para la reducción : hay sonidos que el oyente no percibe en forma consciente , los que entonces se excluyen .

Empieza a verse (2006) un creciente uso del formato MP4 para audio y video, en sus variantes.

.10. Datos híbridos

Para la presentación de datos híbridos , texto e imágenes , se usa extensamente el formato PDF , Portable Document Format , que es una marca registrada . Se puede presentar en los sistemas operativos Windows , Unix , Linux , Mac .

.11. Reducción de datos en la captación

Es evidente que en la captación de sonido mediante micrófonos , o en la captación de imágenes mediante fotografía y video , se produce siempre una reducción de información . Hay limitaciones inherentes a los sensores empleados . Pero incluso en la audición y en la visión directas operan procesos de reducción de datos , que tienen una base fisiológica . No percibimos frecuencias propias de lo que llamamos ultrasonido , lo llamamos así justamente porque no lo percibimos. Por otra parte , nuestra visión está restringida a un cierto dominio de frecuencias , o de longitudes de onda : infrarrojo y ultravioleta son designaciones que describen nuestras limitaciones para ver.

Y hay aún otras formas en que se manifiesta la reducción de datos que operan nuestros sentidos . Recordemos solamente que el Greco no veía lo mismo que Vermeer....

.12. JUEGOS DE CODIFICACIÓN

Un código o clave es siempre una representación de un signo o secuencia de signos . La codificación puede tener objetivos diversos : hacer más eficiente o más seguro un archivo de información , o la transmisión de información.

Cuando prima el requerimiento de seguridad en el sentido de excluir a terceros de la lectura de los mensajes se habla también de encriptación . Pero la seguridad puede también entenderse en otro sentido : aseguramiento de la recepción de la información.

La historia de los duelos entre encriptadores y decriptadores ha dado origen a muchas aventuras tanto reales como de novela.

Un ejemplo de decodificación : la lectura e interpretación de registros dejados por civilizaciones pretéritas .

Con la disponibilidad de la mensajería por teléfono celular los juegos de codificación han llegado a ser dominio de los ciudadanos en la calle. No sólo se intercambian mensajes entre personas, se envían también mensajes destinados al público por vía de canales de televisión. Aquí la codificación obedece a la necesidad de ahorrar tiempo y , por lo tanto , dinero. Solamente se requiere inteligibilidad.

Lo que se aprecia es que estas codificaciones tienden a eliminar las mayúsculas , muchas vocales , la mayoría de los signos de puntuación, y las letras “h” y “ll” . Evidentemente , en las comunicaciones habituales entre dos personas la codificación puede ser más económica aún .

Volviendo a una perspectiva más general , al emitir un mensaje podemos tener dos requerimientos : la inteligibilidad , que se entienda el mensaje , y la fidelidad , que se reciba la información en forma completa , sin errores , sin distorsiones. Son los requerimientos contrastantes de conversar por teléfono y de escuchar música.

Códigos más respetables , por así decirlo , son el código Morse internacional , el sistema de señalización con banderillas de semáforo , los códigos de pendones que se izan en secuencia vertical, usados en la comunicación marina.

El código Morse internacional tiene 26 señales para letras, diez para los dígitos de 1 a 0 , y nueve para signos de puntuación . No tiene las letras Ñ , LL , CH . Cada una de las señales está formada por puntos , trazas e intervalos , reservando las señales más cortas para las letras más frecuentes . La frecuencia que se tomó es la del idioma inglés : e , t , a , o .... decreciendo. Tenemos 26 + 10 + 9 = 45 señales y el promedio máximo , no ponderado , de información por señal sería H máx = lgd 45 = 5,49... bit

El código de banderillas de semáforo es a dos manos usando dos banderillas y un total de 29 posiciones . Hay una señal para decir “número” , después de la cual A vale “ 1 “ , D vale “ 4 “ ...... El cero se hace con la K , no con la J . Hay una señal par anular y una señal para error.

Esto puede encontrarse en el sitio ...themeter.net / semaphore ...

El código con pendones , para izar en secuencia vertical , tiene sus complicaciones , cada embarcación lleva usualmente sólo un pendón por letra, de modo que hay tres pendones para indicar repetición de letra . También hay pendones numéricos que dan los dígitos de 0 a 9. Además hay que señalizar si estamos poniendo letras o palabras . Esto , debido a que los pendones pueden usarse también para transmitir frases , instrucciones o advertencias , según el código Internacional Marino de Señales. Por ejemplo, “necesitamos piloto” se señaliza con la letra G , “hombre al agua” con la O . El código de letras se recita así : alfa , bravo , charlie , delta ...

Estas cosas se encuentran en los sitios ...anbg.gov.au / flags /... y terrax.org / sailing / pennants...

La transmisión de información por los nervios emplea impulsos eléctricos de igual amplitud y duración : la información está contenida en los intervalos de tiempo entre pulsos , dicho de otra manera : en la frecuencia de los pulsos entendida por unidad de tiempo. Los pulsos representan señales binarias : “ 0 “ cuando no hay potencial de acción en el nervio, “ 1 “ cuando está presente el potencial de acción . El código Morse tiene cierto parentesco con esto .

La amplitud del potencial de acción representa una variación desde - 70 a + 40 milivolt o mV . La célula nerviosa se recupera en unos 10 milisegundos o ms .

.12.1. Un ejemplo de codificación.

Vamos a ilustrar algunos conceptos con un ejemplo de codificación de información. Es un ejemplo que da el libro del ingeniero Woodward , especialista en radar.

Recordamos brevemente el concepto de números binarios, o números base dos. La secuencia binaria de números es

.. 0 >> 0

.. 1 >> 1

.. 2 >> 10 = 2 1

.. 3 >> 11 = 2 1 + 2 0

.. 4 >> 100 = 2 2

.. 5 >> 101 = 2 2 + 0 + 2 0

.. 9 >> 1001

..25 >> 11001

y así sucesivamente .

No está demás recordar que una unidad de ocho bit se define actualmente como una unidad de información byte (“bait”) , también llamado por algunos octeto . Con números binarios de ocho dígitos podemos representar 2 8 = 256 signos , aunque lo que se hace en computación es representar 128 signos con 7 dígitos y usar el dígito adicional para un control interno , la verificación de paridad del número .

Examinemos ahora una muestra de 128 personas y preguntemos a cada una si es diestra , d. Si responde no , entonces es zurda , z . Es una alternativa binaria , como en el lanzamiento de la moneda. Supongamos que encontramos la secuencia

ddddddddzdddddddddddddddzddd....

Aparece z en las posiciones 9 , 25 ......

Designamos esto como el mensaje , que queremos archivar o guardar , en forma binaria . Observamos que 128 = 2 7 , así que usamos números de siete dígitos : 0000000 , 0000001 , 0000010 , .......

Bueno, sabemos que las respuestas z van a ser mucho menos frecuentes que las d . Así que podemos guardar la información contenida en el mensaje simplemente anotando las posiciones de las z : 00010010011001 ..... en el entendido de que vamos a leer el archivo en bloques de siete dígitos .

Lo que estamos viendo aquí es que a veces la información puede archivarse de modo que cada señal ocupa , en promedio , menos de un bit de espacio de información en el archivo. En este caso , no necesitamos archivar 128 bits. Así que en realidad no tenemos 128 bits de información , tenemos menos , y es porque d no constituye sorpresa. Hemos hecho una compresión de datos. La información original es recuperable si entendemos que la codificación en números de siete dígitos significa que había 128 ciudadanos en la muestra.

La compresión de datos puede llevarse más allá : si no nos interesa la secuencia de las respuestas , podemos registrar simplemente el número de ocurrencias de z . Para eso bastaría seguramente un número de cuatro bit . Por ejemplo, si hay nueve respuestas z , guardaríamos 1001 . Sin embargo, si lo guardamos como 0001001 , un número de siete bit , esto podría servir para registrar que había 128 ciudadanos en la encuesta.

Si la codificación no permite recuperar totalmente la información , los datos , ha habido reducción de datos .

El código más eficiente es el que minimiza el espacio promedio de archivo requerido , y ese mínimo corresponde justamente al contenido de información del mensaje , según la idea básica de Shannon .

La capacidad de memoria , o archivo , se da actualmente en byte y sus múltiplos . Estos múltiplos , a pesar de la nomenclatura decimal empleada , son siempre múltiplos de 2 . Así , 1 kbyte = 1024 byte , 1 Mbyte = 1048576 byte ...

Si las hipótesis de la tarea fueran muy distintas tal vez habría que cambiar de código : el código más eficiente depende de las probabilidades a priori de las alternativas de respuesta.

Una contribución fundamental al diseño de códigos óptimos , en el sentido de mínima redundancia , fue hecha por Huffman en 1952 , siendo aún estudiante de posgrado ...Según se desprende de su método, el código Morse está bastante cerca del óptimo : Morse sabía bien lo que estaba haciendo . La codificación huffmaniana , o entrópica , es muy socorrida en la industria del audio y especialmente del video .

.12.2. Mensajes en cristiano .

Consideramos el alfabeto castellano . Tomamos sólo las minúsculas , contamos como letras las ñ , ch , ll , entonces tenemos 29 signos . Además tenemos el espacio en blanco y signos de puntuación , interrogación , exclamación . , ; : ¿? ¡! que nos dan 9 más . Está también el asunto de los acentos , tal vez deberíamos contar las vocales acentuadas , son 5 , como señales independientes. Si nos ponemos a contar signos en el teclado de un computador tendríamos aún otro resultado ...

Si queremos estimar H para el castellano con estas hipótesis tendríamos que conocer las probabilidades a priori con que ocurren nuestros signos . Bueno , no parece haber buenas referencias para esto , tendríamos que tomar textos largos de distintos países de habla castellana y ponernos a contar frecuencias de signos.

Una anécdota : en el siglo XIX , recién inventado el telégrafo , Morse necesitó un dato similar para el idioma inglés , cuando diseñaba su código . Claro , la idea es usar las señales más cortas para las letras más frecuentes ... Entonces Morse , con su socio , hizo una estadística de los tipos que guardaba una gran imprenta...

Hay referencias para la frecuencia de aparición de las letras , y sólo las letras, en el castellano. La gente que hace estudios para la decodificación y decriptación se interesa en esto . Ellos no cuentan como letras o signos independientes las ch y ll . Las referencias aparecen bajo las rúbricas de criptografía y lexicografía .

Resulta entonces , según un estudio lexicográfico de un cierto matutino español de los años ochenta , que las letras más frecuentes son , en orden decreciente, E , A , O , L , S , N , D..... y se conocen también las frecuencias . El castellano hace mucho uso de las vocales . Se estima en esa referencia que las vocales ocupan aproximadamente el 47 % del texto en letras. Las consonantes más frecuentes ocupan el 30 % .

Esto puede encontrarse en .....matematicas.net / paraiso /...

Estimemos con estos datos la (cantidad de) información , H , limitándonos a las 14 letras más frecuentes , que suman más del 92 % de las ocurrencias de letra. Es una subestimación , pero las restantes letras aparecen con frecuencias inferiores al 0,5 %.

Se obtiene H " 3,41 .... bit para las letras del castellano .

Es bueno recordar que aquí estamos suponiendo la independencia de las probabilidades de aparición de las letras.

Se comprende intuitivamente que en el caso de no independencia se obtendría un valor más bajo para H. Pierce menciona un experimento psicológico hecho por Shannon , quien operó en idioma inglés con 27 signos , las 26 letras más el espacio en blanco . Pierce estima , según los resultados del experimento , que H se situaría alrededor de 1 bit / signo , o aún menos.

Para comprender este efecto cualitativamente es fácil encontrar ejemplos . Así, no nos sorprendería mucho encontrar “u” después de “q” , “s” después de “e” , “h” después de “c” , “e” después de “i” ..... En cambio , una “e”” después de una “x” sería una sorpresa , como también una “ i “ después de una “ z “ ...

Esto significa que si nos muestran secuencias de signos que configuran fragmentos de textos castellanos , tenemos alguna posibilidad de adivinar con qué signo se continúa una determinada secuencia . Es justamente lo que aprovechan los usuarios de la mensajería por teléfono celular...

El citado experimento de Shannon mencionado por Pierce consistió en estimar cuantitativamente esta posibilidad de adivinación.

En la referencia citada más arriba se estudió también la frecuencia de palabras . De las once palabras más frecuentes en el castellano, dos son de una letra , cinco de dos letras y cuatro de tres letras , con un total de 31,9...% de las frecuencias de palabras .

.13. TRANSMISIÓN DIGITAL DE DATOS

Recordemos que la ciencia contemporánea de la información tiene su origen en el problema ingenieril de optimizar el uso de redes telefónicas , que es un problema de transmisión , un problema de aprovechamiento de la capacidad de un canal de transmisión de información .

Aquí sólo nos interesa la transmisión digital , desde un emisor a un receptor , de información , o de datos , que para ello deben estar disponibles en forma digital , en forma de secuencia de signos y palabras binarios .

Sin embargo , el sonido , audio , música así como la imagen fotográfica fotoquímica , la película , no se presentan en forma digital . Es necesario entonces pasar por un proceso de digitalización . Para describir las ideas básicas nos concentramos en el sonido.

El sonido se presenta en forma de una señal continua en el tiempo , sea s (t) , la decimos también analógica.

Ver FIGURA 6

'La Información como magnitud física'

Ahora , de acuerdo con resultados conocidos de la matemática , más precisamente del análisis de Fourier y de la teoría de la transformada de Fourier , es posible representar fielmente una función continua mediante una suma de valores discontinuos de muestra de esta función , si se cumplen determinadas condiciones . La aplicación de esta idea a la representación de señales continuas para fines de comunicación se ha traducido en el llamado teorema de muestreo , ligado especialmente a los nombres de Nyquist y de Shannon.

Consideramos una señal continua en el tiempo , sea s ( t ) , que llamaremos amplitud de señal . Según los procedimientos matemáticos asociados al nombre de Fourier , podemos construir esta señal como superposición de señales de diversas frecuencias. Ahora supongamos que s ( t ) no contiene frecuencias más allá de cierta frecuencia límite , sea f mx . Denominamos ancho de banda , A , el intervalo de frecuencias 0 " f " f mx . Esta es una hipótesis muy plausible para señales que pasan por equipos de comunicaciones , equipos que siempre tienen limitaciones físicas para la transmisión de frecuencias altas o muy altas , según el caso . Pensemos en equipos de telefonía , de televisión .

Entonces el teorema de muestreo se puede explicar partiendo del resultado matemático :

s [ t ] = " s [ t = n / 2 A ] { sen 2  A ( t - n / 2 A ) / 2  A ( t - n / 2 A ) }

donde la suma se extiende sobre los valores n = 0 , ± 1 , ± 2 , ± 3 .... y así indefinidamente , para decir en seguida que podemos representar fielmente la señal si la muestreamos con una frecuencia de 2 A Hz , es decir a intervalos de tiempo de  T = ( 1 / 2 A ) segundos . Llamemos a las amplitudes de muestra s ( n ) .

Referirse otra vez a la FIGURA 6 anexa .

En la práctica de la digitalización de sonido , el audio digital , se ha empleado comúnmente una frecuencia de muestreo de 44,1 kHz , o 44100 Hz , con lo que podemos representar frecuencias de sonido hasta de 22 kHz , cubriendo lo que se llama el dominio de la alta fidelidad . Con todo , se emplean también frecuencias mayores de muestreo , hasta de 192 kHz .

Con el muestreo , sin embargo , estamos aún a mitad de camino de nuestra tarea de digitalización . En efecto , las muestras de señal o amplitudes s ( n ) son números que se distribuyen en forma continua entre dos valores extremos . Hay que reducirlos a una representación digital.

Esto se hace mediante un elemento electrónico llamado convertidor análogo a digital , o ADC por sus siglas anglosajonas . El ADC distribuye los valores de amplitud sobre un determinado número de casillas . Así , un ADC de N bit distribuye los valores sobre 2 N casillas . Un ADC de 16 bit distribuye los valores de amplitud sobre 65536 casillas , de tal manera que tendremos ahora números binarios que van desde 0000000000000000 a 1111111111111111 para representar nuestras muestras de amplitud , s ( n )

Ahora tenemos nuestra señal para transmisión digital . El receptor deberá realizar operaciones inversas para reconstituir la señal de sonido . Necesitamos ahí un convertidor digital a análogo , un DAC , para recobrar los valores correspondientes a los s (n ) .

La transmisión no se hace , sin embargo , con completa fidelidad . Para economizar espacio en el canal de transmisión , para aprovechar mejor la capacidad de canal , se siguen procedimientos de compresión de datos , como se dice en la industria . Se trata, en realidad , de procedimientos de reducción de datos , con pérdida de información , diseñados de modo que en definitiva al oyente se le proporcione la inteligibilidad o la fidelidad que requiera , según el caso . Justamente la digitalización permite una mucho mayor compresión de la información , de los datos .

Esta historia viene aquí simplificada , pues los números binarios empleados en definitiva incorporan bits adicionales destinados a procesos de verificación , control y reparación de errores.

Lo anterior puede extenderse a la transmisión de imágenes , para lo cual se recurre a frecuencias de muestreo mucho más altas así como a conversiones de 20 o de 24 bit .

.13.1. El RUIDO EN LAS COMUNICACIONES .

El concepto de ruido en las comunicaciones exige alguna discusión . Todos hemos tenido alguna vez una tal experiencia de ruido : a micrófono abierto , sin locutor , o cuando desaparece la señal de la tele , o cuando intentamos escuchar programas de radio de onda corta .

Es importante destacar que hay fuentes físicas de ruido que tienen un carácter fundamental , que no se deben simplemente a alguna conexión mal hecha , a que algún blindaje electrónico se infringió ...

Una fuente de ruido que siempre estará presente es el ruido inherente al proceso físico de la conducción eléctrica : en alambres , en resistencias eléctricas de uso tan extendido en circuitos . También se le dice ruido térmico . Su intensidad , entendida como cuadrado de la amplitud , es proporcional a la temperatura absoluta , y estará distribuida uniformemente sobre el ancho de banda , A . Usualmente es la fuente predominante de ruido físico .

Shannon calculó la capacidad de información para un canal ruidoso de comunicaciones , la máxima tasa de transmisión de información. El resultado de Shannon viene expresado en términos de potencias , que son proporcionales a los cuadrados de las amplitudes , como se enseña a los alumnos cuando se trata de la física de las ondas.

Sean entonces S y R las amplitudes de señal y de ruido , respectivamente , y P S , P R las respectivas potencias . La señales usualmente estarán medidas en Volt o miliVolt , las potencias en miliWatt o microWatt .

La capacidad de canal según Shannon viene dada entonces por

I H = A { log 2 (P S + P R ) " log 2 P R } bit / segundo

Aquí hemos puesto I por intensidad de corriente de información y H refiere directamente a la definición de Shannon de cantidad de información , que hemos introducido anteriormente .

La presencia en esta expresión de { } se entiende cualitativamente por la necesidad de distinguir la señal efectiva , es decir , ruidosa , del ruido mismo .

Digamos finalmente , a modo de ejemplo , que las corrientes usuales de información son de 36 Mbit / s para un canal satelital , de 3 a 4 Mbit / s para un canal de televisión , de 64 a 320 kbit / s para la radiodifusión , y son de 1411 kbit / s en la tecnología CD de audio . En este último caso conocemos el ancho de banda , A = ( 44,1 / 2 ) kHz , de modo que usted podrá calcular el cuociente señal / ruido , S / R , a partir de la expresión { } . Resulta ser altísimo .

HAY MÁS .

Hay mucho más , sobre teoría de la información , sobre su empleo en las ciencias naturales y sociales ... pero esto es solamente un textuelo .

El concepto de información ya se ha incorporado a las discusiones sobre las bases mismas de las ciencias empíricas . Y jugará sin duda un papel creciente en los debates en torno a la interpretación de la física cuántica , algo así como :

La mecánica cuántica es un álgebra lineal que permite a un observador describir procesos y estructuras cuando dispone de información parcial , incompleta ...

Conceptos de información permiten entender mejor las interferencias cuánticas , la decoherencia , el famoso , o infame , colapso de la función de onda .

Y hay quienes , como el físico Zeilinger , proclaman que el mundo es información .

Digamos también que hay quienes rechazan la cosificación del concepto de información .

REFERENCIAS

Nota : Tengo referencias en idioma extranjero , me fueron más fáciles de obtener o de encontrar . ¡Lo siento! La lista obviamente está muy lejos de ser completa.

R.U.Ayres ,

Information , Entropy and Progress , ediciones del American Institute of Physics , 1994 . Una ambiciosa perspectiva global sobre la idea de evolución en los más diversos ámbitos . Una mina de oro . El capítulo 2 trata de las relaciones entre información y termodinámica .

N. Gershenfield ,

The Physics of Information Technology , ediciones Cambridge U.P. , 2000 . Texto difícil para un curso exigente . No describe ni discute información sobre archivos ópticos : CD , DVD .

M.Goldstein , I.F.Goldstein ,

The Refrigerator and the Universe , ediciones Harvard , 1993 . El capítulo 9 trata de las relaciones entre entropía e información . Hay una breve exposición de las ideas de Shannon .

H. Herrmann , P. Schmälzle ,

Datos y Energía (en alemán) , ediciones Metzler / Teubner , 1987 . Monografía de intención didáctica dirigida a profesores , con proposiciones didácticas concretas para alumnado de 13 a 15 años . Intento importante . He usado parte de su discusión . Notar que sus referencias tecnológicas están anticuadas .

H. Lyre ,

Informationstheorie (en alemán), ediciones W.Fink UTB , 2002 . Se autodefine como introducción científico - filosófica a todo el tema información . Denso .

I.Peterson ,

The Jungles of Randomness , ediciones Wiley , 1998 . El capítulo 7 trata códigos para detectar errores de información y para corregirlos . También trata de la tecnología de los CD .

J.R. Pierce ,

An Introduction to Information Theory , ediciones Dover , 1980 . No es tan bueno ni tan claro como pretende ...

P.M. Woodward ,

Probability and Information Theory , ediciones McGraw-Hill , 1957 . Dirigido a ingenieros eléctricos y de radar , pero tiene conceptos básicos y ejemplos expuestos con gran claridad . Tomé un ejemplo de aquí .

H.D.Zeh ,

Entropie (en alemán) , ediciones Fischer , 2005 . Monografía exigente .El capítulo 3 trata de las relaciones entre información y entropía .

Algunas páginas útiles o interesantes .

Primero una disculpa , entenderá quien se maneja en alemán : debido a la estructura de ese idioma , es más fácil buscar en la red , a veces basta una sola palabra donde en castellano o en inglés se necesitan dos o tres...

En la Internet es posible obtener gratuitamente tratados y textos sobre conceptos y teorías de información , al menos en inglés y en alemán . Buscar con : information theory , informationstheorie , information , informationsbegriff ... por ejemplo .

www.nt.e-technik.uni-erlangen.de/~rabe/STSTOOL/...

Muestreo y digitalización de sonido , en inglés , hay un applet

arts.ucsc.edu/EMS/Music/tech_background/

www.digital-recordings.com/

Ambas en inglés , sobre registro digital de sonido

www.digitaler-rundfunk.at/

www.zdf.de/ZDFde/

Sobre televisión digital , en alemán

users.informatik.haw-hamburg.de/

En alemán , página contestataria , denuncia daños al oído por efecto de las técnicas de compresión de datos empleados en el audio digital . No confundir con el tema de daño por intensidad excesiva de sonido .

ENSALADAS DE LETRAS

bit binary digit , binary unit

byte binary term

.bmp extensión correspondiente al formato BITMAP

BITMAP formato de imagen , admite hasta 24 bit por píxel , admite

compresión

GIF Graphics Interchange Format , extensión .gif

JPEG Joint Photographic Experts Group , designa también formatos

.jpg extensión correspondiente a formatos JPEG

MPEG Moving Pictures Expert Group , designa también formatos

MP3 designación comercial

.mp3 extensión correspondiente al formato MPEG - 3 o MPEG Layer - 3

MP4 designación comercial

.mp4 extensión correspondiente al formato MPEG - 4 , existen variantes

PDF Portable Document Format , extensión .pdf

TIFF Tagged Image File Format , extensión .tiff

USB Universal Serial Bus , interfaz para hasta ~ 1,5 megabyte / s

ÍNDICE ALFABÉTICO (provisorio)

aditividad , propiedad aditiva :: 7 , 18

amplitud de señal , s ( t ) :: 32 , 34

ancho de banda , A :: 32 , 34

archivo :: 19 , 20 , 21

audio :: 25

binario , a :: 14 , 24 , 27

bit :: 14 , 15 , 16 ,17 , 20 , 21 , 22 , 26 , 27 , 28 , 29 , 30 , 33

Blu-ray :: 21

byte :: 28

CD :: 20

codificación :: 21 , 24 , 26 , 27

códigos :: 27

compresión de datos :: 25 , 29 , 33

corriente de información , intensidad de :: 24 , 25 , 34

digital , digitalización :: 31 , 33

DVD ::

encriptación :: 26

entropía física , S :: 11 , 12 , 20

entropía de información , H :: 17 , 18 , 19 , 29 , 30

formato :: 24 , 25 , 37

Huffman :: 29

magnitud física “X” , “X ( t )” :: 9 , 10 , 11 , FIGURAS 3 , 4

magnitudes físicas :: 5 , 6 , 7 , 9 , 13

memoria :: 19 , 20

mensaje :: 14 , 29

muestreo , teorema de :: 32

Nyquist :: 5 , 32

potencia :: 34

pragmática :: 4

probabilidades :: 5 , 13

reducción de datos :: 21 , 22 , 23 , 25 , 29 , 33

ruido :: 4, 33 , 34

semántica :: 4

sintaxis :: 4

Shannon :: 4 , 5 , 13 , 15 , 16 , 19 , 27 , 29 , 31 , 32 , 34

televisión :: 24

transmisión de datos :: 31

'La Información como magnitud física'

36

información es física