Informática
El ser Digital
“SER DIGITAL” - BEING DIGITAL
NICHOLAS NEGROPONTE, Director del Laboratorio de Medios del MIT
Editorial Atlántida
INTRODUCCION
Diferencia entre átomos y bits.
Tradicionalmente el comercio mundial consistió en el intercambio de átomos. Esto está cambiando rápidamente, en la transferencia instantánea y a bajo costo de datos electrónicos, a velocidad luz.
Cambio en forma exponencial, la computadora se esta introduciendo en nuestras vidas cotidianas.
La división cultural real que se va a producir es de tipo generacional, no de informados o desinformados, primer o tercer mundo. Ej: mainframe - computadora personal.
Este libro obedece 3 razones:
1 - Todavía no hay suficientes medios digitales en mano de ejecutivos, políticos, padres y de todos los que necesitan comprender esta cultura.
2 - La revista Wired ha demostrado un rápido y sorprendente éxito que existe un gran público interesado por la información sobre el estilo de vida digital.
3 - Más personal y algo escéptica. Los multimedios interactivos dejan muy poco librado a la imaginación.
PRIMERA PARTE
1 - El ADN de la información
Vivimos en una era informática, pero la mayor parte de la información nos llega en átomos. Ej: el GATT.
Se puede calcular el precio en los átomos pero no de la información.
Las tecnologías digitales, son y serán de gran ayuda a lo que hace al diseño, fabricación, marketing y gerenciamiento pero todos los átomos nos serán reemplazados por bits.
El bit es el elemento atómico más pequeño en la cadena de ADN de la información, describe el estado de algo. Prácticamente es un 1 o un 0.
La economía de bits está determinada por las limitaciones del medio en que son almacenadas, por el cual son transmitidas.
Niveles de compresión de bits. La digitalización permite corregir errores en las transmisiones de medios. A partir de esto surgen nuevos competidores, modelos económicos y probablemente nuevos proveedores.
Los bits pueden entremezclarse, ser reutilizados juntos o separados.
La mezcla del audio, video y datos se denomina multimedios (mezcla de bits).
Existen bits llamados encabezamientos y bits entremezclados.
2 - Bajando de su pedestal al ancho de la Banda.
A fines de la década del 60, las computadoras estaban al margen de la vida cotidiana.
El ancho de la banda es la capacidad de transmitir información a través de un canal determinado (cobre, fibra, ondas aéreas).
Módem (modulador-desmodulador), por el que se convierten a los bits en formas de ondas y se reconvierten luego en bits.
Una sola fibra óptica, constituye un gran cambio, se puede transmitir alrededor de 1 billón por segundo de bits, en comparación el éter es reducido.
Hoy en día la fibra es más barata que el cobre. Ej: los chinos utilizan fibra para que los pueblos no vendan el cobre en el mercado negro, esta es una excepción.
Las ventajas del cobre es la transmisión de energía.
En unos 20 años EEUU estará conectado por fibra óptica, lo que mejorará la calidad y confiabilidad del servicio telefónico.
La fibra óptica se difundirá paulatinamente ya que existen intereses comerciales.
La condición de información nos ahorra tiempo y el costo de bits.
Las empresas telefónicas nos cobran por segundos no por cantidad de bits transferidos.
Han ido apareciendo bits de bienestar social, minoridad, discapacitados, etc. La legislación en un futuro tendrá que ser equitativa al respecto.
La información tiempo real, los requerimientos de ancho de banda son dictados por el medio de comunicación utilizado. Aunque la mayoría de los datos todavía son transmitido por fax.
Importa también la configuración de la banda.
Redes estrellas (telefonía) son bandas individuales, redes por lazos (tv por cable) son bandas compartidas, más anchas.
Debido a los cambios cada usuario quiere ver distintos programas que su vecino, un ejemplo claro es de Direct TV.
El packaging de los bits irá cambiando según las necesidades y avances, en lugar de transmitir x cantidad de bits a todos los usuarios, servicio a cada uno la cantidad que desee y pueda pagar por paquete no por segundos.
Todos los estudios de investigación se dirigen a mejorar la imagen no el contenido televisivo, los japones Hi-Vision, los europeos Hd-Mac sistema análogo.
En 1990 Japón, Europa y EEUU tomaron distintas direcciones, invirtiendo muchos años de dinero y esfuerzo en la HDTV.
En 1991 se comenzó a proponer la TV digital; a fines de 1992 John Major veto un subsidio de 600 millones de libras/800 millones de dólares para la programación HDTV, entonces a principios del 93 la Comunidad Europea decidió abandonar la HDTV análoga por la digital.
Loe EE.UU. están aplicando la tecnología correcta.
Lo negativo es seguir ocupándose de los problemas equivocados, la imagen de la TV.
Con respecto a la televisión los EE.UU. y Japón utilizan el sistema NTSC, Europa las normas PAL, en Francia las SECAM (Sequential Coleus Avec Memoire).
El resto del mundo utiliza cualquiera de estas 3 normas.
La digitalización es la opción para independizarse de los padrones limitantes.
Los servicios de cable incluyen los conversiones con la idea de ir agregándole servicios en forma monopolizadora.
Los sistemas abiertos son un concepto vital, que ejerce un rol empresarial en nuestra economía y desafía a los sistemas de concesión exclusivamente y a los grandes monopolios.
Un sistema en verdad abierto es la propiedad pública y se halla disponible como fundamento sobe el cual cualquiera puede construir lo que desee.
La PC será la TV del futuro. El transformador será un dispositivo del tamaño de una tarjeta de crédito que convertirá a la PC en un medio de acceso al cable, al teléfono o satélite que hasta el desarrollo de la TV se verá eclipsada. TV como emisión de bits.
4 - La Policía de los bits.
La información y los entretenimientos tienen 5 vías de ingreso al hogar: satelital, emisora terrestre, cable, telefonía y forma envasada (átomos).
La FCC (comisión Federal de comunicaciones de los EE.UU.) regula algunas de las vías y algunos contenidos de información.
En los tiempos análogos podían delimitar lo que era la TV, la radio, la telefonía celular, en el mundo digital puede haber bits de Tv, bits de radio, etc. Pero no dejan de ser bits que pueden mezclarse.
El receptor podrá decidir la forma multimedio en que quiere ver la información.
La legislación referida a los derechos de autor (copyright), ya está fuera de moda. Pero, como se trata de un proceso reactivo, es probable que deba fracasar rotundamente antes que sea corregido.
Los derechos de autor protegen la forma expresiva que se le da a una idea, mientras que la idea misma es protegida por la ley de Patentes.
5 - Los bits entremezclados
Se habla de nuevos contenidos y de ver a los viejos de forma diferente.
Las compañías están determinadas a reciclar sus bits a un costo marginal al parecer más bajo y con una buena ganancia.
Presentar material infantil como multimedios en forma de CD-roms funciona cien porque el niño está dispuesto a ver o escuchar la misma historia varias veces.
El recurso de la maqueta física, no pudo aplicarse a otros casos hipotéticos y hubo que hacerlo con computadoras.
Hoy en día, los multimedios que se ofrecen en su mayoría son productos de consumo en forma de CD-roms.
Los multimedios serán un fenómeno on-line, mientras que los modelos económicos para estar on-line y tener su propio CD-roms podrán ser diferentes, con el acceso a la banda ancha, la funcionalidad puede llegar a ser la misma.
La profundidad y el ancho de la banda no serán alternativas excluyentes.
Los hipermedios son una extensión de los hipertextos (información interconectada), a diferencia de un libro el mundo digital, la información no está limitada a tres dimensiones.
Los productos multimedios incluyen a la TV interactiva y a las computadoras con capacidad de vídeo, la diferencia entre ambas es cada vez menor y tiende a desaparecer.
La traslación libre de uno de los medios es el objetivo real hacia el cual apunta el campo de los multimedios.
El medio no es el mensaje, es la encarnación del mismo.
Un salient stilles, es una imagen que representa un cuadro fijo de muchos segundos. Este ejemplo multimedio implica trasladar una dimensión (tiempo) a otra (espacio).
6 - El negocio de los bits
a pesar de la rapidez del cambio, la innovación está dada por descubrimientos importantes como el transistor, el microprocesador o la fibra óptica, sino por las notebook, redes globales y los multimedios. Esto se debe al enorme costo asociado con las instalaciones de producción para los modernos chips, que exigen la aparición de nuevas aplicaciones para consumir toda esa potencia y memoria de computación, también en el área de hardware se está llegando a los límites físicos.
Si una empresa fabrica solo un tipo de bits no esta en una buena posición para el futuro. La valuación esta determinada en gran parte por su capacidad de ser utilizada una y otra vez.
Los imperativos tecnológicos impulsaron el desarrollo de la TV, luego fue entregado al talento creativo a partir de subculturas intelectuales diferentes.
La fotografía fue creada por fotógrafos para mejorar su medio de expresión al igual que los escritores lo hicieron.
Las ansias de entretenimiento son insaciables y el nuevo contenido tridimensional apunta a la industria de los juegos.
Para muchas empresas productoras de medios, la mayor parte del valor agregado esta en la distribución. El distribuir bits evita que sea operado por grandes empresas.
Una vez que alguien está establecido, el valor agregado de un medio de distribución en un mundo digitalizado es cada vez menor, también debería incluir los procesos de filtrado y selección.
Se permitirá a la gente bajar los bits por su voluntad. Las empresas se están volcando a un mercado segmentado. Su mercado será la autopista de la información global.
7 - Donde el hombre y los bits se encuentran
Interfaz (computadora - hombre)
Hace poco tiempo se ha la suficiente potencia de computación a bajo costo como para facilitar la interacción.
Se solía considerar que los ciclos de comportamiento eran muy valiosos y había que dedicarlos al problema no a la persona.
Hace 30 años utilizar una computadora estaba limitado a unos pocos privilegiados.
La GUI (interfaz gráfica de usuario) fue mejorada enormemente a partir de 1971.
La invención por Steve Jobs de la Mac fue el principal paso en el mercado.
La interfaz fue tratada como un problema de diseño industrial tradicional.
La interfaz no solo tiene que ver con el diseño de una computadora sino también con la creación de una personalidad.
Al crear interfaz se han guiado por lo que en EE.UU. se denomina “los factores humanos” y el Europa “ergonomía”.
El comienzo de la interfaz de computación comenzó en marzo del 60 por JCR Licklider, y convergió en la década de los 90.
La interfaz se divide en 2 vías:
La interactividad, que fue encarada mediante la solución de problemas de compartir una computadora.
La riqueza sensorial, que fue creada a través de una interacción gráfica de gran ancho de banda. Diez años más tarde los gráficos dejaron de ser un gráfico de líneas.
De estudios eruditos han surgido que en la mayoría de las aplicaciones, el habla y el idioma natural no son canales apropiados de comunicación entre el ser humano y la computadora.
El diseño de interfaz más efectivo resulta de la combinación de la riqueza sensorial y la inteligencia de la máquina.
8 - El personaje gráfico
En 1963 se lanzó al mundo la idea de los gráficos por computación interactivos: sistema en tiempo real de dibujo lineal, permitía interactuar con la computadora mediante un lápiz óptico.
Durante los 10 años siguientes, pareció perderse el interés por si mismo.
Se llegó a la conclusión de que el futuro estaba en los sistemas exploradores de trama, similares a los de la TV, la línea sustituida por el pixel. Un pixel es el nivel molecular de los gráficos.
En el color existen 3 números de pixel, rojo, verde y azul, que son los tres primarios aditivos.
Los tres primarios sustractivos son magenta, cian (azul) y amarillo.
El SDMS (Spatial Data Management System), ofrecía al usuario una interfaz estilo sofá, que ilustraba la función de los datos que había en ella.
Fue tan avanzado el sistema para ese tiempo que tubo que transcurrir una década para que nacieran las computadoras personales.
Hasta hace poco tiempo atrás los fabricantes de computadoras no consideraban al hogar como un mercado atractivo dentro de la estrategia de mkt.
IBM en 1977 anunció a sus accionistas que ingresarían al mercado electrónico de consumo masivo; luego se decidió por la computadora doméstica.
En el mismo tiempo los juegos electrónicos comenzaron a cambiar la naturaleza y los gráficos.
Los juegos tienden a extinguirse, serán superados por los juegos para PC.
El único lugar donde un hardware de fines especiales desempeñará un rol en un plazo cercano, es la realidad virtual.
9- RV 20/20
La RV puede convertir lo artificial en algo tan real como la realidad o, quizás, aún más real que esta.
Responsabilidad social, la sensación de estar ahí a través de la vista, lo que se sentiría al estar viviendo la situación en la realidad.
La vestimenta típica para una experiencia de RV es un casco con una especie de display en forma de antiparras, uno para cada ojo. Cada uno de esos monitores brinda una imagen en perspectiva ligeramente diferente de la que se vería de estar realmente allí. A medida que uno mueve la cabeza, las imágenes, en principio, se actualizan con tanta rapidez que se tiene la sensación de generar esos cambios a través del movimiento de la cabeza, cuando es la computadora la que sigue los movimientos del protagonista. Uno se siente la causa no el efecto.
La calidad de la imagen: la cantidad de los bordes visualizados y las texturas que hay entre los mismos. El tiempo de respuesta.
La realidad virtual comenzó en 1968, Ivan Sutherland construyó el primer sistema de display.
Las generaciones futuras de adultos y niños se divertirán de esta manera.
Actualmente, la RV tiene falencias y defectos técnicos, no es lo bastante rápida.
La alternativa es abandonar por completo los displays montados en la cabeza del espectador, que brindan imágenes en perspectiva para cada ojo por separado, y pasar a las tecnologías denominadas autoestereoscópicas, que hacen flotar un objeto real o una imagen holográfica en el espacio, enviándolas a ambos ojos.
A mediados de la década de los 70, ARPA lanzó una importante iniciativa de investigación en el campo de las teleconferencias, para transmitir de manera electrónica la máxima sensación posible de presencia humana. Este requerimiento de telecomunicaciones estuvo impulsado por los procedimientos de emergencia del gobierno de los Estados Unidos, para el caso de una amenaza de ataque nuclear.
La holografía fue inventada por el científico húngaro Dennis Gabor en 1948.
Un holograma es la reunión, en un solo plano de configuraciones reflectoras de la luz, de todos los ángulos de observación posible de una escena. Cuando la luz pasa a través o es reflejada por ese plano, la escena se reconstruye ópticamente en el espacio.
La respuesta del público ante la calidad de un display, tendemos a juzgar nuestras experiencias como una entidad sensorial integral y no parcializada. Esta observación tan importante a veces se pasa por alto al diseñar sistemas de RV.
La vista y el gusto se suman a lo que hace a la calidad.
10 - Mirar y sentir
Es hora de que las computadoras aprendan a ver y oír.
Ej: el robot tiene que tomar su propia decisión en base a lo que está viendo en el momento.
Computación táctil de alta sensibilidad
La verdadera razón para no usar los dedos: si un cursor apareciera en el momento en el que dedo estuviese, digamos, s medio centímetro de distancia de la pantalla, tocar la pantalla sería como el click de un ratón.
Mirando de frente a su computadora
Esta forma de señalar, combinada con un gesto de la cabeza, puede ser un potente canal de comunicación.
Cuanto más sepa la computadora sobre su posición, su postura y la naturaleza particular de sus ojos, tanto más fácil le será saber hacia dónde está mirando usted. Parece irónico, pero este medio exótico de utilizar a los ojos como dispositivo de ingreso de información común y frecuente de una persona sentada frente a una computadora de mesa.
Este sistema aún funcionará mejor si se lo utiliza en forma concomitante con otro canal de entrada, la palabra hablada.
11 - ¿Podemos hablar de esto?
La razón básica para que haya tan pocos avances en el reconocimiento de la palabra hablada, por parte de la computadora, no es la falta de tecnología sino una falta de perspectiva.
Hoy en día, las computadoras exigen su total y absoluta atención, casi exclusiva al proceso y el contenido de la interacción.
La palabra hablada conlleva una vasta cantidad de información, más allá de las palabras mismas, podemos transmitir pasión, sarcasmo, exasperación, todo con la misma palabra, son precisamente estos matices los que convierten a la palabra hablada en una forma mucho más rica y expresiva que la palabra escrita.
Tres dimensiones en el reconocimiento del habla
El reconocimiento y la comprensión están íntimamente ligados, las computadoras no tienen capacidades para comprender el contenido de las palabras.
El problema del reconocimiento de la palabra hablada tiene tres variables: extensión del vocabulario, grado de independencia del que habla y la interconexión de las palabras, es decir, la medida en que las palabras pueden ser fusionadas, tal como sucede en la cadencia del habla humana normal.
Expresiones paraverbales
No todos los sonidos que se emiten tienen que tener un significado lexocográfico para ser importantes en la comunicación, y segundo, algunos sonidos solo tienen un carácter protocolar dentro de la conversación.
El uso de canales paralelos (el gesto, la mirada y el habla) es la esencia de la comunicación humana.
Como enseñarle a hablar bien a una computadora
La palabra hablada puede ser producida por una computadora de dos maneras: reproduciendo una voz grabada precisamente o sintetizando los sonidos a partir de letras, sílabas o (lo más viable) fonemas. Cada una de estas formas tiene sus ventajas y sus desventajas. La reproducción del habla tiene problemas similares al de la grabación musical, se puede almacenar el sonido (como sucede con un CD) y reproducirlo, o se lo puede sintetizar y reproducir a partir de notas (como lo hace un músico).
La reproducción del habla previamente almacenada brinda la comunicación auditiva y oral con sonido más natural, en especial si el discurso almacenado es un mensaje completo.
Se utiliza la sintetización.
Como en la mayoría de los elementos digitalizados, la solución, a largo plazo, será utilizar ambos métodos.
En el próximo milenio, nos encontraremos con el hecho de que hablaremos tanto o más con máquinas que con personas.
Hoy en día, un modem de 19.200 baudios se encuentra ubicado en una tarjeta inteligente.
El canal de la voz no sólo incluye y transmite la señal, sino también las características particulares de quien envía el mensaje, haciendo que el mismo, por medio de si sonido, adquiera un tono comprensivo, compasivo o lleno de ternura.
El habla y la delegación están íntimamente ligados.
12 - Menos es más
Construir una computadora personal, está tendría que ser capaz de ampliar y resumir señales, en función de su conocimiento intimo de mi persona y mi entorno, y que yo mismo, en la mayoría de los casos, pasaría a ser prescindible.
Se ha vuelto obvio que la gente quiere delegar más funciones y prefiere manipular cada vez menos a sus computadoras.
La computadora debiera tener una capacidad dual, como un cocinero, un jardinero y un chofer que utilizan sus habilidades para adecuar a sus gustos y necesidades en lo que se refiere a comidas, plantas y viajes en automóvil. Cuando se delegan esas tareas, ello no significa que a usted le guste cocinar, cultivar plantas o conducir. Significa que tiene la opción de hacer esas cosas cuando desea hacerlas y porque tiene ganas de hacerlas, y no porque sean su obligación ineludible.
Quiero que mi agente de interfaz haga esas cosas por mi.
La digitalización cambiará el modelo económico de la selección de las noticias, hará que el interés personal de cada individuo desempeñe un rol más importante y utilizará incluso información que hoy es descartada en la sala de armado por considerarséla de escaso interés popular.
Solemos oscilar entre ambos extremos y, según el tiempo disponible, la hora del día y nuestro estado de ánimo, podremos desear información más o menos personalizada.
En el futuro cercano, el proceso de filtrado se realizará utilizando encabezamientos, esos bits que informan sobre bits.
La inteligencia artificial salió perdiendo, alrededor de 1975, cuando, a través de los recursos de computación, comenzaron a lograr la potencia que podría ser necesaria para resolver problemas intuitivos y exhibir una conducta inteligente.
Lo que sucedió fue que los científicos, de pronto, optaron por las aplicaciones muy realizables y vendibles, como robótica y sistemas expertos (utilizados, por ejemplo: en las negociaciones en la bolsa de valores y en las reservas de pasaje en las líneas aéreas), y dejaron de lado la cuestión más profunda y básica de la inteligencia y del aprendizaje.
Todos estamos fuertemente condicionados para atribuir fenómenos complejos a algún tipo de entidad controladora.
No hay necesidad de que cada comunicación y cada decisión vuelvan a una autoridad central para su aprobación.
Una estructura descentralizada altamente intercomunicadas, tiene mucha mayor flexibilidad y por lo tanto mejores posibilidades de supervivencia. Además es más sostenible y pasible de evolución a través del tiempo.
Los agentes de interfaz se irán descentralizando en la misma forma que la información y las organizaciones.
Este modelo del futuro es marcadamente distinto del enfoque que considera al factor humano en el diseño de la interfaz. Sin duda que el aspecto y la percepción de la interfaz son importantes, pero desempeñan un papel menor en comparación con la inteligencia.
Los fanáticos de la internet pueden hacer surfing a lo largo y ancho de ese medio, explorar inmensos bloques de conocimiento y entretenerse con todo tipo de nuevas formas de socialización. Este fenómeno tan ampliamente difundido, no disminuirá ni desaparecerá, pero es sólo una forma de comportamiento, que tiene más que ver con la manipulación que con la delegación.
Nuestras interfaces variarán, pero todas surgirán a partir de la inmensa paleta de la vida digitalizada.
13- La era de la Postinformación
La etapa de transición entre la industrial y la postindustrial o era de la información, ha sido discutida tanto y durante tanto tiempo, que no nos hemos dado cuenta de que estamos pasando a la era de la postinformación.
La era de la información, nos mostró la misma economía de escala, pero con menor énfasis en el espacio y en el tiempo: y en el futuro la fabricación de bits podría realizarse en cualquier lugar y momento.
Todo se hace a pedido y la información está personalizada al máximo. Una suposición muy difundida es que la individualización es la extrapolación de la sectorización: se va de un grupo grande a uno más pequeño y de ahí a otro más pequeño aún, hasta que, por último el destinatario es un solo individuo. En cuanto se conoce mi dirección, mi edad, mi estado civil, mis ingresos, la marca de automóvil, el tipo y volumen de mis compras, mis hábitos gastronómicos y mis impuestos, estoy atrapado: me transformo en una unidad demográfica constituida por una ola persona.
La verdadera personalización se está aproximando. La era de la postinformación tiene que ver con la relación a través del tiempo.
Podrá recordarle un comentario periodístico sobre un nuevo restaurante, ubicado en determinada ciudad, porque sabe que usted va a viajar en un tiempo a ese lugar. Todas estas acciones de la máquina estarán basada en un modelo que ella tiene de usted, como individuo, y no como parte de un grupo que podría llegar a comprar determinada marca de polvo jabonoso o tal o cual dentífrico.
En la era de la postinformación, el concepto de “dirección” cobrará un nuevo significado, dado que será posible vivir y trabajar en una o varias locaciones geográficas distintas.
La vida digitalizada incluirá muy pocas emisiones en tiempo real, no hará falta que sean recibidos en el mismo orden o en la misma proporción en que serán consumidos.
Lo primero es bombardear con bits a la computadora y lo segundo es cargarla con cuentagotas. Con la posible excepción de sucesos deportivos y resultados electorales, la tecnología sugiere que la televisión y la radio del futuro serán emitidas en diferido, asincrónicamente. Esto se hará a pedido o utilizando broadcatching, es la radiación de una corriente de bits, con grandes cantidades de información lanzada al éter o enviado a través de la fibra óptica. En el extremo receptor, una computadora capta los bits, los analiza, almacena lo que usted consumirá en algún momento y descarta el resto.
La información “a pedido” dominará la vida digitalizada. Esto requerirá reformular el concepto de todas las programaciones financiadas por publicidad.
En 1983, cuando comenzamos las actividades en la Media Lab. Los medios significaban casi exclusivamente “medios masivos”. Una gran audiencia producía grandes ingresos por publicidad lo que, a su vez, permitía grandes presupuestos para producción. La publicidad se justificaba, en los medios masivos de difusión por aire, ya que se suponía que la información y la diversión debían ser gratuitos debido a la propiedad pública del espectro.
Las revistas por otra parte, utilizan una red de distribución privada y comparten el costo entre anunciador y lector. Como medio asincrónico, ofrecen una gama mucho más amplia de esquemas económicos y demográficos, y podrían llegar a constituir el modelo para la televisión del futuro.
En los futuros medios digitales se utilizará más el criterio de pagar por lo que se recibe, pero no sobre la base de todo o nada, sino con un método más similar al de diarios y revistas.
La publicidad estará tan personalizada que será difícil diferenciarla de las noticias.
Los modelos económicos de los medios de hoy se basan casi con exclusividad en imponer la información y los entretenimientos al público. Los modelos del mañana tendrán mucho más que ver con la posibilidad de “bajar” la información.
14- El horario central es mi horario
Mucha gente cree que el “video a pedido” (VAP), será la aplicación destructora de la supercarretera de la comunicación.
Hoy en día, tenemos cuatro vías electrónicas de ingreso a nuestros hogares: el teléfono, el cable de fibra óptica, el satélite y las emisiones terrestres. Sus diferencias tienen que ver más con la topología que con modelos económicos alternativos.
El camino de envío, satelital, transmisión terrestre, cable o teléfono, puede ser analizado en términos de qué se adecua mejor para qué clase de bits.
Una red de televisión es una jerarquía de distribución con una fuente y muchos sumideros.
Las redes de computación, son un enrejillado de procesadores heterogéneos, cada uno de los cuales pueden actuar tanto como fuente como sumidero.
El agente de cambio será la red de internet, tanto real como metafórico.
Para el año 2000, mil millones de personas estarán conectadas con la internet. Esta suposición se basa en parte , en que el crecimiento más rápido de centrales durante el tercer trimestre de 1994 se observó en la Argentina, Irán, Perú, Egipto, Filipinas, Rusia, Eslovenia e Indonesia (en este orden).
La Net ya no es norteamericana, el 35% de las centrales ya se encuentran en el resto del mundo.
También posible sumarse a grupos de discusión llamados MUDS, que significa multi-user dungeons (calabozos para multi usuarios), hay quienes lo llaman dominio.
15- Buenas Conexiones
Las imágenes no están constituídas por letras y palabras sino por pixeles, para que la máquina las interprete tiene que realizar un proceso similar al que hace el hombre, tiene que convertir pequeñas áreas de pixeles en letras y luego en palabras.
Un CD es un “audio fax” que nos permite comprimir, corregir y controlar la señal acústica, pero no brinda la estructura musical.
Para almacenar más música en un CD se vio el cambio del láser rojo por el azul, con la que se acorta la longitud de la onda.
La otra es utilizar más técnicas de codificación.
11
11
Descargar
Enviado por: | Alejandra Pluguiese |
Idioma: | castellano |
País: | Argentina |