Ingeniero Técnico en Informática de Sistemas
Redes de ordenadores
TEMA 1: INTRODUCCIÓN A REDES DE ORDENADORES
1.1.- INTRODUCCIÓN
En tan solo unos años las redes de ordenadores han pasado de ser algo esotérico solo conocido y utilizado por
unos pocos a ocupar un primer plano en cualquier medio informativo de carácter general. Quizá el protagonismo
que actualmente se da a términos como 'Internet', 'autopistas de la información' o 'aldea global' sea más fruto de
las modas que de una realidad objetiva, pero no cabe duda que dichos términos (o al menos las ideas a las que
representan) tendrán un interés creciente en los años venideros y permanecerán con nosotros durante bastante
tiempo.
Podemos hacer un cierto paralelismo entre la explosión de la Telemática en la década de los noventa y el auge de
la Informática personal en los ochenta; sin embargo a pesar de su importancia la aparición del PC no parece
comparable a la revolución que protagonizará la Telemática; la razón estriba en que, a pesar de todo, el PC
aislado es hasta cierto punto un producto minoritario, mientras que el sistema multimedia de los noventa
conectado a las redes se convertirá en una fuente de información y entretenimiento de interés para el público en
general. Existen ya en el mercado algunos modelos de lo que se conoce como 'set-top boxes' desarrollados por
empresas como Philips, Sony o Nokia, que son aparatos que se conectan a la red de datos y al televisor
doméstico. En estos equipos resulta esencial la facilidad de manejo.
Los precios de la informática vienen sufriendo desde hace bastantes años una disminución exponencial. El precio
del espacio en disco (pesetas/MB) se reduce a la mitad aproximadamente cada 4.5 años, el de la potencia de
procesador (pesetas/MIP) cada 2.3 años, y el de la memoria RAM (pesetas/MB) cada 1.8 años. Como
comparación el precio de la transmisión de datos (medido en pesetas/Mbps/Km) se reduce a la mitad cada 1.5
años aproximadamente, es decir, esta teniendo una disminución aun mayor que las tecnologías informáticas. Las
investigaciones y desarrollos en curso en materia de transmisión de datos hacen prever que dicha tendencia se
mantendrá en el futuro.
Además de los factores tecnológicos en los precios de los servicios telemáticos influyen aspectos legales que en
ocasiones alteran la situación de manera importante. Por ejemplo en España, como en otros países de Europa, la
decisión de liberalizar las telecomunicaciones en 1998 está produciendo un abaratamiento de los precios gracias a
la libre competencia, que de forma transitoria hará aun mayor la reducción que cabría esperar de los factores
puramente tecnológicos.
1.1.1.- Objetivo del curso
El curso pretende dar una formación básica en los aspectos técnicos de la comunicación de ordenadores.
El alumno deberá ser capaz al finalizar el curso de diseñar adecuadamente una red informática para una empresa,
atendiendo a criterios de coste, prestaciones y necesidades. También debería poder comprender la descripción
técnica o documentación de un producto de comunicaciones, así como artículos de la literatura especializada.
En toda área de conocimiento técnica existe una profusión de siglas para referirse a términos, conceptos o incluso
a frases concretas. La telemática es especialmente rica en este sentido, y el conocimiento del significado de tales
abreviaturas es necesario para la comprensión de la literatura técnica. Siempre que un término o concepto
disponga de una abreviatura habitual lo indicaremos junto con su significado (casi siempre en inglés) la primera
vez que aparezca. El conocimiento del significado de las siglas es como su 'etimología', y forma parte de la
'cultura general' que todo ingeniero informático debería tener.
1.1.2.- Que no es objetivo del curso
Actualmente existen, sobre todo en entornos universitarios, multitud de 'gurus' de la Internet que son capaces de
encontrar casi cualquier cosa en la red, conocen todos los servicios existentes y están al tanto de la última
aplicación o programa aparecido. Conviene destacar que no es el objeto de este curso crear tales gurus, por tres
razones:
El profesor no está capacitado para ello,
Dicha información no sería susceptible de incluirse en una asignatura del curriculum académico ya que para
cuando el estudiante iniciara su andadura profesional dicha información práctica sería ya obsoleta, y
No es este el tipo de formación que se espera de un Ingeniero Informático
En cierto modo podríamos decir, siguiendo la típica analogía de las 'autopistas de la información', que dichos
'gurus' de la Internet son muy buenos conductores, pero lo que aquí pretendemos no es obtener el carnet de
conducir sino aprender a diseñar carreteras y vehículos para que el tráfico sea lo más fluido (y seguro) posible.
Que duda cabe no obstante que nunca le vendrá mal a un ingeniero saber conducir bien, y en este sentido
estimulamos al alumno a realizar tantas 'prácticas de conducción' como le sea posible tanto durante sus estudios
como después en su futura actividad profesional.
Tampoco es objeto de este curso introducir al alumno en los aspectos legales, comerciales o políticos del mundo
de las telecomunicaciones, que son motivo de noticia casi diaria en los medios de comunicación, tanto a nivel
nacional como europeo.
1.1.3.- Telecomunicaciones y Telemática
Empezaremos por diferenciar estos dos términos fundamentales.
Entendemos por telecomunicaciones el conjunto de medios técnicos que permiten la comunicación a distancia.
Normalmente se trata de transmitir información sonora (voz, música) o visual (imágenes estáticas o en
movimiento) por ondas electromagnéticas a través de diversos medios (aire, vacío, cable de cobre, fibra óptica,
etc.). La información se puede transmitir de forma analógica, digital o mixta, pero en cualquier caso las
conversiones, si las hay, siempre se realizan de forma transparente al usuario, el cual maneja la información de
forma analógica exclusivamente.
El término telemática (fusión de telecomunicaciones e informática) trata del uso de las telecomunicaciones para
enriquecer las posibilidades de la informática (y no al revés), es decir, del uso de medios de comunicación a
distancia para conectar equipos informáticos (ordenadores con ordenadores u ordenadores con periféricos). La
información puede transmitirse de forma analógica, digital o mixta, pero esto es transparente al usuario, que
maneja la información de forma digital únicamente.
Todos los sistemas habituales de telecomunicaciones transmiten la información por medio de ondas
electromagnéticas a través de diversos medios: aire, vacío, cable de cobre fibra óptica, etc.
A modo de ejercicio diga en cuales de las siguientes situaciones se utilizan las telecomunicaciones y en cuales la
telemática:
Dos usuarios mantienen una conversación a través de dos teléfonos conectados a la RDSI (Red Digital de
Servicios Integrados).
Otros dos usuarios hablan, pero utilizan dos PCs (con tarjeta de sonido); los PCs están conectados a la Internet
mediante líneas analógicas y módems de 28.8 Kbps.
Un usuario envía a otro por mensajero un disquete que contiene un fichero.
Un usuario envía un telegrama utilizando el código Morse.
Un usuario envía un documento desde un ordenador, conectado mediante un módem y un programa emulador de
facsímil; en el destino el documento es recibido por otro ordenador conectado de la misma forma.
Dos usuarios mantienen una videoconferencia mediante PCs conectados por RDSI en los que se ha instalado el
hardware y software adecuado.
1.1.4.- Redes de ordenadores y sistemas distribuidos
La expresión redes de ordenadores (o simplemente redes) se utiliza cuando, por medio de la telemática, se realiza
la comunicación entre dos o más ordenadores. Queda excluida aquí la comunicación entre un ordenador y un
periférico (terminal, impresora, etc.) independientemente de la distancia a la que dicha comunicación se produzca
o el tipo de medios utilizados para ella. Dicho de otro modo, en redes de ordenadores se considera únicamente la
comunicación entre elementos que pueden hablar de igual a igual ('peer to peer' en inglés), sin tomar en
consideración la comunicación asimétrica maestro-esclavo.
Un caso particular de las redes de ordenadores son los sistemas distribuidos, en los que se intenta conectar varios
ordenadores mediante una red y crear un entorno de utilización tal que el usuario no perciba la existencia de
múltiples sistemas, sino que los maneje como un único sistema virtual de forma transparente; para esto se utilizan
normalmente protocolos o aplicaciones específicos. Evidentemente si el medio de comunicación es de baja
velocidad el usuario percibirá un retraso cuando acceda a un nodo remoto, por lo que generalmente los sistemas
distribuidos sólo se implementan en redes de alta velocidad (redes locales por ejemplo). Un ejemplo de protocolo
de sistemas distribuidos podría ser el NFS (Network File System) que permite acceso a ficheros remotos de
forma transparente.
1.2.- ALGUNOS USOS DE LAS REDES DE ORDENADORES
Podemos diferenciar claramente dos tipos de usos o usuarios de las redes de ordenadores: el profesional, que se
da normalmente en la empresa, y el particular, que generalmente tiene lugar en la residencia habitual de los
usuarios.
1.2.1.- Uso de las redes en empresas
Prácticamente cualquier empresa que tenga varios ordenadores hoy en día tiene una red local que los
interconecta. Si la empresa dispone de varias sedes u oficinas dispersas dispondrá típicamente de una red local
(LAN, Local Area Network) en cada una de ellas y de un medio de interconexión de dichas redes locales a través
de enlaces telefónicos (también llamados accesos WAN, Wide Area Network). La red o redes permiten acceder a
información importante y actualizada de manera rápida, por ejemplo una base de datos que contenga toda la
información comercial de la compañía (productos, stocks, precios, plazos de entrega, etc.). A menudo estas bases
de datos necesitan estar en uno o unos pocos ordenadores de la red, ya que la existencia de múltiples copias
complica las actualizaciones.
Antiguamente las aplicaciones se diseñaban para que los usuarios accedieran desde terminales 'tontos' al
ordenador central en el que se mantenía la base de datos y en el cual se procesaba la transacción en su totalidad,
pero la aparición de redes de ordenadores donde el terminal se ha convertido en un PC ha llevado a un nuevo
modelo de desarrollo de las aplicaciones llamado cliente-servidor, consistente en descargar en el PC (cliente) una
parte del proceso de la transacción (por ejemplo toda la labor de validación de los datos introducidos), y dejar
para el ordenador central (servidor) únicamente la parte que no es posible hacer en el cliente, como por ejemplo
la inclusión del nuevo registro en la base de datos. El modelo cliente-servidor reduce así de forma considerable la
potencia necesaria en el ordenador central, y permite aprovechar el PC que el usuario tiene en su mesa (y que
muy probablemente tendría de todas formas). Además así la aplicación se integra de forma mas amigable en el
ordenador del usuario final (mediante el uso de ventanas, interfaces gráficas, ratón, etc.). Así el uso del modelo
cliente-servidor, y por tanto de las redes de ordenadores puede llegar a suponer en la práctica un ahorro en los
gastos informáticos de la empresa, además de una mayor productividad de sus empleados.
Por otro lado, la existencia de redes de ordenadores permite a la empresa tener duplicado su servidor de base de
datos, o cualquier otra información vital, de forma que en caso de fallo de software, hardware, o destrucción
física del servidor la información no se vea afectada al poder los clientes seguir funcionando con el servidor de
reserva. Esto se traduce en una elevada fiabilidad del sistema, aspecto imprescindible en algunas empresas (por
ejemplo bancos, hospitales, cadenas de montaje de fábricas, etc.). Por supuesto para que el sistema en su conjunto
sea altamente fiable es preciso duplicar no solo el servidor de base de datos, sino la propia red (elementos de
conmutación, conexión, cables, etc.) de forma que no haya ningún elemento importante susceptible de fallo cuya
funcionalidad no este duplicada.
La red en las empresas permite compartir recursos, tales como periféricos de elevado costo (impresoras láser,
scanners, plotters, filmadoras, etc.), o programas (siempre y cuando la licencia que se posee permita su uso en
red) con el consiguiente ahorro de espacio en disco y sencillez de actualización.
Otra utilidad importante de la red en las empresas es como medio de comunicación entre sus empleados; el correo
electrónico es el servicio básico, pero otros mas avanzados se están implantando, tales como la videoconferencia
o las aplicaciones que permiten compartir un documento entre varios usuarios trabajando desde ordenadores
distintos. Este tipo de aplicaciones se conoce como CSCW (Computer Supported Cooperative Work) y también
como 'groupware'.
Hasta aquí hemos discutido aplicaciones orientadas fundamentalmente al uso de la red dentro de la propia
empresa (lo que en tiempos recientes se suele denominar la 'Intranet'). Dicha red puede conectarse al exterior,
bien directamente o a través de un cortafuego o 'firewall', es decir, una pasarela intermedia que permita controlar
el acceso (entrante y/o saliente) para evitar problemas de seguridad. Cuando la red de la empresa se conecta al
exterior (normalmente a la Internet) aparecen una serie de nuevas aplicaciones que le dan aun mayor utilidad,
entre las que cabe destacar las siguientes:
Las actividades de marketing; por ejemplo se puede poner el catálogo de productos de la empresa en la red para
su consulta por los clientes, con información detallada de características, precio, referencias, etc.; también es
posible tramitar pedidos recibidos a través de la red.
Actividades de soporte en línea; se puede responder a preguntas de los usuarios a través de la red, tanto por
correo electrónico como por listas de distribución o grupos de news. En el caso de empresas de software es
frecuente ofrecer a través de la red nuevas versiones de programas, sistemas operativos, parches para la
resolución de problemas, etc.
Las herramientas de comunicación antes mencionadas (correo electrónico, videoconferencia, CSCW, etc.)
adquieren una relevancia mucho mayor cuando su uso no se limita al interior de la empresa.
Algunas empresas encuentran en Internet una manera económica de interconectar sus oficinas remotas, evitando
así la contratación de líneas propias de larga distancia.
El empleado puede acceder a una enorme cantidad de información externa a su empresa útil para su trabajo, por
ejemplo información de suministradores, competidores, clientes, foros de discusión sobre temas relacionados con
su trabajo (especialmente de carácter técnico), etc. Curiosamente esta ventaja conlleva un problema, que es la
imposibilidad de evitar que el empleado utilice la conexión al exterior para acceder a información no relacionada
con su trabajo (por ejemplo sobre su hobby favorito), perdiendo en ello a veces una parte importante de su
jornada laboral. Es prácticamente imposible impedir por medios técnicos que esto suceda, aunque se pueden
adoptar algunas medidas protectoras. Este problema ha hecho a algunas empresas cuestionarse la conveniencia de
dar acceso Internet a sus empleados.
1.2.2.- Uso de las redes por particulares
El uso de las redes de ordenadores por parte de particulares tiene tres objetivos fundamentales:
· Acceso a información
· Comunicación
· Entretenimiento
El acceso a información actualmente se centra en el acceso a Internet y en particular a servidores Web. En torno a
esto han aparecido multitud de servicios derivados del uso de la telemática para diversos fines, tales como
teletrabajo, telecompra, teleenseñanza, telemedicina, etc.
La comunicación tiene lugar tanto a nivel individual (correo electrónico) como en grupos (listas de distribución,
grupos de news, etc.). Esto incluye no solo información textual, sino también multimedia: sonido, imagen y vídeo.
Además de estas aplicaciones asíncronas, en las que los participantes no han de coincidir en el tiempo, existen
otras (llamadas isócronas) en las que si han de coincidir, como las que permiten utilizar el ordenador como un
teléfono, para hablar con un usuario remoto a través de la Internet; esto supone un ahorro importante en algunos
casos ya que se puede hacer una llamada a un lugar remoto pagando tarifa local (lo cual ha motivado serias
críticas y discusiones con las compañías telefónicas, especialmente en Estados Unidos). También está el servicio
de videoconferencia, aunque esta poco extendido a nivel particular debido a su escasa difusión y a sus
requerimientos de capacidad, difíciles de satisfacer con un módem telefónico.
El uso con fines de entretenimiento será la gran aplicación de las redes de ordenadores en el futuro, pero
actualmente el reto tecnológico es tan grande que para abordarlo es preciso disponer de potentes y costosos
equipos, con lo que la rentabilidad es cuando menos dudosa. Se han hecho ya algunas experiencias de vídeo bajo
demanda en Estados Unidos, pero las necesidades de red y de servidores para un número elevado de usuarios son
tan grandes que los servicios comerciales que actualmente se ofrecen se basan generalmente en el vídeo casi bajo
demanda (NVOD, Near Vídeo On Demand) donde cada transmisión es vista por un conjunto de usuarios
simultáneamente.
1.2.3.- Aspectos sociales
La Internet es noticia casi diaria en los medios de comunicación, y no siempre en sentido positivo. Algunos
ejemplos de temas polémicos son los siguientes:
Distribución de pornografía. En muchos países es ilegal distribuir pornografía a menores, por lo que la
disponibilidad de estos materiales en la red limita a veces el acceso a la Internet en colegios. También es polémica
la distribución de pornografía infantil a adultos, que algunos consideran inaceptable en cualquier caso.
Distribución de información 'peligrosa': por ejemplo se han dado casos de personas que han aprendido a sintetizar
drogas a partir de información obtenida en la Internet; análogamente sería posible distribuir información detallada
sobre como fabricar explosivos, o incluso una bomba atómica.
Distribución de publicidad no deseada. Es tremendamente fácil recopilar una enorme lista de direcciones de
correo electrónico para distribuir a muy bajo costo cualquier propaganda de tipo comercial, político, religioso,
etc. a nivel mundial. Alguna gente recomienda en estos casos utilizar la técnica del 'ladrillo a portes pagados', es
decir, devolver al remitente un mensaje con unos cuantos Megabytes de información inútil. Esta acción tomada
por un número elevado de usuarios inutiliza el buzón y el servidor desde el que se distribuye la propaganda.
Discrepancias legales. Es posible que una información distribuida por la red desde un país sea ilegal en otro; por
ejemplo, ETA ha puesto un servidor Web en Suiza con información que en España se considera apología del
terrorismo. También es posible comprar al extranjero bienes de consumo sin pagar los impuestos
correspondientes a nuestro país.
Acceso a la Internet desde el trabajo para fines personales. Este tema, que ya hemos comentado, ha llevado a
algunas empresas a 'censurar' lo que sus empleados pueden consultar por la red.
Derecho a la privacidad. La única forma de obtener privacidad en la red es encriptando la información; sin
embargo, algunos países (Estados Unidos y Francia, por ejemplo) tienen regulaciones muy severas en ese sentido,
al punto de prohibir a los ciudadanos encriptar, salvo si el encriptado es lo bastante 'suave' como para poder
descifrarlo en caso necesario. Dicho de otro modo: el Estado siempre debe poder descifrar un mensaje si lo
considera necesario.
Anónimos: las redes de ordenadores permiten enviar mensajes anónimos. Si bien esto tiene sus ventajas, se
plantean problemas legales cuando se utiliza un anónimo por ejemplo para acusar a una persona.
1.3.- TIPOS DE REDES
De acuerdo con su tecnología de transmisión las redes se clasifican en:
· Redes broadcast (que significa radiodifusión en inglés)
· Redes punto a punto
Según su escala también se suelen clasificar en:
· Redes de área local (LAN, Local Area Network)
· Redes de área extensa (WAN, Wide Area Network)
En esta última clasificación también se distingue a veces una categoría intermedia, la formada por las redes de
área metropolitana (MAN, Metropolitan Area Network).
La combinación de estos dos criterios nos permite crear una matriz con cuatro categorías posibles; en la práctica
existen redes en cada una de estas cuatro categorías, si bien la mayoría encajan en dos de ellas:
LAN WAN
Broadcast La mayoría de las LANs (Ethernet, FDDI, Token Ring, etc.) Redes de transmisión vía
satélite
Punto a punto HIPPI, Fibre Channel La mayoría de las WANs (todas las basadas en enlaces telefónicos,
X.25, Frame Relay, RDSI, ATM, etc.)
1.3.1.- Redes broadcast
En las redes broadcast el medio de transmisión es compartido por todos los ordenadores interconectados.
Normalmente cada paquete transmitido es para un único destinatario, cuya dirección aparece en el paquete, pero
para saberlo cada máquina de la red ha de recibir o 'escuchar' cada paquete, analizar la dirección de destino y
averiguar si va o no dirigido a ella; las normas de buena educación 'telemática' establecen que un ordenador debe
descartar sin mas análisis todo paquete que no vaya dirigido a él; sin embargo, algunos programas llamados
'sniffers' se dedican a 'cotillear' todo lo que pasa por el cable, independientemente de quien sea su destinatario;
con un sniffer es muy fácil capturar cualquier cosa, por ejemplo los caracteres que viajan por la red en un proceso
de conexión averiguando así de manera rápida el userid y la password de un usuario cualquiera (por ejemplo
'root'). La única protección efectiva en las redes broadcast es el encriptado de la información.
A veces en una red broadcast lo que se quiere es precisamente enviar un paquete a todas las máquinas
conectadas. Esto se llama un envío broadcast. Asimismo es posible enviar un paquete dirigido a un subconjunto
de todas las máquinas de la red (subconjunto que ha de estar definido previamente); esto se conoce como envío
multicast (y el subconjunto se denomina grupo multicast). En algunos contextos cuando se habla de broadcast o
multicast el caso normal, en el que el paquete va dirigido a una máquina concreta, se conoce como envío unicast.
Como ejemplos de redes broadcast podemos citar prácticamente todas las tecnologías de red local: Ethernet (en
sus diversos tipos), Token Ring, FDDI, etc. También son redes broadcast las basadas en transmisión vía satélite.
En una red broadcast la capacidad o velocidad de transmisión indica la capacidad agregada de todas las máquinas
conectadas a la red; por ejemplo, la red conocida como Ethernet tiene una velocidad de 10 Mbps, lo cual significa
que la cantidad máxima de tráfico agregado de todos los equipos conectados no puede superar este valor.
Conviene mencionar en este punto que en telemática siempre que se especifican velocidades o capacidades de
transmisión los prefijos Kilo, Mega, etc., se utilizan con su significado métrico (103, 106, etc.), no con el
significado informático (210, 220, etc.); así 1 Mbps significa 1.000.000 bits/s, no 1.048.576 bits/s; análogamente
1 Kbps corresponde a 1.000 bits/s (no 1.024 bits/s). Sin embargo cuando no se trate de velocidades el significado
seguirá siendo el habitual, así por ejemplo si decimos que un determinado protocolo utiliza un tamaño máximo de
paquete de 64 Kbytes, o que hemos transmitido un fichero de 1 MByte, querremos decir que el paquete puede
contener hasta 65.536 Bytes, o que el fichero contiene 1.048.576 Bytes. Normalmente las velocidades o
capacidades de transmisión se miden en bits/segundo, mientras que en los demás casos se cuenta en Bytes.
1.3.2.- Redes punto a punto
Las redes punto a punto se construyen por medio de conexiones entre pares de ordenadores, también llamadas
líneas, enlaces, circuitos o canales (en inglés los términos equivalentes son 'lines', 'links', 'circuits', 'channels' o
'trunks'). Una vez un paquete es depositado en la línea el destino es conocido de forma unívoca y no es preciso en
principio que lleve la dirección de destino.
Los enlaces que constituyen una red punto a punto pueden ser de tres tipos de acuerdo con el sentido de la
transmisión:
Simplex: la transmisión sólo puede efectuarse en un sentido
Semi-dúplex o 'half-duplex': la transmisión puede hacerse en ambos sentidos, pero no simultáneamente
Dúplex o 'full-duplex': la transmisión puede efectuarse en ambos sentidos a la vez.
En los enlaces semi-dúplex y dúplex la velocidad de conexión es generalmente la misma en ambos sentidos, en
cuyo caso se dice que el enlace es simétrico; en caso contrario se dice que es asimétrico.
La gran mayoría de los enlaces en líneas punto a punto son dúplex simétricos. Así, cuando se habla de un enlace
de 64 Kbps sin especificar mas se quiere decir 64 Kbps en cada sentido, por lo que la capacidad total del enlace es
de 128 Kbps.
Al unir múltiples máquinas con líneas punto a punto es posible llegar a formar redes de topologías complejas en
las que no sea trivial averiguar cual es la ruta óptima a seguir para ir de un punto a otro, ya que puede haber
múltiples caminos posibles con distinto número de ordenadores intermedios, con enlaces de diversas velocidades
y distintos grados de ocupación. Como contraste, en una red broadcast el camino a seguir de una máquina a otra
es único , no existen ordenadores intermedios y el grado de ocupación es el mismo para todas ellas.
Cada uno de los ordenadores que participa en una red de enlaces punto a punto es un nodo de la red. Si el nodo
tiene un único enlace se dice que es un nodo terminal o 'end node', de lo contrario se dice que es un nodo
intermedio, de encaminamiento o 'routing node'. Cada nodo intermedio ha de tomar una serie de decisiones
respecto a por donde debe dirigir los paquetes que reciba, por lo que también se les llama nodos de conmutación
de paquetes, nodos de conmutación, conmutadores o encaminadores (los términos equivalentes en inglés son
respectivamente packet switching nodes, switching nodes, switches y routers). Dependiendo del tipo de red que
se trate nosotros utilizaremos las denominaciones router o conmutador.
Cualquier ordenador (por ejemplo una estación de trabajo UNIX, o incluso un PC con MS/DOS), puede actuar
como un router en una red si dispone del programa apropiado; sin embargo, se prefiere normalmente utilizar para
este fin ordenadores dedicados, con sistemas operativos en tiempo real y software específico, dejando los
ordenadores de propósito general para las aplicaciones del usuario; esto da normalmente mayor rendimiento y
fiabilidad. Tradicionalmente al ordenador de propósito general que se conecta a la red como nodo terminal
mediante un router se le denomina host, palabra inglesa que significa anfitrión (aunque esta denominación no se
utiliza nunca en este contexto). El conjunto de líneas de comunicación y routers que interconectan a los hosts
forman lo que se conoce como la subred de comunicaciones, o simplemente subred. Obsérvese que los hosts o
nodos terminales no forman parte de la subred. Si hacemos la analogía con la red telefónica diríamos que la
subred es el conjunto de cables y centralitas telefónicas, incluido el aplique de la pared donde conectamos el
teléfono, pero no formaría parte de la subred nuestro teléfono, que enchufamos al aplique.
Para llegar de un nodo a otro en una red se ha de atravesar uno o varios enlaces; el número de enlaces se
denomina en inglés 'hops', que significa saltos, y depende de la trayectoria seguida y de la topología de la red.
Cuando dos nodos no vecinos (es decir a mas de un 'hop' de distancia) desean intercambiar información lo han de
hacer a través de uno o varios nodos intermedios. Cuando un paquete se envía de un nodo al siguiente
normalmente el paquete es transmitido en su totalidad y almacenado; solo entonces el nodo receptor intenta
enviar el paquete al siguiente nodo de la red. Esto es lo que se conoce como una red de almacenamiento - reenvío
('store-and-forward') o red de conmutación de paquetes ('packet - switched'). Esta forma de proceder permite una
elevada fiabilidad incluso en entornos hostiles donde el número de errores puede ser elevado.
Dado que en una red punto a punto cada enlace puede tener una velocidad distinta, no podemos caracterizar la
red con un único dato de forma tan sencilla como en una red broadcast; sería preciso adjuntar un esquema de la
topología indicando el tipo de cada enlace (simplex, semi-dúplex o dúplex) y su velocidad (en cada sentido si
fuera asimétrico).
1.3.3.- Redes de área local
Las redes de área local tienen generalmente las siguientes características:
· Tecnología broadcast: medio compartido
· Cableado específico, instalado normalmente a propósito
· Velocidad de 1 a 100 Mbps
· Extensión máxima de unos 3 KM (FDDI llega a 200 Km)
Las LANs mas conocidas y extendidas son la Ethernet a 10 Mbps, la IEEE 802.5 o Token Ring a 4 y 16 Mbps, y
la FDDI a 100 Mbps. Estos tres tipos de LAN han permanecido prácticamente sin cambios desde finales de los
ochenta, por lo que a menudo se les referencia en la literatura como 'LANs tradicionales ('legacy LANs' en inglés)
para distinguirlas de otras mas modernas aparecidas en los 90, tales como la Fast Ethernet (100 Mbps).
A menudo las LANs requieren un tipo de cableado específico (de cobre o de fibra); esto no suele ser un problema
ya que al instalarse en una fábrica, campus o similar, se tiene un control completo sobre el entorno y las
condiciones de instalación.
El alcance limitado de las LANs permite saber el tiempo máximo que un paquete tardará en llegar de un extremo
a otro de la red, lo cual permite aplicar diseños que de otro modo no serían posibles, y simplifica la gestión de la
red.
Como consecuencia del alcance limitado y del control en su cableado, las redes locales suelen tener un retardo
muy bajo en las transmisiones (decenas de microsegundos) y una tasa de errores muy baja.
La topología básica de las redes locales suele ser de bus (p. ej. Ethernet) o de anillo (Token Ring o FDDI). Sin
embargo, pueden hacerse topologías mas complejas utilizando elementos adicionales, tales como repetidores,
puentes, conmutadores, etc., como veremos más adelante.
En épocas recientes se ha popularizado una técnica para aumentar el rendimiento de las redes locales, que
consiste en dividir una LAN en varias mas pequeñas, con lo que el ancho de banda disponible para cada uno es
mayor; las diversas LANs así formadas se interconectan en un equipo especial denominado conmutador LAN (o
LAN switch); en casos extremos se puede llegar a dedicar una red por equipo, disponiendo así de todo el ancho
de banda para él.
En años recientes se ha empezado a utilizar una tecnología de redes telefónicas, y por tanto típicamente de redes
WAN, para la construcción de redes locales; esta tecnología, denominada ATM (Asynchronous Transfer Mode),
dará mucho que hablar en el futuro.
1.3.4.- Redes MAN
En principio se considera que una MAN abarca una distancia de unas pocas decenas de kilómetros, que es lo que
normalmente se entiende como área metropolitana. Existe solamente una red característica de las MANs, la
conocida como IEEE 802.6 o DQDB (Distributed Queue Dual Bus), que puede funcionar a diversas velocidades
entre 34 y 155 Mbps con una distancia máxima de unos 160 Km. En realidad la distinción de MANs en base a la
distancia es un tanto arbitraria, ya que FDDI puede llegar a 200 Km pero raramente se la clasifica como MAN, al
no ser un servicio ofrecido por las compañías telefónicas, cosa que sí ocurre con DQDB en algunos países.
La tecnología DQDB ha tenido escasa difusión. Su mayor mérito ha sido servir como predecesora de ATM en
algunos aspectos. En el futuro es de esperar que la red DQDB caiga en desuso o desaparezca ya que su espacio
ha sido ocupado por completo por las redes basadas en ATM.
Un caso de redes especialmente difíciles de clasificar son las formadas por empresas de televisión por cable.
Desde el punto de vista técnico estas redes se podrían considerar tipo LAN, y como tal las estudiaremos; sin
embargo el hecho de que sean gestionadas por empresas especializadas y ofrecidas como un servicio contratable
por los usuarios les da unas características de WAN desde el punto de vista legal. Estas circunstancias unidas a su
alcance máximo (entre 160 y 200 Km) hacen que las podamos considerar en cierto modo como redes MAN.
El término MAN suele utilizarse también en ocasiones para denominar una interconexión de LANs ubicadas en
diferentes recintos geográficos (por ejemplo diferentes campus) cuando se dan las siguientes circunstancias:
La interconexión hace uso de enlaces telefónicos de alta o muy alta velocidad (comparable a la de las propias
LANs interconectadas).
La interconexión se efectúa de forma transparente al usuario, que aprecia el conjunto como una única LAN por lo
que se refiere a servicios, protocolos y velocidades de transmisión.
Existe una gestión unificada de toda la red
1.3.5.- Redes WAN
Las redes de amplio alcance se utilizan cuando no es factible tender redes locales, bien porque la distancia no lo
permite por el costo de la infraestructura o simplemente porque es preciso atravesar terrenos públicos en los que
no es posible tender infraestructura propia. En todos estos casos lo normal es utilizar para la transmisión de los
datos los servicios de una empresa portadora. Hasta hace poco este tipo de servicios eran ofrecidos en régimen de
monopolio por las compañías telefónicas en la mayoría de los países de Europa. Afortunadamente esto esta
cambiando rápidamente siendo posible por ejemplo en España contratar hoy en día servicios portadores de datos
con Retevisión, o en breve con diversas compañías de televisión por cable, si bien en muchos casos la mayor
penetración de Telefónica hace que haya un monopolio de facto.
En la literatura especializada es frecuente referirse a las compañías telefónicas europeas genéricamente con la
denominación PTT, abreviatura de Post, Telegraph and Telephone. Esto se debe a que en muchos países de
Europa la empresa que se encargaba tradicionalmente de las transmisiones telefónicas era la misma que ofrecía el
servicio de correos y telégrafos, todo esto en régimen de monopolio. Con la liberalización del servicio de
telefonía y la aparición de diversas compañías competidoras la denominación PTT se esta sustituyendo por la de
operador (que quiere decir que opera la red); la costumbre hace que en muchos casos se siga aun utilizando el
término PTT.
Las redes WAN se implementan casi siempre haciendo uso de enlaces telefónicos que han sido diseñados
principalmente para transmitir la voz humana, ya que este es el principal negocio de las compañías telefónicas.
Normalmente la infraestructura esta fuera del control del usuario, estando supeditado el servicio disponible a la
zona geográfica de que se trate. Conseguir capacidad en redes WAN suele ser caro, por lo que generalmente se
solicita el mínimo imprescindible.
Hasta tiempos recientes las conexiones WAN se caracterizaban por su lentitud, costo y tasa de errores
relativamente elevada. Con la paulatina introducción de fibras ópticas y líneas digitales en las infraestructuras de
las compañías portadoras las líneas WAN han reducido apreciablemente su tasa de errores; también se han
mejorado las capacidades y reducido los costos. A pesar del inconveniente que en ocasiones pueda suponer el uso
de líneas telefónicas tienen la gran virtud de llegar prácticamente a todas partes, que no es poco.
Con la excepción de los enlaces vía satélite, que utilizan transmisión broadcast, las redes WAN se implementan
casi siempre con enlaces punto a punto, por lo que prácticamente todo lo que hemos dicho en el apartado de
redes punto a punto es aplicable a las redes WAN.
1.3.6.- Redes Inalámbricas y movilidad.
En los últimos años ha habido un auge considerable de los sistemas de telefonía inalámbrica. Algunos usuarios
requieren facilidades para conectar por radioenlaces sus ordenadores personales desde cualquier lugar o mientras
se encuentran viajando en tren, autobús, etc. El sistema de telefonía inalámbrica digital GSM (Global System for
Mobile communications), muy extendido en Europa, utiliza un canal digital para transmitir la voz, por lo que es
posible conectar un ordenador portátil mediante un teléfono GSM, sin necesidad de módem. En algunos países ya
se han hecho experimentos de conexiones inalámbricas a 64 Kbps utilizando una versión modificada del GSM.
La conexión de ordenadores con total movilidad es importante en aplicaciones tales como flotas de taxis,
camiones, autobuses, servicios de emergencia, fines militares, etc. En estos casos se emplean, además de los ya
familiares ordenadores portátiles conocidos como 'laptops', otros aún más pequeños que se conocen como
'palmtop', asistente digital personal o PDA (Personal Digital Assistant), y que son algo intermedio entre un
ordenador portátil y una agenda electrónica.
Las redes inalámbricas también tienen utilidad en algunos casos donde no se requiere movilidad, como en las
LANs inalámbricas. Por ejemplo, una empresa que desea establecer una nueva oficina y por rapidez,
provisionalidad de la ubicación o simples razones estéticas no desea cablear el edificio puede utilizar una LAN
inalámbrica, consistente en una serie de equipos transmisores-receptores. Las LAN inalámbricas son generalmente
mas lentas que las normales (1-2 Mbps) y tienen una mayor tasa de errores, pero para muchas aplicaciones
pueden ser adecuadas.
La movilidad es importante también en casos en que no hay involucradas conexiones inalámbricas. Por ejemplo
un representante que desee conectar con su oficina desde su ordenador portátil cuando se encuentra de viaje
puede optar por llamar a su oficina directamente, pagando posiblemente una costosa llamada de larga distancia, o
bien puede llamar al punto de presencia (POP, Point Of Presence) mas próximo de algún proveedor de servicios
de comunicación, y a través de este acceder a su oficina por una infraestructura compartida que le resulte mas
barata (por ejemplo la Internet); en este último caso se dan una serie de problemas de solución no trivial en
cuanto a la seguridad y el correcto encaminamiento del tráfico.
1.3.7.- Internetworking
Si bien las clasificaciones de redes antes estudiadas tienen interés como medio de sistematizar su estudio, es obvio
que en la realidad casi nunca se da uno de esos tipos en estado puro. Por ejemplo, una LAN (que normalmente
será una red de tipo broadcast) casi siempre dispondrá de un router que la interconecte a una WAN (que
generalmente consistirá en un conjunto de enlaces punto a punto). Esta interconexión de tecnologías diferentes se
conoce como 'internetworking' (que podríamos intentar traducir como 'interredes'). El router que interconecta
redes diferentes está físicamente conectado a todas las redes que se desean interconectar.
Además de la combinación de medios físicos diversos es posible encontrarse con necesidades de internetworking
en un mismo medio físico; este es el caso cuando coexisten protocolos de comunicación diferentes; por ejemplo,
en una misma red ethernet puede haber unos ordenadores utilizando el protocolo TCP/IP y otros utilizando
DECNET (protocolo típico de la marca de ordenadores Digital). Al ser protocolos diferentes son completamente
independientes y no se pueden hablar entre sí, por lo que un usuario de un ordenador TCP/IP no podría por
ejemplo enviar un mensaje de correo electrónico a uno de un ordenador DECNET. Sin embargo, es posible
instalar en un ordenador ambos protocolos, y un programa de conversión de correo electrónico, de forma que los
usuarios de ambas redes puedan intercambiar mensajes. A la máquina que interconecta el correo electrónico de
los dos protocolos se la denomina pasarela ('gateway' en inglés). Generalmente las pasarelas han de
implementarse a nivel de aplicación; así disponer en nuestro ejemplo de una pasarela para el correo electrónico no
significa que podamos transferir ficheros entre máquinas TCP/IP y DECNET, ya que para esto haría falta una
pasarela del servicio de transferencia de ficheros. Una misma máquina puede actuar como pasarela para varios
servicios. Haciendo una analogía podemos decir que los protocolos son como idiomas y las pasarelas equivalen a
servicios de traducción que permiten entenderse a personas que hablan diferentes lenguas.
Cuando una red esta formada por la interconexión de varias redes se le denomina internet. A principios de los
setenta se creó en los Estados Unidos una internet mediante la unión de varias redes que utilizando medios de
transmisión diversos empleaban un conjunto común de protocolos en el nivel de red y superiores, denominados
TCP/IP. Con el tiempo la denominación Internet (con I mayúscula) terminó convirtiéndose en el nombre propio
de dicha red, muy conocida en nuestros días.
1.4.- ARQUITECTURA DE REDES
En los inicios de la informática el diseño de un ordenador resultaba en sí mismo una tarea tan compleja que no se
tomaba en consideración la compatibilidad con otros modelos de ordenadores; la preocupación fundamental era
que el diseño fuera correcto y eficiente. Como consecuencia de esto era preciso crear para cada nuevo modelo de
ordenador un nuevo sistema operativo y conjunto de compiladores. Los programas escritos en lenguaje máquina
o en ensamblador (que entooces eran la mayoría) tenían que ser prácticamente reescritos para cada nuevo modelo
de ordenador.
En 1964 IBM anunció un nuevo ordenador denominado Sistema/360. Se trataba en realidad de una familia
formada por varios modelos que compartían una arquitectura común (era la primera vez que se utilizaba este
término referido a ordenadores). La arquitectura establecía unas especificaciones comunes que hacían
compatibles a todos los modelos de la familia (conjunto de instrucciones, forma de representar los datos, etc.),
pudiendo así ejecutar los mismos programas, utilizar el mismo sistema operativo, compiladores, etc. en toda la
familia, que comprendía una gama de ordenadores de potencias y precios diversos. El nombre 360 se eligió en
base a la década en que se creó (los 60) y a la idea de que era una arquitectura polivalente, que pretendía servir
para aplicaciones de todo tipo (360º, o sea que puede ir en todas direcciones). La arquitectura 360 ha ido
evolucionando hasta desembocar en nuestros días en la arquitectura ESA/390, utilizada en los grandes
ordenadores IBM (mainframes) actuales, que son aún la base de las aplicaciones críticas en grandes empresas
(bancos, líneas aéreas, etc.). Todos los fabricantes de ordenadores actuales utilizan una o varias arquitecturas
como base para el diseño de sus equipos.
Las primeras redes de ordenadoresstuvieron unos inicios muy similares a los primeros ordenadores: Las redes y
los protocolos se diseñaban pensando en el hardware a utilizar en cada momento, sin tener en cuenta la evolución
previsible, ni por supuesto la interconexión y compatibilidad con equipos de otros fabricantes (seguramente
muchos creían que bastante trabajo suponía conseguir que las cosas funcionaran como para perder el tiempo con
florituras¡). A medida que la tecnología avanzaba y se mejoraba la red se vivieron experiencias parecidas a las de
los primeros ordenadores: los programas de comunicaciones, que habían costado enormes esfuerzos de
desarrollo, tenían que ser reescritos para utilizarlos con el nuevo hardware, y debido a la poca modularidad
prácticamente nada del código era aprovechable.
El problema se resolvió de forma análoga a lo que se había hecho con los ordenadores. Cada fabricante elaboró
su propia arquitectura de red, que permitía independizar las funciones y el software del hardware concreto
utilizado. De esta forma cuando se quería cambiar algún componente sólo la función o el módulo afectado tenía
que ser sustituido. La primera arquitectura de redes fue anunciada por IBM en 1974, justo diez años después de
anunciar la arquitectura S/360, y se denominó SNA (Systems Network Architecture). La arquitectura SNA se
basa en la definición de siete niveles o capas, cada una de las cuales ofrece una serie de servicios a la siguiente, la
cual se apoya en esta para implementar los suyos, y así sucesivamente. Cada capa puede implementarse en
hardware, software o una combinación de ambos. El módulo (hardware y/o software) que implementa una capa
en un determinado elemento de la red debe poder sustituirse sin afectar al resto de la misma, siempre y cuando el
protocolo utilizado se mantenga inalterado. Dicho en otras palabras, SNA es una arquitectura altamente modular
y estructurada. No vamos a entrar en mas detalles sobre la arquitectura SNA, ya que cae fuera de los objetivos
del presente curso, pero sí diremos que el modelo de capas que utiliza ha sido la base de todas las arquitecturas de
redes actualmente en uso, incluidas las basadas en el modelo OSI (Open Systems Interconnection) y el TCP/IP
(Transmission Control Protocol/Internet Protocol) que veremos en detalle más adelante.
Las ideas básicas del modelo de capas son las siguientes:
La capa n ofrece una serie de servicios a la capa n+1.
La capa n solo 've' los servicios que le ofrece la capa n-1.
La capa n en un determinado sistema solo se comunica con su homóloga en el sistema remoto (comunicación de
igual a igual o 'peer-to-peer'). Esa 'conversación' se efectúa de acuerdo con una serie de reglas conocidas como
protocolo de la capa n.
La comunicación entre dos capas adyacentes en un mismo sistema se realiza de acuerdo con una interfaz. La
interfaz es una forma concreta de implementar un servicio y no forma parte de la arquitectura de la red.
La arquitectura de una red queda perfectamente especificada cuando se describen las capas que la componen, su
funcionalidad, los servicios que implementan y los protocolos que utilizan para hablar con sus 'iguales'. El
conjunto de protocolos que utiliza una determinada arquitectura en todas sus capas se denomina pila de
protocolos ('protocol stack' en inglés); así es frecuente oír hablar de la pila de protocolos OSI, SNA, TCP/IP o
DECNET, por ejemplo.
Para mejor comprender como funciona el modelo de arquitectura de redes basado en capas hagamos una
analogía. Supongamos que un ejecutivo de la empresa A desea enviar de forma urgente un importante informe a
un colega suyo en la empresa B. Para esto hablará con aquél notificándole el envío y a continuación pasará a su
secretaria el informe con las instrucciones correspondientes. La secretaria llamará a la secretaria de B para
averiguar la dirección exacta, pondrá el informe en un sobre y llamará a un servicio de mensajería, que enviará a
un motorista para que recoja el paquete y lo lleve al aeropuerto. Cuando el paquete llega al aeropuerto de destino
es recogido allí por otro motorista que lo lleva a la oficina de la empresa B y lo entrega a la secretaria; ésta se
ocupará de los trámites administrativos (pagar al mensajero, abrir el paquete, comprobar su contenido, acusar
recibo a la secretaria de A, etc.) y lo pasará después a su jefe, el cual una vez estudio el informe llamará al
ejecutivo de A.
Obsérvese que en el proceso anterior existen diferentes niveles claramente diferenciados: los ejecutivos, las
secretarias, los motoristas, y por último la empresa de líneas aéreas que se ocupa del transporte físico de la
mercancía. En todos los niveles (menos probablemente el más bajo) hay dos entidades, la transmisora (A) y la
receptora (B). Si todo ocurre según lo previsto cada entidad sólo hablará con su correspondiente en el otro lado,
y con sus entidades vecinas, es decir, el jefe de A sólo habla con el jefe de B y con su secretaria, la secretaria
habla con su jefe, con el motorista y con la otra secretaria para confirmar el envío, etc. En ningún caso se
contempla que la secretaria de A hale con el ejecutivo de B. Si por ejemplo la secretaria de A es sustituida por
enfermedad por otra persona los procedimientos seguirán funcionando, siempre y cuando la secretaria suplente
desarrolle la misma función. Las variaciones de carácter interno sólo han de ser conocidas por las entidades
contiguas, por ejemplo, el motorista de B podría ser reemplazado por una furgoneta de reparto, y este hecho solo
ha de ser conocido por la secretaria de B y por la persona que entrega los paquetes en el aeropuerto. Esto es lo
que denominamos una interfaz. Obsérvese que el modelo de capas simplifica considerablemente la tarea de cada
una de las entidades, que sólo tiene que preocuparse de una pequeña parte de todo el mecanismo. En esencia se
trata de aplicar a la resolución de problemas la vieja fórmula de divide y vencerás.
Cuando un sistema desea enviar un mensaje a un sistema remoto normalmente la información se genera en el nivel
más alto; conforme va descendiendo se producen diversas transformaciones, por ejemplo adición de cabeceras, de
colas, de información de control, la fragmentación en paquetes mas pequeños si es muy grande (o mas raramente
la fusión con otros si es demasiado pequeño), etc. Todas estas operaciones se invierten en el sistema remoto en
las capas correspondientes, llegando en cada caso a la capa correspondiente en el destino un mensaje igual al
original.
1.4.1.- Decisiones en el diseño de arquitecturas de redes.
Cuando se diseña una arquitectura de red hay una serie de aspectos y decisiones fundamentales que condicionan
todo el proceso. Entre estos cabe mencionar los siguientes:
Direccionamiento: cada capa debe poder identificar los mensajes que envía y recibe. En ocasiones un mismo
ordenador puede tener varias instancias de una misma capa, por lo que la sola identificación del ordenador puede
no ser suficiente.
Normalmente cualquier protocolo admite comunicación en ambos sentidos (dúplex); pero no siempre se permite
que esta ocurra de forma simultánea (full-dúplex). también se debe determinar si se definirán prioridades, y cuáles
serán éstas.
En cualquier comunicación es preciso establecer un control de errores, ya que los canales de comunicación no son
totalmente fiables. Es preciso decidir que código de detección y/o corrección de errores se va a utilizar, y en que
capa o capas se va a llevar a cabo. Generalmente a medida que los medios de transmisión mejoran y las tasas de
errores disminuyen la detección/corrección se va suprimiendo de las capas inferiores y dejando al cuidado de las
más altas, ya que es un proceso costoso que puede llegar a ralentizar apreciablemente la transmisión.
En algunos casos se debe tener en cuenta la posibilidad de que los paquetes lleguen a su destino en orden
diferente al de envío.
Debe contemplarse la posibilidad de que el receptor no sea capaz de 'digerir' la información enviada por el
transmisor. Para esto es conveniente disponer de algún mecanismo de control de flujo y notificación para indicar
la congestión.
Normalmente los equipos funcionan de forma óptima cuando el tamaño de los mensajes que se envían esta dentro
de un cierto rango. Para evitar los problemas que puede producir el envío de mensajes muy grandes o muy
pequeños se suelen contemplar mecanismos de fragmentación y reagrupamiento. Es importante que estos
mecanismos estén claramente especificados para evitar la destrucción del mensaje en tránsito.
1.4.2.- Interfaces y servicios
Debido a su importancia vamos a estudiar con mas detalle que es un servicio. Empezaremos con algunas
definiciones.
Llamaremos entidad a los elementos activos en cada capa. Una entidad puede ser un proceso, un componente
hardware, o una combinación de ambos. Un ordenador puede tener una o varias entidades en cada capa (por
ejemplo un ordenador con dos tarjetas de conexión a LAN).
Llamaremos entidades iguales o entidades pares ('peer entities' en inglés) a dos entidades homólogas, es decir
entidades diferentes de la misma capa (generalmente estarán en diferentes máquinas, pero podrían estar en la
misma).
Las entidades de la capa n implementan los servicios que utiliza la capa n+1. En este caso la capa n actúa como el
proveedor del servicio y la capa n+1 es el usuario del servicio. El uso que la capa n haga de los servicios de la
capa n-1 es algo que no afecta ni incumbe a la capa n+1.
Los servicios están disponibles en los SAPs (Service Access Points). Los SAPs de la capa n son los puntos donde
la capa n+1 puede acceder a los seevicios ofertados. Cada SAP de cada entidad de la capa n tiene una dirección
que le identifica de forma única en toda la red.
Denominamos interfaz al conjunto de reglas que gobiernan el intercambio de información entre capas. En una
comunicación la entidad de la capa n+1 intercambia una IDU (Interface Data Unit) con la entidad de la capa n a
través del SAP (ver fig. 1-12 del Tanenbaum). La IDU esta formada por una SDU (Service Data Unit) e
información de control. La SDU es la información que se transmite a la entidad equivalente (peer) en el lado
contrario, y de allí a la capa n+1 a través de su SAP. La información de control es necesaria como su nombre
indica para que la capa n haga correctamente su trabajo, pero no es parte de los datos mismos. En la
especificación de una arquitectura solo es necesario describir la estructura de la SDU, pero no la de la IDU; ésta
se describe en la interfaz, que puede ser distinta para cada implementación.
Para transferir la SDU (Service Data Unit) la entidad de la capa n puede tener que fragmentarla en varias PDUs
(Protocol Data Units). Cada PDU llevará una cabecera que permitirá a la entidad de la capa n en el otro lado
ensamblar de nuevo la SDU correctamente.
1.4.3.- Servicios orientados y no orientados a conexión
En una arquitectura de redes cada capa utiliza los servicios de la capa inmediatamente inferior para comunicar
con la correspondiente del otro extremo. En función de como se establezca esa comunicación suelen distinguirse
dos tipos de servicios: orientados a conexión y no orientados a conexión.
En el servicio orientado a conexión, también llamado CONS (Connection Oriented Network Service), primero se
establece el canal de comunicación, después se transmiten los datos, y por último se termina la conexión. Dicha
'conexión' se denomina circuito virtual (VC, virtual circuit). Una vez establecido el VC el camino físico que van a
seguir los datos está determinado; los paquetes deben ir todos por él desde el origen al destino, y llegar en el
mismo orden con el que han salido. Dado que el VC establece de forma clara el destino, los paquetes no necesitan
contener su dirección. Generalmente se distinguen dos tipos de circuitos virtuales: conmutados, también llamados
SVCs (Switched Virtual Circuits), y permanentes, conocidos también como PVCs (Permanent Virtual Circuits).
Los SVCs se establecen y terminan a petición del usuario, normalmente cuando hay paquetes que se quieren
transmitir. Los PVCs están establecidos todo el tiempo que la red está operativa (o al menos eso es lo que se
pretende). Al hablar de circuitos utilizaremos las denominaciones 'establecer' y 'terminar' en vez de abrir y cerrar,
ya que estos términos tienen un significado completamente opuesto según se trate de ingenieros informáticos o
electrónicos (para un ingeniero electrónico un circuito esta abierto cuando esta interrumpido, es decir cuando no
puede viajar por el ninguna señal).
En el servicio no orientado a conexión, llamado también CLNS (ConnectionLess Network Service) la
comunicación se establece de manera menos formal. Cuando una entidad tiene información que transmitir
sencillamente la envía en forma de paquetes, confiando que estos llegaran a su destino mas pronto o mas tarde.
No se establece previamente un VC ni otro tipo de canal de comunicación extremo a extremo; los paquetes
pueden ir por caminos físicos diversos, y deben incluir cada uno la dirección de destino. Los paquetes pueden ser
almacenados por nodos intermedios de la red, y reenviados mas tarde. Aunque lo normal es que lleguen en el
mismo orden con que han salido, esto no esta garantizado como ocurría en el servicio orientado a conexión
debido al almacenamiento en nodos intermedios y a la diversidad de caminos físicos posibles. A los paquetes
enviados en un servicio no orientado a conexión se les denomina datagramas, ya que cada paquete viaja hacia su
destino de forma completamente independiente de los demás como si fuera un telegrama..
Generalmente se suelen explicar los modelos orientado y no orientado a conexión con dos analogías: el sistema
telefónico y el sistema postal. El sistema telefónico es un ejemplo de servicio orientado a conexión, mientras que
el sistema postal es un servicio no orientado a conexión. La analogía es bastante exacta salvo por el hecho de que
en redes telemáticas la diferencia en el tiempo de entrega del mensaje entre servicios CONS y CLNS no es tan
grande como la anterior comparación podría hacer pensar.
En cualquiera de los dos tipos de servicio antes mencionados es posible que se produzca pérdida de información;
también puede ocurrir que el tiempo de envío del paquete, también llamado retardo o latencia ('delay' y 'latency'
respectivamente en inglés) sea demasiado grande o fluctúe dentro de un amplio rango debido a la carga o
congestión en la red (el término inglés usado para denominar dicha fluctuación es jitter, que literalmente significa
mieditis, temblar de miedo). En algunos casos se requiere una entrega fiable, es decir que se garantice la entrega
de los paquetes, o un retardo y/o jitter garantizados, o sea no superiores a un determinado valor. Por ejemplo si
transferimos un fichero, normalmente dividiéndolo en múltiples paquetes, necesitaremos un servicio fiable en la
entrega, pero podemos tolerar un retardo o jitter mas o menos grande; por el contrario la voz, o el vídeo (imagen
en movimiento) toleran un pequeño porcentaje de pérdidas, pero requieren un retardo y un jitter reducidos y
constantes. Cuando al establecer una comunicación se solicita un nivel mínimo para alguno de éstos parámetros
se dice que se requiere una calidad de servicio (llamada QoS, Quality of Service). La calidad de servicio estipula
unos mínimos que la red ha de satisfacer para efectuar la conexión, por ejemplo 'transmisión fiable con un retardo
no superior a 100 ms'; es posible que la red no sea capaz de satisfacer la calidad solicitada, en cuyo caso podría
hacer una propuesta alternativa, a modo de regateo (por ejemplo, 'no puedo asegurar 100 ms de retardo, lo
mínimo es 250ms, ¿estás conforme?') Una vez pactadas las condiciones de la conexión éstas actúan a modo de
contrato que obliga a la red a dar la calidad de servicio prometida al usuario. No todos los protocolos o redes
ofrecen la posibilidad de negociar calidades de servicio; en estos casos el protocolo simplemente aprovecha los
medios disponibles lo mejor que puede, intentando evitar las congestiones y situaciones críticas en lo posible, y
repartir los recursos entre los usuarios de manera mas o menos equilibrada; esta estrategia se denomina del 'mejor
esfuerzo' (o también 'best effort'). Como ejemplos de redes con QoS podemos citar ATM, como ejemplos de
redes 'best effort' podemos mencionar TCP/IP (la Internet) y Ethernet.
1.4.4.- Primitivas de servicio
Recordemos que, en el modelo de capas, cada capa ofrece sus servicios a la siguiente. El servicio se define por un
conjunto de operaciones u órdenes que la capa superior puede mandar a la capa inferior. Dicho conjunto de
operaciones se denomina primitivas.
Vamos a analizar en detalle las primitivas que participan en el establecimiento y terminación de una conexión
entre la capa n de dos sistemas llamados A y B. La entidad A.n (es decir, la capa n del sistema A) inicia la
conexión emitiendo la primitiva CONNECT.request, que provoca la transferencia de una IDU (Interface Data
Unit) a través del SAP (Service Access Point) a la entidad A.n-1; ésta extrae la información de control y la
interpreta creando la SDU (Service data Unit), que convierte en una o varias PDUs (Protocol Data Units); las
PDUs son transferidas a B.n-1, que regenera a partir de ello la SDU, luego la información de control
correspondiente y con ambos la IDU; una vez dispone de la IDU la transmite a B.n a través del SAP mediante la
primitiva CONNECT.indication, que le indica a B.n que alguna entidad desea establecer conexión con ella. La
entidad B.n emite entonces la primitiva CONNECT.response para indicar si acepta o rechaza la conexión (las
primitivas pueden llevar parámetros y sería aquí donde se indicaría esto). La respuesta se traduce en un paquete
que B.n-1 envía a A.n-1, el cual informa a A.n de la situación mediante la primitiva CONNECT.confirm.
Obsérvese que el mismo evento origina diferentes primitivas en cada lado. Una CONNECT.request produce una
CONNECT.indication en el lado contrario, y la CONNECT.response se convierte en CONNECT.confirm. Existe
una cierta simetría entre las primitivas, ya que a una CONNECT.request siempre le corresponderá una
CONNECT.indication en el lado opuesto (salvo que falle la comunicación).
En este ejemplo hemos hecho un servicio confirmado, es decir, hemos verificado que la conexión se establecía,
para lo cual ha tenido que enviarse un paquete en cada sentido. Se podría haber hecho una conexión no
confirmada, para lo cual sencillamente se habría emitido la CONNECT.request y la CONNECT.indication.
Una vez establecida la conexión lo normal sería transferir datos, y finalmente terminar la conexión. Un ejemplo
del conjunto de primitivas que se emitirían a lo largo de una conexión podría ser el siguiente:
En A En B
CONNECT.request
CONNECT.indication
CONNECT.response
CONNECT.confirm
DATA.request
DATA.indication
DATA.request
DATA.indication
DISCONNECT.request
DISCONNECT.indication
Aquí hemos introducido cuatro nuevas primitivas para poder transferir datos y terminar la conexión. Obsérvese
que como antes una primitiva request va seguida siempre de una indication en el lado contrario. En este ejemplo
hemos supuesto que se intercambiaban únicamente dos paquetes de datos.
Como ya hemos dicho las primitivas pueden llevar parámetros, y de hecho casi siempre los llevan. Por ejemplo
una CONNECT.request llevará la máquina con la que se desea conectar, una CONNECT.indication dirá la
máquina que quiere conectar con nosotros, etc. La descripción detallada de estos argumentos, su significado, etc.,
no es parte de la especificación de las primitivas (y por tanto del servicio) sino del protocolo. El protocolo puede
modificarse sin necesidad de cambiar las primitivas. Por ejemplo, un protocolo puede establecer que el servicio de
establecimiento de conexión sea confirmado y otro que no lo sea, y ambos pueden utilizar el mismo conjunto de
primitivas antes descrito.
Una vez mas diremos que la interfaz no forma parte del protocolo. Por ejemplo imaginemos en el caso anterior
que las entidades A.n y A.n-1 acuerdan que la SDU estará codificada en EBCDIC, mientras que B.n y B.n-1
acuerdan utilizar ASCII. Si el protocolo de la capa n-1 establece que la PDU estará en ASCII, entonces A.n-1
sabe que deberá realizar la conversión de códigos cada vez que construya una PDU a partir de una SDU, o
viceversa.
1.5.- MODELOS DE REFERENCIA
Hasta aquí hemos hablado del modelo de capas en un sentido genérico. Vamos a hablar ahora con cierto detalle
de las dos arquitecturas de redes mas importantes en la actualidad, correspondientes a los protocolos OSI (Open
Systems Interconnection) y TCP/IP (Transmission Control Protocol/Internet Protocol). Conviene destacar que la
arquitectura es una entidad abstracta, mas general que los protocolos o las implementaciones concretas en que
luego se materializan éstos. Típicamente para cada capa de una arquitectura existirán uno o varios protocolos, y
para cada protocolo habrá múltiples implementaciones. Las implementaciones cambian continuamente; los
protocolos ocasionalmente se modifican o aparecen otros nuevos que coexisten con los anteriores o los dejan
anticuados; sin embargo una vez definida una arquitectura ésta permanece esencialmente intacta y muy raramente
se modifica.
1.5.1.- El modelo de referencia OSI
Después de la especificación de SNA por parte de IBM cada fabricante importante definió su propia arquitectura
de redes; así la evolución de los productos de comunicaciones estaba garantizada, pero no se había resuelto el
problema de la interoperabilidad entre diferentes fabricantes. Debido a la posición de hegemonía que IBM
disfrutaba en los años 70 y principios de los ochenta la compatibilidad con IBM era un requisito necesario, por lo
que la mayoría de los fabricantes tenían implementaciones de los protocolos SNA para sus productos, o estas
estaban disponibles a través de terceros. Así, la forma mas sencilla de interconectar dos equipos cualesquiera era
conseguir que ambos hablaran SNA.
En 1977 la ISO (International Organization for Standardization) consideró que esta situación no era la mas
conveniente, por lo que entre 1977 y 1983 definió la arquitectura de redes OSI con el fin de promover la creación
de una serie de estándares que especificaran un conjunto de protocolos independientes de cualquier fabricante. Se
pretendía con ello no favorecer a ninguno a la hora de desarrollar implementaciones de los protocolos
correspondientes, cosa que inevitablemente habría ocurrido si se hubiera adoptado alguna de las arquitecturas
existentes, como la SNA de IBM o la DNA (Digital Network Architecture) de Digital. Se esperaba llegar a
convertir los protocolos OSI en el auténtico Esperanto de las redes telemáticas. Por diversas razones que
veremos luego el éxito de los protocolos OSI en la práctica ha sido mucho menor de lo inicialmente previsto
(cosa que por cierto también le ha ocurrido al Esperanto, aparentemente).
Seguramente la aportación más importante de la iniciativa OSI ha sido precisamente su arquitectura. Ésta ha
servido como marco de referencia para describir multitud de redes correspondientes a diversas arquitecturas, ya
que la arquitectura OSI es bien conocida en entornos de redes, y su generalidad y no dependencia de ningún
fabricante en particular le hacen especialmente adecuada para estos fines. Por este motivo generalmente a la
arquitectura OSI se la denomina Modelo de Referencia OSI, o también OSIRM (OSI Reference Model). Por
extensión hoy en día se utiliza a menudo el término modelo de referencia para referirse a una arquitectura de red;
así oímos hablar del Modelo de Referencia TCP/IP, el Modelo de Referencia ATM, etc.
El modelo OSI define siete capas, curiosamente como en la arquitectura SNA si bien la funcionalidad es diferente.
Las capas son las siguientes:
1? Física
2? Enlace
3? Red
4? Transporte
5? Sesión
6? Presentación
7? Aplicación
La ISO ha especificado protocolos para todas las capas, aunque algunos son poco utilizados. En función del tipo
de necesidades del usuario no siempre se utilizan todas ellas.
Pasaremos a describir brevemente las funciones desarrolladas por cada una de las capas.
1.5.1.1-La Capa Física
Esta capa transmite los bits entre dos entidades (nodos) directamente conectadas. Puede tratarse de un enlace
punto a punto o de una conexión multipunto (una red broadcast, por ejemplo Ethernet). La comunicación puede
ser dúplex, semi-dúplex o simplex. Si la información se transmite por señales eléctricas se especifican los voltajes
permitidos y su significado (1 ó 0) y análogamente para el caso de fibra óptica. Se especifican las características
mecánicas del conector, la señalización básica, etc.
Como ejemplos de la capa física podemos mencionar las norma EIA RS-232-C, utilizada por las puertas COM de
los ordenadores personales, la EIA-RS-449, CCITT X.21/X.21bis, CCITT V.35. Las normas de redes locales
incluyen en sus especificaciones la capa física (IEEE 802.3 o Ethernet, IEEE 802.5 o Token Ring, ISO 9314 o
FDDI, etc.)
Muchas de las normas que existen en la capa física se refieren a la interfaz utilizada para conectar un ordenador
con un módem o dispositivo equivalente, que a través de una línea telefónica conecta con otro módem y
ordenador en el extremo opuesto. Este es el caso por ejemplo de las normas EIA RS-232-C, EIA-RS-449,
CCITT X.21/X.21bis y CCITT V.35 antes mencionadas. En estos el conector del ordenador y el módem son de
diferente 'sexo' (macho o hembra). En este contexto se suele utilizar la denominación DTE (Data Terminal
Equipment) para referirse al ordenador y DCE (Data Circuit-Terminating Equipment) para referirse al módem. El
'módem' en ocasiones no es más que un adaptador, ya que por ejemplo la norma X.21 se utiliza para líneas
digitales. En sentido general al equipo que actúa como adaptador entre el ordenador y el medio de transmisión se
le denomina CSU/DSU (Channel Service Unit/ Data Service Unit).
1.5.1.2.- La capa de enlace (data link)
La principal función de la capa de enlace es ofrecer un servicio de comunicación fiable a partir de los servicios
que recibe de la capa física, también entre dos entidades contiguas de la red. Esto supone que se realice detección
y posiblemente corrección de errores. A diferencia de la capa física, que transmitía los bits de manera continua, la
capa de enlace transmite los bits en grupos denominados tramas (frames en inglés) cuyo tamaño es típicamente de
unos pocos cientos a unos pocos miles de bytes. Si el paquete recibido de la capa superior es mayor que el
tamaño máximo de trama la capa física debe encargarse de fragmentarlo, enviarlo y recomponerlo en el lado
opuesto. En caso de que una trama no haya sido transmitida correctamente se deberá enviar de nuevo; también
debe haber mecanismos para reconocer cuando una trama se recibe duplicada. Generalmente se utiliza algún
mecanismo de control de flujo, para evitar que un transmisor rápido pueda 'abrumar' a un receptor lento.
Las redes broadcast utilizan funciones especiales de la capa de enlace para controlar el acceso al medio de
transmisión, ya que éste es compartido por todos los nodos de la red. Esto añade una complejidad a la capa de
enlace que no está presente en las redes basadas en líneas punto a punto, razón por la cual en las redes broadcast
la capa de enlace se subdivide en dos subcapas: la inferior, denominada subcapa MAC (Media Access Control) se
ocupa de resolver el problema de acceso al medio, y la superior, subcapa LLC (Logical Link Control) cumple una
función equivalente a la capa de enlace en las líneas punto a punto.
Ejemplos de protocolos de la capa de enlace incluyen ISO 7776, la capa de enlace de CCITT X.25, RDSI,
LAP-D, ISO HDLC. Como ejemplos de protocolos de la subcapa MAC podemos citar los de IEEE 802.3
(Ethernet), IEEE 802.5 (Token Ring), ISO 9314 (FDDI). El protocolo de subcapa LLC de todas las redes
broadcast es el IEEE 802.2.
1.5.1.3.- La capa de red
La capa de red se ocupa del control de la subred. Esta es la capa que tiene 'conciencia' de la topología de la red, y
se ocupa de decidir por que ruta va a ser enviada la información; la decisión de la ruta a seguir puede hacerse de
forma estática, o de forma dinámica en base a información obtenida de otros nodos sobre el estado de la red.
De forma análoga a la capa de enlace la capa de red maneja los bits en grupos discretos que aquí reciben el
nombre de paquetes; motivo por el cual a veces se la llama la capa de paquete. Los paquetes tienen tamaños
variables, pudiendo llegar a ser muy elevados, sobre todo en protocolos recientes, para poder aprovechar
eficientemente la elevada velocidad de los nuevos medios de transmisión (fibra óptica, ATM, etc.). Por ejemplo
en TCP/IP el tamaño máximo de paquete es de 64 KBytes, pero en el nuevo estándar, llamado IPv6, el tamaño
máximo puede llegar a ser de 4 GBytes (4.294.967.296 Bytes).
Entre las funciones de la capa de red cabe destacar, aparte de la ya mencionada de elegir la ruta a seguir, el
control del tráfico para evitar situaciones de congestión o 'atascos'. En el caso de ofrecer servicios con QoS el
nivel de red debe ocuparse de reservar los recursos necesarios para poder ofrecer el servicio prometido con
garantías. También debe ser capaz de efectuar labores de contabilidad del tráfico en caso necesario (por ejemplo
si el servicio se factura en base a la cantidad de datos transmitidos).
En la capa de red es donde con mas intensidad se observa la distinción entre servicios orientados y no orientados
a conexión (CONS vs CLNS). En el curso veremos en detalle las redes ATM, que en el nivel de red dan un
servicio de tipo CONS, y las redes TCP/IP, que en el nivel de red dan un servicio de tipo CLNS.
La capa de red es la mas importante en redes de conmutación de paquetes (tales como X.25 o TCP/IP). Algunos
ejemplos de protocolos utilizados en la capa de red son los protocolos de nivel de paquete y nivel de pasarela
CCITT X.25 y X.75, el IP (Internet Protocol), CCITT/ITU-T Q.931, Q.933, Q.2931, y el OSI CLNP
(ConnectionLess Network Protocol).
En las redes de tipo broadcast el nivel de red es casi inexistente, ya que desde un punto de vista topológico
podemos considerar que en una red broadcast los nodos estan interconectados todos con todos, por lo que no se
toman decisiones de encaminamiento. Sin embargo veremos que la unión de redes broadcast mediante puentes
suscita en algunos casos la necesidad de efectuar tareas propias del nivel de red en el nivel de enlace.
1.5.1.4.- La capa de transporte
La capa de transporte es la primera que se ocupa de comunicar directamente nodos terminales, utilizando la
subred como un medio e transporte transparente gracias a los servicios obtenidos de la capa de red. Por esta
razón se la ha llamado históricamente la capa host-host. También se suele decir que es la primera capa extremo a
extremo.
La principal función de la capa de transporte es fragmentar de forma adecuada los datos recibidos de la capa
superior (sesión) para transferirlos a la capa de red, y asegurar que los fragmentos llegan y son recompuestos
correctamente en su destino.
En condiciones normales la capa de transporte solicita a la capa de red una conexión diferente por cada solicitud
recibida de la capa de sesión, pero puede haber razones de costo que aconsejen multiplexar diferentes conexiones
en la capa de sesión sobre una sola conexión en la capa de red o, inversamente, razones de rendimiento pueden
requerir que una conexión solicitada por la capa de sesión sea atendida por varias conexiones en la capa de red;
en ambos casos la capa de transporte se ocupará de hacer la multiplexación mas adecuada de forma transparente a
la capa de sesión.
La capa de transporte establece el tipo de servicio que recibe la capa de sesión, y en último extremo los usuarios.
Éste podría ser por ejemplo un servicio libre de errores que entrega los mensajes en el mismo orden en que se
envían; también podría ser un servicio de datagramas, es decir, mensajes independientes sin garantía en cuanto al
orden de entrega ni confirmación de la misma, o un servicio broadcast o multicast en que los paquetes se
distribuyen a múltiples destinos simultáneamente.
El control de flujo, que ha aparecido en capas anteriores, es necesario también en la capa de transporte para
asegurar que un host rápido no satura a uno lento. La capa de transporte realiza también su propio control de
errores, que resulta ahora esencial pues algunos protocolos modernos como Frame Relay o ATM han reducido o
suprimido totalmente el control de errores de las capas inferiores, ya que con las mejoras en la tecnología de
transmisión de datos éstos son menos frecuentes y se considera mas adecuado realizar esta tarea en el nivel de
transporte.
Salvo el caso de transmisiones multicast o broadcast el nivel de transporte se ocupa siempre de una comunicación
entre dos entidades, lo cual le asemeja en cierto sentido al nivel de enlace. Por esto existen grandes similitudes
entre ambas capas en cuestiones tales como el control de errores o control de flujo.
Ejemplos de protocolos de transporte incluyen el CCITT X.224, también llamado protocolo de transporte OSI
TP4 (Transport Protocol 4). En Internet existen dos protocolos de transporte: TCP y UDP.
1.5.1.5.- La capa de sesión
La capa de sesión es la primera que es accesible al usuario, y es su interfaz más básica con la red. Por ejemplo,
mediante los servicios de la capa de sesión un usuario podría establecer una conexión como terminal remoto de
otro ordenador. En un sistema multiusuario la capa de sesión se ocupa de ofrecer un SAP a cada usuario para
acceder al nivel de transporte.
1.5.1.6.- La capa de presentación
Hasta aquí nos hemos preocupado únicamente de intercambiar bits (o bytes) entre dos usuarios ubicados en dos
ordenadores diferentes. Lo hemos hecho de manera fiable y entregando los datos a la sesión, es decir al usuario,
pero sin tomar en cuenta el significado de los bits transportados. La capa de presentación se ocupa de realizar las
conversiones necesarias para asegurar que dichos bits se presentan al usuario de la forma esperada. Por ejemplo,
si se envía información alfanumérica de un ordenador ASCII a uno EBCDIC será preciso efectuar una
conversión, o de lo contrario los datos no serán interpretados correctamente. Lo mismo podríamos decir de la
transferencia de datos enteros, flotantes, etc. cuando la representación de los datos difiere en los ordenadores
utilizados.
1.5.1.7.- La capa de aplicación
La capa de aplicación comprende los servicios que el usuario final está acostumbrado a utilizar en una red
telemática, por lo que a menudo los protocolos de la capa de aplicación se denominan servicios. Dado que se
crean continuamente nuevos servicios, existen muchos protocolos para la capa de aplicación, uno o mas por cada
tipo de servicio.
Ejemplos de protocolos estándar de la capa de aplicación son el CCITT X.400, X.420, X.500, FTAM. SMTP,
FTP, HTTP, etc.
1.5.2.- Transmisión de datos en el modelo OSI
La transmisión de datos en el modelo OSI se realiza de forma análoga a lo ya descrito para el modelo de capas.
La capa de aplicación recibe los datos del usuario y les añade una cabecera (que denominamos cabecera de
aplicación), constituyendo así la PDU (Protocol Data Unit) de la capa de aplicación. La cabecera contiene
información de control propia del protocolo en cuestión. La PDU es transferida a la capa de aplicación en el nodo
de destino, la cual recibe la PDU y elimina la cabecera entregando los datos al usuario. En realidad la PDU no es
entregada directamente a la capa de aplicación en el nodo de destino, sino que es transferida a la capa de
presentación en el nodo local a través de la interfaz; esto es una cuestión secundaria para la capa de aplicación,
que ve a la capa de presentación como el instrumento que le permite hablar con su homóloga en el otro lado.
A su vez la capa de presentación recibe la PDU de la capa de aplicación y le añade una cabecera propia, (cabecera
de presentación) creando la PDU de la capa de presentación Esta PDU es transferida a la capa de presentación
en el nodo remoto usando a la capa de sesión como instrumento para la comunicación, de manera análoga a lo ya
descrito para la capa de aplicación.
En el caso mas general cada capa añade una cabecera propia a los datos recibidos de la capa superior, y construye
así su PDU. La capa homóloga del nodo de destino se ocupará de extraer dicha cabecera, interpretarla, y entregar
la PDU correspondiente a la capa superior. En algunos casos la cabecera puede no existir. En el caso particular de
la capa de enlace además de la cabecera añade una cola al construir la PDU (trama) que entrega a la capa física.
Volviendo por un momento a nuestra analogía de los dos ejecutivos que intercambian un documento, vemos que
a medida que vamos descendiendo capas en el envío (jefe, secretaria, motorista, líneas aéreas) el documento va
recibiendo nuevos envoltorios que contienen a los anteriores. A la llegada el paquete es procesado de forma
simétrica, es decir se le va quitando en cada capa el envoltorio correspondiente antes de pasarlo a la siguiente.
1.5.3.- El modelo de referencia TCP/IP
En 1969 la agencia ARPA (Advanced Research Projects Agency) del Departamento de Defensa (DoD,
Department of Defense) de los Estados Unidos inició un proyecto de interconexión de ordenadores mediante
redes telefónicas. Al ser un proyecto desarrollado por militares en plena guerra fría un principio básico de diseño
era que la red debía poder resistir la destrucción de parte de su infraestructura (por ejemplo a causa de un ataque
nuclear), de forma que dos nodos cualesquiera pudieran seguir comunicados siempre que hubiera alguna ruta que
los uniera. Esto se consiguió en 1972 creando una red de conmutación de paquetes denominada ARPAnet, la
primera de este tipo que operó en el mundo. La conmutación de paquetes unida al uso de topologías malladas
mediante múltiples líneas punto a punto dio como resultado una red altamente fiable y robusta.
La ARPAnet fue creciendo paulatinamente, y pronto se hicieron experimentos utilizando otros medios de
transmisión de datos, en particular enlaces por radio y vía satélite; los protocolos existentes tuvieron problemas
para interoperar con estas redes, por lo que se diseñó un nuevo conjunto o pila de protocolos, y con ellos una
arquitectura. Este nuevo conjunto se denominó TCP/IP (Transmission Control Protocol/Internet Protocol)
nombre que provenía de los dos protocolos mas importantes que componían la pila; la nueva arquitectura se
llamó sencillamente modelo TCP/IP, los nuevos protocolos fueron especificados por vez primera por Cerf y Kahn
en un artículo publicado en 1974. A la nueva red, que se creó como consecuencia de la fusión de ARPAnet con
las redes basadas en otras tecnologías de transmisión, se la denominó Internet.
La aproximación adoptada por los diseñadores del TCP/IP fue mucho más pragmática que la de los autores del
modelo OSI. Mientras que en el caso de OSI se emplearon varios años en definir con sumo cuidado una
arquitectura de capas donde la función y servicios de cada una estaban perfectamente definidas, y solo después se
planteó desarrollar los protocolos para cada una de ellas, en el caso de TCP/IP la oppración fue a la inversa;
primero se especificaron los protocolos, y luego se definió el modelo como una simple descripción de los
protocolos ya existentes. Por este motivo el modelo TCP/IP es mucho más simple que el OSI. También por este
motivo el modelo OSI se utiliza a menudo para describir otras arquitecturas, como por ejemplo la TCP/IP,
mientras que el modelo TCP/IP nunca suele emplearse para describir otras arquitecturas que no sean la suya
propia.
En el modelo TCP/IP se pueden distinguir cuatro capas:
1? La capa host-red
2? La capa internet
3? La capa de transporte
4? La capa de aplicación
Pasemos a describirlas brevemente.
1.5.3.1.- La capa host-red
Esta capa engloba realmente las funciones de la capa física y la capa de enlace del modelo OSI. El modelo
TCP/IP no dice gran cosa respecto a ella, salvo que debe ser capaz de conectar el host a la red por medio de
algún protocolo que permita enviar paquetes IP. Podríamos decir que para el modelo TCP/IP esta capa se
comporta como una 'caja negra'. Cuando surge una nueva tecnología de red (por ejemplo ATM) una de las
primeras cosas que aparece es un estándar que especifica de que forma se pueden enviar sobre ella paquetes IP; a
partir de ahí la capa internet ya puede utilizar esa tecnología de manera transparente.
1.5.3.2.- La capa internet
Esta capa es el 'corazón' de la red. Su papel equivale al desempeñado por la capa de red en el modelo OSI, es
decir, se ocupa de encaminar los paquetes de la forma mas conveniente para que lleguen a su destino, y de evitar
que se produzcan situaciones de congestión en los nodos intermedios. Debido a los requisitos de robustez
impuestos en el diseño, la capa internet da únicamente un servicio de conmutación de paquetes no orientado a
conexión. Los paquetes pueden llegar desordenados a su destino, en cuyo caso es responsabilidad de las capas
superiores en el nodo receptor la reordenación para que sean presentados al usuario de forma adecuada.
A diferencia de lo que ocurre en el modelo OSI, donde los protocolos para nada intervienen en la descripción del
modelo, la capa internet define aquí un formato de paquete y un protocolo, llamado IP (Internet Protocol), que se
considera el protocolo 'oficial' de la arquitectura.
1.5.3.3.- La capa de transporte
Esta capa recibe el mismo nombre y desarrolla la misma función que la cuarta capa del modelo OSI, consistente
en permitir la comunicación extremo a extremo (host a host) en la red. Aquí se definen dos protocolos: el TCP
(Transmission Control Protocol) ofrece un servicio CONS fiable, con lo que los paquetes (aquí llamados
mensajes) llegan ordenados y sin errores. TCP se ocupa también del control de flujo extremo a extremo, para
evitar que por ejemplo un host rápido sature a un receptor mas lento. Ejemplos de protocolos de aplicación que
utilizan TCP son el SMTP (Simple Mail Transfer Program, correo electrónico) y el FTP (File Transfer Program).
El otro protocolo de transporte es UDP (User Datagram Protocol) que da un servicio CLNS, no fiable. UDP no
realiza control de errores ni de flujo. Una aplicación típica donde se utiliza UDP es la transmisión de voz y vídeo
en tiempo real; aquí el retardo que introduciría el control de errores produciría mas daño que beneficio: es
preferible perder algún paquete que retransmitirlo fuera de tiempo. Otro ejemplo de aplicación que utiliza UDP es
el NFS (Network File System); aquí el control de errores y de flujo se realiza en la capa de aplicación.
1.5.3.4.- La capa de aplicación
Esta capa desarrolla las funciones de las capas de sesión, presentación y aplicación del modelo OSI. La
experiencia ha demostrado que las capas de sesión y presentación son de poca utilidad, debido a su escaso
contenido, por lo que la aproximación adoptada por el modelo TCP/IP parece mas acertada.
La capa de aplicación contiene todos los protocolos de alto nivel que se utilizan para ofrecer servicios a los
usuarios. Entre estos podemos mencionar tanto los 'tradicionales', que existen desde que se creó el TCP/IP:
terminal virtual (TelNet), transferencia de ficheros (FTP), correo electrónico (SMTP) y servidor de nombres
(DNS), como los mas recientes, como el servicio de news (NNTP), el Web (HTTP), el Gopher, etc.
1.5.4.- Comparación de los modelos OSI y TCP/IP
Como ya hemos comentado, la génesis del modelo OSI y TCP/IP fue muy diferente. En el caso de OSI primero
fue el modelo y después los protocolos, mientras que en TCP/IP el orden fue inverso. Como consecuencia de esto
el modelo OSI es mas elegante y esta menos condicionado por ningún protocolo en particular, y se utiliza
profusamente como modelo de referencia para explicar todo tipo de redes. El modelo OSI hace una distinción
muy clara entre servicios, interfaces y protocolos, conceptos que a menudo se confunden en el modelo TCP/IP.
Podríamos decir que la arquitectura (o el modelo) OSI es mas modular y académico que el TCP/IP.
Pero este mayor nivel de abstracción también tiene sus inconvenientes. Los diseñadores del modelo OSI no tenían
experiencia práctica aplicando su modelo para desarrollar protocolos y olvidaron algunas funcionalidades
importantes. Por ejemplo, las redes broadcast no fueron previstas inicialmente en la capa de enlace, por lo que se
tuvo que insertar a la fuerza la subcapa MAC para incluirlas. Otro problema era que no se había previsto la
interconexión de redes diferentes, cosa que fue como ya hemos visto el alma mater del modelo TCP/IP.
El modelo OSI tiene siete capas, mientras que el modelo TCP/IP sólo tiene cuatro. Aunque es desafortunada la
fusión de la capa física y la de enlace en una oscura capa host-red, la fusión de las capas de sesión, presentación y
aplicación en una sola en el modelo TCP/IP es claramente mas lógica que la del modelo OSI.
Otra diferencia fundamental estriba en los servicios orientados a conexión (CONS) o no orientados a conexión
(CLNS). El modelo OSI soporta ambos modos en la capa de red, pero sólo el modo CONS en la capa de
transporte, que es la que percibe el usuario. El modelo TCP/IP en cambio soporta solo CLNS en la capa de red,
pero ambos en la de transporte. Quizá un sutil detalle pueda explicar esta diferencia: el servicio CONS a nivel de
red hace mucho mas sencillo facturar por tiempo de conexión, cosa a la que están muy acostumbradas las
compañías telefónicas, que son las que han participado activamente en los comités técnicos de ISO que diseñaron
el modelo OSI.
En la práctica los protocolos basados en las normas estándar OSI definidas por la ISO nunca llegaron a tener gran
relevancia a nivel mundial, a pesar de que la mayoría de los grandes fabricantes de ordenadores y compañías
telefónicas impulsaron su utilización ofreciendo productos y servicios basados en ellos. Las razones principales
que motivaron este fenómeno las podemos resumir en los siguientes puntos:
Momento inadecuado: Para cuando estaban disponibles productos comerciales basados en protocolos OSI
(finales de los ochenta) ya estaban ampliamente difundidos los productos basados en los protocolos TCP/IP; esto
era especialmente cierto en entornos académicos (universidades y centros de investigación), que aunque
económicamente no eran los mejor dotados sí tenían las mayores redes a nivel mundial.
Tecnología inapropiada: como ya hemos comentado la elección del modelo de siete capas para el protocolo OSI
era algo forzada. Una de las razones que llevaron a elegir este número de capas era que coincidía con el del
modelo SNA de IBM, que dominaba el mercado de la informática por aquel entonces; los autores del modelo OSI
creían que aproximándose a SNA tenían mayores posibilidades de éxito. La complejidad de la arquitectura OSI
(análogamente a la SNA) es considerable, y en muchos aspectos difícil de traducir en programas.
Implementaciones inadecuadas: en parte como consecuencia de su complejidad, los productos comerciales que
aparecían basados en los protocolos OSI eran muy caros y poco fiables. Esto creó un círculo vicioso, ya que al
ser caros los usuarios no los compraban, y al no usarse en condiciones reales los nuevos productos no se
depuraban; además, las empresas fabricantes tenían que mantener un alto precio del software OSI para compensar
los elevados costos de desarrollo y mantenimiento. Como contraste una de las primeras implementaciones de
TCP/IP formaba parte del UNIX de Berkeley, era muy buena y además se distribuía gratuitamente. No es extraño
pues que rápidamente se asociara OSI con baja calidad, complejidad y costos elevados.
Mala política: el desarrollo de OSI era patrocinado principalmente por la ISO, las PTTs europeas, la Comunidad
Europea y los gobiernos de sus países miembros; las decisiones eran fruto de multitud de reuniones de los
diversos comités y grupos de trabajo, y en ocasiones se tomaban en consideración no sólo aspectos técnicos sino
también políticos, buscando el compromiso entre sus miembros. Por el contrario el desarrollo de TCP/IP seguía
un curso mucho más improvisado e informal, cualquier persona podía (y puede) proponer un nuevo protocolo
para su estandarización independientemente de su nacionalidad, prestigio o situación laboral. Haciendo una
simplificación podríamos decir que OSI funcionaba como una 'democracia parlamentaria' (similar a un gobierno
moderno), mientras que TCP/IP era más similar a una ONG, o a un movimiento alternativo; esto se reflejaba
incluso en la indumentaria utilizada por uno y otro colectivo. No es de extrañar que en entornos académicos (de
nuevo recordemos los más avanzados en redes globales) se viera con mucha más simpatía el mecanismo de
estandarización del TCP/IP que el de OSI.
Aunque por la exposición anterior pueda parecer lo contrario, también existen aspectos negativos en los
protocolos TCP/IP. Por un lado no se distinguen claramente los conceptos de servicio, interfaz y protocolo. En
segundo lugar, el 'modelo' TCP/IP fue diseñado con posterioridad al protocolo, intentando imitar la labor de
síntesis que se había hecho en el modelo OSI ( podríamos decir que es como si se hubieran cortado los patrones
después de cosido el traje). En tercero esta la 'caja negra' que hemos llamado capa host-red y que en el modelo
TCP/IP es mas bien una interfaz que una capa, ya que lo único que se especifica de ella es que ha de ser capaz de
transmitir paquetes IP. Como consecuencia de esto el modelo TCP/IP no distingue entre la capa física y la de
enlace, ya que ambas entran en la 'capa' host-red.
Por otro lado, aun cuando los protocolos IP y TCP fueron diseñados concienzudamente y bien implementados,
algunos protocolos, especialmente del nivel de aplicación, fueron el resultado de una improvisación para resolver
un problema concreto; como las implementaciones se distribuían después de forma gratuita se extendían con
rapidez por lo que resultaban difíciles de sustituir; un ejemplo de esto lo tenemos en el protocolo TelNet que se
utiliza ampliamente a pesar de no tener soporte para interfaz gráfica, ratón, etc.
Durante la década de los ochenta en Europa las redes académicas de la mayoría de los países (incluido España)
utilizaban protocolos OSI por imposición de los respectivos gobiernos y de la Comunidad Europea; a la vista de
los problemas ya mencionados de los productos OSI, y la extensión y buen resultado de los protocolos TCP/IP,
se empezaron a ofrecer en 1991 servicios basados en TCP/IP, lo cual provocó su inmediata difusión por toda
Europa y el estancamiento y casi desaparición de los servicios basados en protocolos OSI.
Probablemente el único protocolo OSI que sobrevivirá la batalla contra TCP/IP será el X.500, protocolo a de
aplicación que implementa los servicios de directorio. Estos estaban cubiertos en TCP/IP por un servicio
denominado Whois de funcionalidad mucho mas pobre. Probablemente es el hecho de no haber una alternativa en
TCP/IP lo que ha salvado a X.500, que actualmente funciona sobre TCP/IP..
Consecuentemente con los puntos fuertes y débiles de cada modelo y protocolo, en el curso nos basaremos en
una versión modificada del modelo OSI, del cual hemos suprimido la capa de sesión y la de presentación. Sin
embargo utilizaremos este modelo para describir fundamentalmente protocolos TCP/IP, si bien también
hablaremos de otros mas modernos y que en muchos casos se utilizan como medio de transporte para TCP/IP. En
la figura siguiente hacemos un resumen del modelo y los principales protocolos que veremos en cada capa.
Capa Protocolo
Aplicación TCP/IP (DNS, SNMP, SNMP, NNTP, HTTP)
Transporte TCP/IP (TCP, UDP) ATM (AAL1, AAL2, AAL3/4, AAL5)
Red TCP/IP (IP, ICMP, ARP, RARP, OSPF, BGP, IPv6), ATM (Q2931)
Enlace ISO( HDLC), TCP/IP (SLIP, PPP), ATM, LANs
Física N-ISDN, B-ISDN (ATM), GSM, SONET/SDH, LANs
Cable coaxial, cable UTP, fibra óptica, microondas, radioenlaces, satélite
Tabla 1.1: Ejemplos de protocolos en cada uno de los niveles del modelo de red OSI-TCP/IP
1.6.- EJEMPLOS DE SERVICIOS DE COMUNICACIÓN
Dado que cualquier usuario puede solicitar un acceso a las redes que operan las compañías telefónicas, a éstas se
las denomina redes públicas de datos (PDN, Public Data Networks). Cuando se desea interconectar ordenadores
o redes locales ubicadas a cierta distancia es preciso normalmente utilizar los servicios de alguna de esas redes
públicas. Dichos servicios pueden clasificarse de acuerdo con el tipo de conexión que ofrecen, permanente o
temporal, y con el tipo de circuito, real o virtual. Esquemáticamente sería:
Tipo de circuito Tipo de conexión
Permanente Temporal
Real Líneas dedicadas Redes de conmutación de circuitos
(RTB, RDSI, GSM)
Virtual Redes de conmutación con PVCs (X.25, Frame Relay, ATM) Redes de conmutación con SVCs (X.25,
Frame Relay, ATM)
Tabla 1.2: Clasificación de los tipos de servicio de transmisión de datos por líneas telefónicas según el tipo de
circuito y conexión.
En la práctica suele utilizarse en cada caso el servicio mas conveniente por sus prestaciones y precio, por lo que
las redes suelen mezclar varios de los servicios que hemos mencionado. Vamos a dar una pequeña descripción de
cada uno de ellos.
1.6.1.- Líneas dedicadas
La solución mas simple para una red es el circuito real permanente, constituido por lo que se conoce como líneas
dedicadas o líneas alquiladas (leased lines); está formado por un enlace punto a punto abierto de forma
permanente entre los ordenadores o routers que se desean unir. Una línea dedicada es únicamente un medio de
transmisión de datos a nivel físico, todos los protocolos de niveles superiores han de ser suministrados por el
usuario.
La red ARPAnet que hemos visto anteriormente se constituyó mediante líneas dedicadas. La Internet incorpora
actualmente todos los servicios que hemos mencionado.
Normalmente no es posible contratar una línea dedicada de una velocidad arbitraria, existen unas velocidades
prefijadas que son las que suelen ofrecer las compañías telefónicas y que tienen su origen en la propia naturaleza
del sistema telefónico, como veremos más adelante. Por ejemplo Telefónica de España ofrece líneas dedicadas de
las siguientes velocidades: 9.6, 64, 128, 192, 256, 512 y 2.048 Kbps. El precio de una línea dedicada es una cuota
fija mensual que depende de la velocidad y de la distancia entre los dos puntos que se unen.
En las líneas dedicadas la capacidad contratada está reservada de forma permanente en todo el trayecto. Su costo
es elevado y por tanto su instalación generalmente sólo se justifica cuando el uso es elevado (al menos tres o
cuatro horas al día). Por este motivo las líneas dedicadas no suelen utilizarse en casos en que se necesita una
conexión de forma esporádica, por ejemplo una oficina que requiere conectarse unos minutos al final del día para
transferir unos ficheros, o un usuario doméstico que se conecta a Internet en los ratos de ocio.
Para mostrar el elevado consumo de recursos que representan las líneas dedicadas pondremos un ejemplo:
supongamos que la empresa X con sede central en Valencia ha abierto treinta sucursales en distintos puntos de
España, y necesita que los ordenadores de las sucursales comuniquen con la sede central todos los días durante
treinta minutos cada uno para transferir 2 MBytes de información. Para esto la empresa solicita 30 líneas
dedicadas de 64 Kbps a la compañía telefónica, y constituye una red con topología de estrella. Aunque cada línea
se utiliza únicamente el 2% del tiempo con una eficiencia del 14% el ancho de banda está reservado en su
totalidad de forma permanente. Además, se requieren treinta interfaces físicos en el servidor, lo cual lo encarece y
complica bastante.
1.6.2.- Conmutación de circuitos
La conmutación de circuitos supone una utilización mas óptima de los recursos que las líneas dedicadas, ya que la
conexión extremo a extremo sólo se establece durante el tiempo necesario. Para la transmisión de datos mediante
conmutación de circuitos se utiliza la misma red que para la transmisión de la voz, mediante módems o
adaptadores apropiados. Genéricamente se la denomina Red Telefónica Conmutada (RTC) o PSTN (Public
Switched Telephone Network) y comprende en realidad tres redes diferentes:
La Red de Telefonía Básica (RTB) también llamada POTS (Plain Old Telephone Service); Está formada por las
líneas analógicas tradicionales y por tanto requiere el uso de módems; la máxima velocidad que puede obtenerse
en este tipo de enlaces es de 33.6 Kbps (recientemente han aparecido en el mercado módems capaces de
comunicar a 56 Kbps por líneas analógicas si se dan ciertas condiciones).
La Red Digital de Servicios Integrados (RDSI) también llamada ISDN (Integrated Services Digital Network).
Está formada por enlaces digitales hasta el bucle de abonado, por lo que el circuito se constituye de forma digital
extremo a extremo. La velocidad por circuito es de 64 Kbps, pudiendo con relativa facilidad agregarse varios
circuitos (llamados canales) en una misma comunicación para obtener mayor ancho de banda.
La Red GSM (Global System for Mobile communications). Se trata de conexiones digitales, como en el caso de
la RDSI, pero por radioenlaces. La capacidad máxima de un circuito GSM cuando se transmiten datos es de 9.6
Kbps.
La RDSI apareció en España hacia 1994, y la red GSM hacia 1995. Dado que hasta fechas recientes el único
sistema de RTC era la RTB a menudo se utilizan ambos términos indistintamente para indicar la red telefónica
analógica. Para evitar confusiones conviene usar sólo el término RTB al referirse a la red telefónica analógica, y
reservar el término RTC para referirnos al conjunto de todas las redes conmutadas existentes, ahora o en el
futuro.
En el caso de la RTC los equipos se conecta a la red pública y en principio cualquier equipo puede comunicar con
cualquier otro, siempre que conozca su dirección (número de teléfono). Podemos ver la RTC como una gran
nube a la que se conectan multitud de usuarios. Una vez establecido un circuito en RTC la función que éste
desempeña para los protocolos de nivel superior es equivalente a la de una línea dedicada.
Telefónica de España dispone de los tres tipos de RTC (RTB, RDSI y GSM), con tarificación por tiempo de
conexión. En el caso de RTB y RDSI se aplica una tarificación con cuatro ámbitos: metropolitano, provincial,
nacional e internacional (éste último depende del país). En el caso de la red GSM (conocida como MoviStar) hay
sólo dos ámbitos: nacional e internacional. Existe otra red GSM operada por la empresa Airtel.
Es posible la interconexión entre ordenadores de redes diferentes (RDSI, RTB o GSM); en cuyo caso la
velocidad de transmisión será igual a la mas lenta de las conexiones implicadas; en algunos casos puede ser
necesario disponer de equipos o contratar servicios especiales.
Siguiendo con nuestro ejemplo anterior de la empresa X, en vez de líneas dedicadas se podría haber utilizado la
red telefónica conmutada (por ejemplo la RDSI). En este caso el costo de cada conexión es normalmente menor,
ya que sólo se paga por el tiempo que se esta utilizando. Además, la sede central podría contratar menos de
treinta enlaces si se planifica un horario escalonado de conexión de las sucursales, o si simplemente se considera
que la probabilidad de que todas llamen a la vez es muy reducida. Esto se conoce como sobresuscripción
(oversubscription) o sobrereserva ('overbooking) y es algo muy normal en redes cuando el número de usuarios es
razonablemente elevado y se puede jugar con el factor estadístico. Por ejemplo, supongamos que inicialmente la
sede central contrata diez accesos y observa que solo durante el 0,1% del tiempo están todos utilizados; entonces
se puede afirmar que el servicio tiene una disponibilidad del 99,9%, es decir, el 99,9% del tiempo hay líneas libres
para recibir llamadas de las sucursales; a la vista de esto la empresa puede decidir si aumenta o reduce el número
de accesos, según la disponibilidad que se quiera tener y el costo de cada acceso (aquí además del costo de la
compañía telefónica se deberá tener en cuenta el de las interfaces , módems y equipo auxiliar).
1.6.3.- Conmutación de paquetes
Con la conmutación de circuitos hemos avanzado en el aprovechamiento de la infraestructura. Sin embargo nos
encontramos aún con tres inconvenientes:
En ocasiones no podremos establecer la conexión por no haber circuitos libres, salvo que contratemos un número
de circuitos igual al máximo número posible de conexiones simultáneas, lo cual sería muy costoso.
Que un circuito se esté utilizando no garantiza que se esté aprovechando el ancho de banda que tiene asignado; en
nuestro ejemplo cada sucursal está conectada 30 minutos para enviar 2 MBytes de información, que cual supone
un aprovechamiento del 14% suponiendo que se trata de conexiones de 64 Kbps.
El servidor ha de tener una conexión física por cada circuito, aun cuando la ocupación media sea reducida.
Para evitar estos inconvenientes se crearon redes en las que el usuario puede mantener una única conexión física a
la red, y sobre ella varios circuitos virtuales con equipos remotos. De esta forma podemos dotar a nuestro
ordenador central de treinta circuitos virtuales, con lo que las sucursales siempre van a encontrar un circuito libre
sobre el cual establecer la conexión. Al mantener un solo enlace físico el costo de las interfaces, módems, etc., es
fijo e independiente del número de circuitos virtuales utilizados. Lógicamente al tener el ordenador central que
atender a todas las conexiones por el mismo enlace físico sería conveniente (aunque no necesario) incrementar la
velocidad de este; en nuestro ejemplo con conexiones el 2% del tiempo y con un tráfico medio del 14%; para las
30 oficinas agregadas nos daría una ocupación media del 8,4% (0.02x0.14x30) suponiendo un reparto
homogéneo (cosa poco probable); como previsiblemente muchas oficinas querrán conectar mas o menos a la
misma hora sería conveniente ampliar el enlace del servidor a 128 o 256 Kbps para evitar congestión en horas
punta.
Para poder definir circuitos virtuales es preciso disponer de equipos inteligentes en la red que puedan hacer la
distribución de los paquetes en función de su destino. Por esto a las redes que permiten crear circuitos virtuales se
las denomina redes de conmutación de paquetes, y en cierto sentido podemos considerarlas como la evolución
lógica de las redes de conmutación de circuitos. En realidad existen dos tipos de redes de conmutación de
paquetes, según ofrezcan servicios orientados a conexión o no orientados a conexión (envío de datagramas). La
primera red de conmutación de paquetes que existió fue como ya hemos visto ARPAnet, pero como no era
orientada a conexión no se adaptaba bien a un servicio de compañía telefónica. Para facilitar la facturación las
redes públicas de conmutación de paquetes suelen ofrecer servicios orientados a conexión en el nivel de red.
Actualmente hay tres tipos de redes públicas de conmutación de paquetes: X.25, Frame Relay y ATM, y todos
ofrecen servicios orientados a conexión. Las tres representan implementaciones bastante completas de los tres
primeros niveles del Modelo de Referencia OSI, y tienen muchos puntos en común, según veremos a
continuación.
La subred de una red de conmutación de paquetes se constituye mediante conmutadores unidos entre sí por líneas
dedicadas. La distribución de los conmutadores y la forma como éstos se unen entre sí (es decir la topología de la
red) es algo que decide el proveedor del servicio y que fija la carga máxima que la red podrá soportar en lo que se
refiere a tráfico entre conmutadores; la topología fija también la fiabilidad de la red, es decir cuan resistente será a
fallos de los enlaces (por ejemplo una red muy mallada será muy resistente). Cuando un usuario desea conectar un
equipo a la red el acceso se hace normalmente mediante una línea dedicada entre el equipo a conectar y el
conmutador mas próximo del proveedor de servicio (normalmente la Compañía Telefónica). La velocidad de la
conexión entre el equipo y el conmutador establece de entrada un máximo a las prestaciones que ese usuario
podrá obtener de la red. Puede haber además otras limitaciones impuestas por la capacidad de la red, por
saturación o porque se hayan impuesto limitaciones de acuerdo con lo contratado por el usuario con el proveedor
del servicio.
Aunque estamos considerando el caso en que la red de conmutación de paquetes la gestiona una compañía
Telefónica (con lo que tenemos una red pública de conmutación de paquetes), también es posible que una
organización o conjunto de organizaciones (por ejemplo una gran empresa, una administración o un conjunto de
universidades) establezcan una red privada basada en X.25, Frame Relay o ATM. En este caso normalmente la
gestión de la red se asigna a algún grupo especializado (por ejemplo el departamento de comunicaciones en el
caso de la empresa) que se ocupa de diseñar topología, solicitar los enlaces correspondientes, instalar los
conmutadores, etc. Si se desea que la red privada esté interconectada con la red pública es preciso prever que al
menos uno de los conmutadores de la red privada esté conectado con la red pública. Desde el punto de vista
técnico ambas redes son equivalentes en su funcionamiento, salvo que normalmente en una red privada o no se
tarifica la utilización, por lo que el control no es tan crítico.
En X.25, Frame Relay y ATM existe el concepto de circuito virtual (VC), que puede ser de dos tipos: conmutado
o SVC (Switched Virtual Circuit) y permanente o PVC (Permanent Virtual Circuit). El conmutado se establece y
termina a petición del usuario, mientras que el permanente tiene que ser definido por el proveedor del servicio,
mediante configuración en los conmutadores a los que se conectan los equipos implicados, normalmente mediante
modificación contractual con el cliente. En cierto modo es como si los PVCs fueran 'líneas dedicadas virtuales'
mientras que los SVCs son como conexiones RTC 'virtuales'.
1.6.3.1.- X.25
X.25 fue el primer protocolo estándar de red de datos pública. Se definió por primera vez en 1976 por la CCITT
(Comité Consultatif International Télégraphique and Téléphonique). Aunque el protocolo ha sido revisado
múltiples veces (la última en 1993) ya se ha quedado algo anticuado y no es en la actualidad un servicio
interesante, salvo en algunos casos, debido a su baja eficiencia y velocidad; normalmente no supera los 64 Kbps,
aunque se pueden contratar conexiones de hasta 2.048 Kbps. A pesar de estas desventajas conviene conocer los
aspectos básicos de X.25 pues aun existe una gran cantidad de usuarios de este tipo de redes. Además, en el
protocolo X.25 se definieron por primera vez muchos de los conceptos en que se basa frame relay y ATM, que
podemos considerar en cierto sentido como sus descendientes. El conjunto de estándares que definen X.25 ha
sido adoptado como parte del modelo OSI para los tres primeros niveles.
A nivel físico se definen en X.25 dos interfaces, la X.21 cuando se usa señalización digital (cosa poco habitual) y
la X.21bis (un subconjunto de la EIA-232D/V.24) cuando es analógica.
A nivel de enlace se utiliza un protocolo llamado LAP-B (Link Access Procedure-Balanced) que es una versión
modificada del estándar ISO HDLC (High-level Data Link Control), que veremos en detalle al estudiar la capa de
enlace.
El protocolo utilizado a nivel de red se conoce como X.25 PLP (Packet Layer Protocol). En este nivel se realizan
todas las funciones de control de flujo, confirmación y direccionamiento. Cada NSAP (Network Services Access
Point) en una red X.25 viene representado por una interfaz de un conmutador X.25, y tiene una dirección única.
Las direcciones son numéricas y típicamente pueden tener entre nueve y quince dígitos. Las redes X.25 públicas
de muchos países están interconectadas, como ocurre con las redes telefónicas. Para facilitar su direccionamiento
la CCITT ha establecido un sistema jerárquico análogo al sistema telefónico en la recomendación X.121; así es
posible por ejemplo llamar desde Iberpac (la red X.25 pública española) a una dirección de Transpac (la red
pública X.25 francesa), sin más que añadir el prefijo correspondiente a dicha red en la dirección de destino.
X.25 es un servicio fiable orientado a conexión; los paquetes llegan en el mismo orden con que han salido. Una
vez establecido un circuito entre dos NSAPs la información se transfiere en paquetes que pueden ser de hasta 128
bytes (aunque en muchas redes se permiten tamaños de hasta 4 KB). En la red los paquetes son transferidos de
cada conmutador al siguiente (almacenamiento y reenvío), y solo borrados cuando se recibe la notificación de
recepción. Un mismo NSAP puede tener establecidos varios VCs (PVCs y/o SVCs) hacia el mismo o diferentes
destinos.
Los ordenadores que se conectan a un conmutador X.25 necesitan tener la capacidad suficiente para procesar los
complejos protocolos X.25. Cuando se definió el estándar X.25 los ordenadores personales eran caros y poco
potentes; muchos usuarios que tenían necesidad de conectarse a redes X.25 no disponían de un ordenador
adecuado. Para estos casos se diseñó un equipo capaz de conectar un terminal asíncrono, que trabaja en modo
carácter (es decir, un paquete por carácter) a una red X.25. A dicho equipo se le denominó PAD (Packet
Assembler Disassembler) ya que se ocupaba de ensamblar y desensamblar los paquetes X.25 que recibía. A través
de un PAD un usuario de un PC, o incluso de un terminal 'tonto', podía conectarse a un host en una red X.25 y
trabajar como un terminal remoto de aquel. La CCITT publicó tres documentos para especificar todo lo
relacionado con el funcionamiento de un PAD: el X.3 describe las funciones propias del PAD, el X.28 define el
protocolo de comunicación entre el PAD y el terminal asíncrono, y el X.29 define el protocolo entre el PAD y la
red X.25. El uso conjunto de estos tres protocolos permite iniciar una sesión interactiva desde un terminal
conectado a un PAD con un ordenador remoto, por lo que se le conoce como el logon remoto XXX. Cuando un
usuario en un ordenador conectado a X.25 desea establecer una conexión como terminal remoto de otro
ordenador a través de una red X.25 lo hace mediante un programa en su ordenador que emula el comportamiento
de un PAD (PAD Emulation). El logon remoto XXX ofrece en redes X.25 un servicio equivalente al de Telnet en
TCP/IP. Para el caso de usuarios que no dispongan de un PAD propio muchas compañías telefónicas ponen a su
disposición un servicio de acceso a PADs por RTC (normalmente RTB). Este servicio se denomina normalmente
X.28, por ser este estándar el que define el protocolo de comunicaciones entre el terminal de usuario y el PAD.
El rendimiento que se obtiene de un VC X.25 depende de muchos factores: velocidad de los accesos físicos
implicados, número de VC simultáneos, tráfico en cada uno de ellos, carga de la red, infraestructura, etc.
En España Telefónica inició un servicio de red pública de conmutación de paquetes en 1971 con la red RSAN,
basada en unos protocolos propios, no estándar. Esta red hoy desaparecida fue la segunda red de conmutación de
paquetes del mundo (después de ARPAnet que empezó en 1969), y la primera establecida por un operador de
telefonía. En 1984 Telefónica inició la red Iberpac, que ya obedecía a los estándares X.25. A través de Iberpac es
posible acceder a mas de 200 redes similares en todo el mundo. Las velocidades de acceso a Iberpac pueden ser
de 2,4 a 2.048 Kbps. Es posible contratar PVCs, aunque lo normal es utilizar SVCs. La tarificación se hace por
tres conceptos: en primer lugar una cuota fija mensual según la velocidad de la línea de acceso, en segundo por el
tiempo que dura cada llamada (o lo que es lo mismo, el tiempo que esta establecido cada SVC), y en tercer lugar
por el número de paquetes transferidos por llamada. Para los dos últimos conceptos existen tres ámbitos de
tarificación: nacional, europeo e internacional (en X.25 cuesta lo mismo transferir datos entre dos oficinas vecinas
que entre Valencia y La Coruña). Telefónica dispone también de un servicio de acceso X.28 a su red Iberpac,
conocido como Datex28.
Los protocolos X.25 se diseñaron pensando en los medios de transmisión de los años setenta, líneas de baja
velocidad con tasa de errores elevada. El objetivo era aprovechar lo mejor posible las lentas líneas de transmisión
existentes, aun a costa de hacer un protocolo de proceso pesado. Por si esto fuera poco, las redes X.25 casi
siempre se utilizan para encapsular tráfico correspondiente a otros protocolos, por ejemplo TCP/IP, SNA o
DECNET (podríamos decir que los paquetes de estos protocolos viajan 'disfrazados' en paquetes X.25); cuando
se encapsula un protocolo como TCP/IP en X.25 se realizan de forma redundante las tareas de la capa de red, con
lo que el resultado es aún mas ineficiente. Para resolver este tipo de problemas a partir de 1990 se empezaron a
crear redes basadas en frame relay.
1.6.3.2.- Frame Relay
Frame Relay (que significa retransmisión de tramas) nació a partir de los trabajos de estandarización del servicio
RDSI, como un intento de crear una versión 'light' de X.25, que permitiera aprovechar las ventajas de poder
definir circuitos virtuales pero sin la baja eficiencia que tenían los protocolos excesivamente 'desconfiados' de
X.25. Mientras que en X.25 la capa de enlace y la capa de red eran sumamente complejas en frame relay ambas se
intentaron reducir a su mínima expresión, dejando en manos de los equipos finales toda la labor de acuse de
recibo, retransmisión de tramas erróneas y control de flujo; de esta forma frame relay se convertía en el
complemento perfecto a otros protocolos, tales como TCP/IP. En muchos casos se considera que frame relay no
es un protocolo a nivel de red sino a nivel de enlace (de ahí su nombre), y aun visto como nivel de enlace resulta
bastante ligero.
El servicio que suministra frame relay consiste básicamente en identificar el principio y final de cada trama, y
detectar errores de transmisión. Si se recibe una trama errónea simplemente se descarta, confiando en que el
protocolo de nivel superior de los equipos finales averigüe por sí mismo que se ha perdido una trama y decida si
quiere recuperarla, y como. A diferencia de X.25, frame relay no tiene control de flujo ni genera acuse de recibo
de los paquetes (estas tareas también se dejan a los niveles superiores en los equipos finales). El tamaño máximo
de los paquetes varía según las implementaciones entre 1 KB y 8 KB. La velocidad de acceso a la red típicamente
esta entre 64 y 2.048 Kbps, aunque ya se baraja la estandarización de velocidades del orden de 34 Mbps.
Una novedad importante de Frame Relay estriba en que se define un ancho de banda 'asegurado' para cada
circuito virtual mediante un parámetro conocido como CIR (Committed Information Rate). Un segundo
parámetro, conocido como EIR (Excess Information Rate) define el margen de tolerancia que se dará al usuario,
es decir, cuanto se le va a dejar 'pasarse' del CIR contratado. Por ejemplo, supongamos que un ordenador se
conecta a una red frame relay mediante una línea de acceso al conmutador de 1.984 Kbps, y tiene dos circuitos
establecidos con otros dos ordenadores, cada uno de ellos con un CIR de 256 Kbps y un EIR de 256 Kbps; en
este caso cada circuito tendrá asegurado un ancho de banda de 256 Kbps como mínimo, y si la red no está
saturada podrá llegar a 512 Kbps; si un circuito intenta utilizar mas de 512 Kbps el conmutador frame relay
empezará a descartar tramas. Obsérvese que en este caso la línea de acceso nunca llegaría a saturarse, ya que
como mucho podrían enviarse 512 Kbps por cada circuito. La especificación del CIR para un circuito virtual se
hace de forma independiente para cada sentido de la transmisión, y puede hacerse asimétrica, es decir dar un valor
distinto del CIR para cada sentido.
Cuando un usuario hace uso del EIR (es decir, genera un tráfico superior al CIR contratado en un circuito virtual)
el conmutador frame relay pone a 1 en las tramas excedentes un bit especial denominado DE (Discard Elegibility).
Si se produce congestión en algún punto de la red el conmutador en apuros descartará en primera instancia las
tramas con el bit DE marcado, intentando resolver así el problema. Este mecanismo permite a un usuario
aprovechar la capacidad sobrante en la red en horas valle sin perjudicar la calidad de servicio a otros usuarios en
horas punta, ya que entonces se verá limitado a su CIR. En realidad el CIR tampoco está garantizado, ya que si la
congestión no se resuelve descartando las tramas DE el conmutador empezará a descartar tramas normales (no
marcadas como DE) que pertenecen a usuarios que no han superado su CIR. Afortunadamente las redes frame
relay se suelen dimensionar de forma que el CIR de cada usuario esté prácticamente garantizado en cada
momento. En cierto modo podemos imaginar el bit DE como un sistema de 'reserva de asiento' en un billete de
tren (el bit a 0 significaría en este caso tener hecha reserva).
Una red Frame Relay podría utilizarse en vez de líneas dedicadas para interconectar conmutadores X.25; a la
inversa sería mucho más difícil ya que al ser X.25 una red mas lenta los retardos introducidos serían apreciados
por los usuarios de Frame Relay.
En ocasiones se utilizan redes Frame Relay para transmitir voz digitalizada; esto no es posible con X.25 debido a
la lentitud del protocolo, que introduciría unos retardos excesivos; el envío de voz por una red tiene unos
requerimientos especialmente severos en cuanto a retardos para que la transmisión se efectúe correctamente.
La red pública Frame Relay de Telefónica se denomina Red Uno, y esta operativa desde 1992. Aunque Telefónica
anunció la disponibilidad de SVCs en Frame Relay para 1997, parece que estos aun no estan disponibles y el
único servicio contratable es el de PVCs. La tarificación se realiza por dos conceptos: el primero es una cuota fija
mensual en función de la velocidad de acceso a la red; el segundo es una cuota fija al mes por cada circuito según
el valor de CIR que se tenga contratado; en ambos casos la tarifa depende de la distancia. El EIR no se especifica
en el contrato, y por tanto no se paga, pero tampoco se compromete su valor por parte de Telefónica;
habitualmente Telefónica pone un EIR que es 256 Kbps superior al CIR contratado. La velocidad del acceso
físico puede tener valores comprendidos entre 64 y 1.984 Kbps. El CIR puede ser de 0 a 1.984 Kbps. Al no
existir circuitos conmutados la Red Uno no es una red abierta como lo son Iberpac o la RTC. Es posible la
conexión internacional con muchas otras redes frame relay gracias a acuerdos suscritos con diversos operadores.
1.6.3.3.- ATM y B-ISDN
Casi todos los servicios de comunicación que hemos visto hasta ahora fueron diseñados para la transmisión de
voz o datos, pero no ambos. La RTB y la red GSM, pensadas para la voz, pueden transmitir datos, pero sólo a
muy bajas velocidades. Las líneas dedicadas y redes Frame Relay, pensadas para datos, pueden transmitir voz si
se utilizan los equipos apropiados y se respetan ciertas restricciones.
El único servicio de los que hemos visto hasta ahora que se diseñó pensando en voz y datos es la RDSI (de ahí el
nombre de Servicios Integrados). Pero la RDSI tiene dos inconvenientes importantes:
Al ser una red de conmutación de circuitos reales la reserva del ancho de banda se realiza durante todo el tiempo
que esta establecida la comunicación, independientemente de que se estén transfiriendo datos o no (o en el caso
de transmitir voz independientemente de que se este hablando o se este callado).
El estándar RDSI se empezó a definir en 1984. En aquel entonces las líneas dedicadas eran de 9.6 Kbps en el
mejor de los casos y hablar de enlaces a 64 Kbps parecía algo realmente avanzado; sin embargo el proceso de
estandarización tardó mas de lo previsto (cosa que ocurre a menudo) y cuando aparecieron los primeros servicios
RDSI diez años más tarde la red 'avanzada' resultaba interesante sólo en entornos domésticos y de pequeñas
oficinas; se había quedado corta para nuevas aplicaciones.
Hasta aquí sólo hemos hablado de la transmisión de voz o datos, pero las redes de comunicaciones permiten
transmitir también otros tipos de información como imágenes en movimiento (videoconferencia o vídeo), que
tienen unos requerimientos distintos. De una forma muy concisa resumimos en la siguiente tabla las características
esenciales de cada tipo de tráfico:
Tipo de información Capacidad Pérdida tolerable Retardo Jittter
Datos Variable Muy baja Alto Alto
Audio en tiempo real, monólogo Baja (64 Kbps) Baja Bajo Muy bajo
Audio en tiempo real, diálogo Baja (64 Kbps) Baja Muy bajo Muy bajo
Vídeo en tiempo real Alta (2 Mbps) Media Bajo Bajo
Tabla 1.3.- Necesidades de los diversos tipos de tráfico
Cuando una red está preparada para transmitir tanto audio y vídeo como datos informáticos decimos que es una
red multimedia. Generalmente el tráfico multimedia tiene unas necesidades muy variables de ancho de banda, se
dice que es un tráfico a ráfagas ('bursty traffic').
Cuando se tiene tráfico a rr'e1fagas resulta especialmente útil disponer de una red de conmutación de paquetes
con circuitos virtuales, ya que así unos usuarios pueden aprovechar en un determinado instante el ancho de banda
sobrante de otros. Sin embargo las redes de este tipo que hemos visto hasta ahora (X.25 y frame relay) no son
apropiadas para tráfico multimedia porque el retardo y el jitter son impredecibles cuando la red esta cargada, y en
general son demasiado lentas (especialmente X.25).
Las compañías telefónicas vienen trabajando desde hace bastante tiempo en el diseño de una red adecuada al
tráfico multimedia que permita aprovechar las ventajas de la conmutación de paquetes, para así utilizar de forma
mas eficiente las infraestructuras y ofrecer servicios nuevos, tales como la videoconferencia o el vídeo bajo
demanda. La tecnología que permite todo esto se denomina ATM (Asynchronous Transfer Mode) y sus orígenes
se remontan nada menos que a 1968, cuando se concibió en los laboratorios Bell el primer sistema de transmisión
de celdas.. En esencia lo que se intenta con esta nueva tecnología es integrar todos los servicios en una única red
digital, lo mismo que pretendía la RDSI (aunque como hemos visto llegó demasiado tarde). Por este motivo
ATM también se denomina a veces RDSI de banda ancha o RDSI-BA (B-ISDN, Broadband-ISDN); por
contraste a la 'antigua' RDSI se la denomina en ocasiones RDSI de banda estrecha o RDSI-BE (N-ISDN,
Narrowband-ISDN). Podríamos decir que la RDSI de banda ancha es lo más parecido a las 'autopistas de la
información'.
En 1986 la CCITT definió el concepto de RDSI-BA y eligió ATM como la tecnología sobre la que se basarían los
futuros estándares. En aquel entonces ATM era una tecnología que interesaba exclusivamente a las compañías
telefónicas. Gradualmente los fabricantes de ordenadores se fueron percatando de las posibilidades y futuro de
dicha tecnología; para acelerar el proceso de estandarización se creó en 1991 el ATM forum, en el que
participaban compañías telefónicas y fabricantes de ordenadores. A partir de ese momento se ha producido un
avance impresionante en las normas y equipos ATM, especialmente en lo que se refiere a redes de datos. El
primer conmutador ATM comercial apareció en 1991.
En cierto sentido ATM puede verse como una evolución de frame relay. La principal diferencia es que los
paquetes ATM tienen una longitud fija de 53 bytes (5 de cabecera y 48 de datos) frente al tamaño variable y
mucho mayor de las tramas frame relay. Debido a su tamaño pequeño y constante los paquetes ATM se
denominan celdas, y por esto en ocasiones a ATM se le denomina cell relay (retransmisión de celdas). Manejar
celdas de un tamaño tan reducido tiene la ventaja de que permite responder con mucha rapidez a tráfico de alta
prioridad que pueda llegar inesperadamente mientras se están transmitiendo otro menos urgente, algo muy
importante en tráfico multimedia. El hecho de que todas las celdas sean del mismo tamaño simplifica el proceso
en los nodos intermedios, cuestión esencial cuando se quiere que dicho proceso sea lo más rápido posible. En el
lado negativo está el hecho de que la eficiencia de una conexión ATM nunca puede superar el 90% (48/53)
debido a la información de cabecera que viaja en cada celda.
Al igual que en X.25 o frame relay, una red ATM se constituye mediante conmutadores ATM normalmente
interconectados por líneas dedicadas, y equipos de usuario conectados a los conmutadores. Mientras que en X.25
o frame relay se utilizan velocidades de 64 Kbps a 2 Mbps, en ATM las velocidades pueden llegar a 155,52,
622,08 o incluso superiores. La elección de precisamente estos valores se debe a que son los que se utilizan en el
nuevo sistema de transmisión sobre fibra óptica en redes WAN denominado SONET/SDH (Synchronous Optical
NETwork/Synchronous Digital Hierarchy), que es el que están utilizando las compañías telefónicas actualmente
en las infraestructuras. ATM también puede utilizarse a velocidades inferiores, 34 Mbps e incluso 2 Mbps.
Dos equipos conectados a una red ATM pueden establecer entre si un circuito virtual, permanente o conmutado,
y transmitir por él información digital de cualquier tipo. ATM da al usuario muchas mas facilidades que X.25 o
frame relay para controlar las características de su circuito virtual: se puede fijar un ancho de banda máximo
permitido, un margen de tolerancia sobre dicho máximo, un ancho de banda mínimo garantizado, un ancho de
banda asimétrico, un perfil horario de forma que el ancho de banda fluctúe con la hora del día de una forma
preestablecida, etc. Además es posible definir prioridades y distintos tipos de tráfico, de forma que se prefiera
fiabilidad o rapidez, tráfico constante o a ráfagas, etc.
El modelo de referencia ATM
ATM tiene su propio modelo de referencia, constituido por tres capas denominadas capa física, capa ATM y capa
de adaptación ATM, o capa AAL (ATM Adaptation Layer).
La capa física está formada por dos subcapas: la PMD (Physical Media Dependent) y la TC (Transmission
Convergence). La subcapa PMD describe la interfaz física con el medio de transmisión, y equivale a la capa física
del modelo OSI. La subcapa TC se ocupa de 'deshacer' las celdas en bits para pasarlos a la subcapa PMD en el
envío, y de recibir los bits de la subcapa PMD para reconstruir las celdas en la recepción. Si consideramos la celda
como equivalente a la trama en el modelo OSI esta subcapa haría la función de la capa de enlace. Por este motivo
nosotros estudiaremos la subcapa TC en la capa de enlace.
La capa ATM trata de la estructura de las celdas y su transporte. También realiza las tareas de señalización, es
decir establece y termina los circuitos virtuales, y realiza el control de congestión. Sus funciones son una mezcla
de la capa de enlace y la capa de red en el modelo OSI.
La capa de adaptación ATM (capa AAL) se divide también en dos subcapas; la inferior se denomina subcapa
SAR (Segmentation And Reassembly) se ocupa de fragmentar el paquete que recibe desde arriba (normalmente
mayor de 48 bytes) en celdas para su envío, y de reensamblarlo en la recepción cuando se lo pasa la capa ATM.
La subcapa CS (Convergence Sublayer) se ocupa de suministrar distintos tipos de servicio adecuados al tipo de
tráfico (vídeo, audio, datos. etc.). La capa AAL corresponde en sus funciones a la capa de transporte del modelo
OSI.
Obsérvese que en el modelo de referencia ATM no se habla de aplicaciones. En realidad el modelo contempla la
existencia de capas por encima de la capa AAL, pero no se especifican sus funciones ni características. El modelo
deja total libertad a los implementadores sobre como diseñar las aplicaciones que funcionen sobre ATM.
Actualmente el principal uso de ATM es como medio de transporte para otros protocolos; hay muy pocas
aplicaciones que hayan sido diseñadas para funcionar de manera nativa, es decir, directamente sobre la capa AAL.
Futuro de ATM
Probablemente ATM es el acrónimo que está mas de moda en el mundo de las telecomuncaciones actualmente.
Prácticamente cualquier revista del área incluye uno o varios artículos sobre algún aspecto de ATM o tema
relacionado. En los últimos años ha habido bastante debate sobre si ATM se consolidaría o no como la tecnología
de red del futuro, cosa que hoy en día ya pocos ponen en duda. Una de las razones que ha hecho prosperar a
ATM es que las compañías telefónicas han visto en esta red su oportunidad para competir con los servicios que
ofrecen las compañías de televisión por cable.
Aunque seguirán durante mucho tiempo ofreciéndose todos los tipos de servicios que hemos visto anteriormente,
es muy probable que en unos años la infraestructura básica de las compañías telefónicas esté formada por
conmutadores ATM unidos mediante enlaces SONET/SDH; y todos los demás servicios utilicen esta red como
medio de transporte (de forma análoga a como X.25 puede utilizar frame relay). Por ejemplo Telefónica está
evolucionando hacia una red ATM para la interconexión de sus grandes centros como infraestructura básica sobre
la que discurrirá el tráfico de todas las otras redes.
Existen aun muy pocas experiencias de servicios públicos ATM; una de las mayores se ha puesto en marcha en
Finlandia, país que se encuentra a la cabeza de Europa en muchos aspectos de telecomunicaciones. En España
Telefónica inició en 1996 dos servicios de red ATM denominados servicio Gigacom y Servicio Cinco
(Comunicaciones Integrales Corporativas). Estos servicios están orientados a clientes con grandes necesidades de
transmisión de datos mutimedia; solo se permite la constitución de PVCs; las velocidades de acceso van de 512
Kbps a 155 Mbps. Este servicio puede ser una alternativa interesante a las líneas dedicadas de alta velocidad, ya
que además de su precio más interesante permiten contratar servicios de acuerdo a horarios preestablecidos, por
ejemplo un periódico que necesita transmitir todos los días un circuito de 4 Mbps entre sus dos oficinas
principales de 1 a 2 de la mañana para transmitir la edición del día siguiente.
Curiosamente uno de los campos donde ATM ha encontrado más éxito es como base para constituir redes locales
de alta velocidad. Existen hoy en día equipos en el mercado que permiten interconectar redes locales tradicionales
(Ethernet, Token Ring, FDDI) a través de conmutadores ATM, pudiendo conectar directamente a ATM a 155
Mbps los servidores mas importantes; de esta forma se consiguen prestaciones y funcionalidades mejores que las
de cualquier red local actual. Esta por ver si las redes locales de alta velocidad del futuro se basarán en ATM,
pero no hay duda de que esta tecnología WAN tiene un papel que jugar también en la LAN.
1.7.- EJEMPLOS DE REDES
Las redes que hay en el mundo difieren en cuanto a sus medios físicos de transmisión, protocolos, tipos de
máquinas que conectan, forma como se crearon, modo de administración, etc. A fin de ilustrar esta diversidad
antes de entrar a estudiar en detalle cada una de las capas antes descritas hemos seleccionado unos ejemplos
representativos que describiremos a continuación.
1.7.1.- Novell NetWare
Este es el sistema de red de PC mas popular en el mundo. Es una red diseñada para ser utilizada en una empresa
(típicamente en una red local Ethernet o Token ring) donde cada usuario dispone de un PC que actúa como
cliente y uno o varios PCs (normalmente más potentes) actúan como servidores. De esta forma los usuarios
comparten ficheros, aplicaciones, etc., de forma transparente como si estuvieran en su propio PC.
La pila de protocolos propietarios en que se basa NetWare es una versión modificada del XNS (Xerox Network
System). Tiene un cierto parecido con TCP/IP:
Capa
Aplicación SAP Servidor de ficheros ...
Transporte NCP SPX
Red IPX
Enlace Ethernet Token ring ARCnet
Física Ethernet Token ring ARCnet
Tabla 1.4.- Protocolo utilizado en cada capa por Novell NetWare
El protocolo de red, llamado IPX, es un protocolo no fiable no orientado a conexión que se parece bastante a IP.
El protocolo de transporte, NCP (Network Core Protocol) es realmente la pieza clave de NetWare. Existe otro
protocolo de transporte mas sencillo, denominado SPX, y también es posible utilizar TCP. En el nivel de
aplicación existen diversos protocolos, y cada uno elige el protocolo de transporte que mejor se acopla a sus
necesidades, por ejemplo el sistema de ficheros usa NCP y Lotus Notes (una aplicación de comunicación y
trabajo en grupo) usa SPX.
Un paquete IPX contiene los siguientes campos:
Campo Bytes Propósito
Checksum 2 Control de errores de transmisión; raramente se utiliza pues el nivel de enlace ya hace
comprobación
Longitud de paquete 2 Indica la longitud del paquete
Control de transporte 1 Cuenta cuantas redes ha atravesado el paquete; cuando supera un máximo
éste es descartado. De esta forma se evita el riesgo de que se produzcan bucles.
Tipo de paquete 1 Sirve para marcar varios paquetes de control
Dirección de destino 12 Formada por 12 bytes que se estructuran en tres partes: red (4 bytes),
ordenador (6 bytes) y socket local (2 bytes)
Dirección de origen 12 12 bytes en formato 4-6-2, como en la dirección de destino
Datos Variable El tamaño máximo de este campo viene fijado por el tamaño máximo de paquete soportado en
la red que se utiliza en el nivel de enlace
Tabla 1.5.- Estructura de un paquete IPX
Con NetWare podemos construir una red única o varias interconectadas, según asignemos direcciones en las que
coincidan o no los cuatro primeros bytes de todas las máquinas. En caso de tener mas de una red deberá haber
algún dispositivo (router) que interconecte las diversas redes.
Los servidores anuncian su presencia enviando cada cierto tiempo (aproximadamente un minuto) paquetes en los
que indica su dirección y los servicios que ofrece; estos paquetes se envían utilizando el protocolo SAP (Service
Advertising Protocol). Otras máquinas, llamadas agentes, se dedican a recoger esta información para saber que
servidores están disponibles, y dónde. Cuando un cliente arranca su software de NetWare envía un paquete
broadcast preguntando cual es su servidor mas próximo. El agente local ve esta petición y responde indicándole
que servidor debe utilizar. El servidor utilizado puede estar en la misma red que el cliente, o en otra accesible a
través de un router.
1.7.2.- ARPANET, NSFNET y La Internet
Como ya hemos comentado ARPANET tuvo sus orígenes en un proyecto del Departamento de Defensa de los
Estados Unidos que se desarrolló en la segunda mitad de la década de los sesenta, y que pretendía crear una red
de ordenadores resistente a ataques militares. Para esto se optó por crear una red de conmutación de paquetes
formada por ordenadores especializados denominados IMPs (Interface Message Processors) que se
interconectaban por líneas telefónicas punto a punto de 56 Kbps. Para aumentar la fiabilidad de la red se diseñó
una topología mallada en la que cada IMP estaba conectado al menos a otros dos. Los IMPs eran los routers de
la ARPANET. Como detalle curioso diremos que eran miniordenadores Honeywell con 24 KBytes de memoria
RAM especialmente modificados para desarrollar esta tarea; un router pequeño de hoy en día tiene típicamente de
2 a 4 MBytes de memoria RAM.
Dado que en aquellas fechas aun no existían redes locales, cada IMP se conectaba en forma local a un solo
ordenador (host) ubicado en la misma habitación; era este ordenador, que daba servicio a un número
razonablemente elevado de usuarios, el que permitía a éstos utilizar la red a través de sus aplicaciones. En la
ARPANET la subred estaba formada por los IMPs y las líneas punto a punto que los unían.
La ARPANET empezó a funcionar en diciembre de 1969 con cuatro nodos. En septiembre de 1972 tenía 34
nodos repartidos por todo Estados Unidos.
Paulatinamente se fueron ampliando las posibilidades de los IMP, permitiendo conexiones de varios hosts en cada
IMP, de hosts remotos, o incluso de simples terminales. También se hicieron pruebas con medios de transmisión
distintos de las líneas telefónicas, tales como transmisiones por radio o vía satélite. En estas pruebas se puso de
manifiesto que los protocolos existentes no eran aptos para interconectar redes con diferentes tecnologías, por lo
que con este fin se diseñaron unos nuevos, que son los que conocemos como TCP/IP, y que fueron los oficiales
en ARPANET desde principios de 1983. Para fomentar su uso ARPA adjudicó diversos contratos a la
Universidad de California en Berkeley y a BBN (empresa encargada de gestionar la ARPANET) para que
integraran los nuevos protocolos en el UNIX de Berkeley. El momento fue muy propicio y muchas universidades
de Estados Unidos se conectaron a la nueva red. El principal problema que tenía la ARPANET era que sólo las
universidades o centros de investigación que tuvieran contratos con el DoD podían conectarse a ella, y muchas no
los tenían.
En vista del éxito que tenía ARPANET la NSF (National Science Foundation) diseñó en 1984 una red paralela
que permitiría a las universidades conectarse sin las restricciones que imponía ARPANET. Para esto se empezó
de una forma muy similar a la ARPANET, interconectando seis superodenadores que la NSF tenía repartidos por
Estados Unidos mediante microordenadores adaptados para actuar como routers; el superordenador iba
conectado al router y éste a una o dos líneas. En la NSFNET también se utilizaban los protocolos TCP/IP. La
Universidad Carnegie-Mellon, que estaba conectada a NSFNET y ARPANET, hacía de 'puente' entre ambas
redes para permitir el intercambio de paquetes.
El crecimiento de la NSFNET fue espectacular. Multitud de universidades, centros de investigación, museos y
bibliotecas se conectaron a ella. En poco tiempo las líneas iniciales de 56 Kbps que constituían la espina dorsal o
backbone de la red tuvieron que ser aumentadas a 448 Kbps, y después a 1.5 Mbps. A medida que la red se
popularizaba las empresas comerciales querían entrar en ella, pero esto no era posible con una red financiada por
fondos públicos. En 1990 IBM, MCI y MERIT, impulsados por la NSF, crearon una empresa sin ánimo de lucro
denominada ANS (Advanced Networks and Services) que se ocupó de sustituir a NSFNET y crear ANSNET,
aumentando la capacidad del backbone a 45 Mbps. También en 1990 desapareció por completo ARPANET, que
había ido disminuyendo en importancia a medida que NSFNET y otras redes fueron ocupando su terreno. En
1995 ANSNET fue vendido a America Online; en ese momento existían ya numerosas compañías que operaban
redes IP comerciales en los Estados Unidos.
Después de que en 1984 se interconectaran ARPANET y NSFNET también lo hicieron muchas redes regionales y
de otros países, aprovechando la ventaja que suponía tener un protocolo común. Así se constituyó poco a poco
una superred o interred que desde el punto de vista del usuario era una única red. De manera coloquial los
usuarios empezaron a llamar a esta superred la internet, hasta el punto de que este llegó a ser su nombre propio;
no existe una fecha concreta en la que podamos fijar el origen de La Internet. Sin duda ARPANET y NSFNET
han sido sus dos principales impulsores.
En Europa (y en España) el desarrollo de La Internet estuvo frenado durante la década de los ochenta por
razones políticas, ya que los gobiernos y la Comunidad Europea, que financiaban las redes de investigación,
fomentaban el uso de protocolos OSI e impedían el uso de TCP/IP (la excepción eran los países nórdicos, que sí
estaban integrados en La Internet). La comunicación de los investigadores europeos con sus colegas americanos
sólo podía efectuarse a través de pasarelas, generalmente limitadas al correo electrónico en modo texto. En 1991
la actitud de los gobiernos y las redes europeas de investigación empezó a cambiar, se permitió la coexistencia de
los protocolos TCP/IP con los OSI, y la interconexión a La Internet; de forma inmediata se produjo una
explosión en el número de usuarios de la Internet en Europa, que superó incluso a la ocurrida en Estados Unidos
unos años antes.
Actualmente la Internet crece sin parar, a un ritmo que aproximadamente duplica su tamaño cada año. Es de
esperar que en unos años este ritmo disminuya. El crecimiento tan elevado, unido a la privatización de la
infraestructura básica, ha traído como consecuencia indeseable la saturación de la red en muchas áreas. En
octubre de 1996 se puso en marcha una iniciativa, liderada por 34 universidades de Estados Unidos, denominada
Internet II. El objetivo de Internet II es rescatar el espíritu original de la NSFNET, es decir, crear un entorno de
red específicamente orientado al ámbito académico e investigador que permita garantizar al usuario una calidad
de servicio tal que permita experimentar con nuevos servicios que requieran una elevada velocidad de
transmisión. Aunque nace como una iniciativa de los Estados Unidos, no sería raro que en un breve plazo se unan
a ella instituciones europeas.
El mecanismo informal que solía predominar en los viejos tiempos de La Internet ya no es factible hoy en día dada
la gran cantidad de usuarios e intereses comerciales en juego. Por esto se creó en 1992 una asociación
denominada Internet Society (ISOC) que se ocupa de coordinar, promover y organizar el futuro desarrollo de La
Internet, incluida la aceptación de nuevos estándares dentro del conjunto de protocolos.
1.7.3.- La red nacional de I+D, RedIRIS
Como en muchos otros países, en España el desarrollo de las redes de ordenadores se produjo inicialmente por la
necesidad de comunicación de las universidades y centros de investigación. Las primeras conexiones se llevaron a
cabo en 1984 cuando tres universidades en Madrid y Barcelona se conectaron a la red EARN (European
Academic and Research Network) que, patrocinada en sus inicios por IBM, utilizaba unos protocolos de este
fabricante llamados NJE (Network Job Entry) anteriores incluso a SNA. Un año más tarde otros centros
establecieron otra red basada en ordenadores VAX/VMS de Digital Equipment Corporation (DEC) que utilizaba
protocolos DECNET. Ambas redes disponían de enlaces internacionales, pero no estaban interconectadas entre sí
a nivel nacional, por lo que la comunicación entre ellas sólo podía establecerse a través de una pasarela en otro
país, y sólo para correo electrónico. Las velocidades de interconexión típicas eran de 2.4 a 9.6 Kbps.
En 1988 el PNID (Plan Nacional de Investigación y Desarrollo), órgano dependiente de la CICYT (Comisión
Interministerial de Ciencia y Tecnología), en un intento por armonizar estas iniciativas y para extender el uso de
las redes a toda la comunidad universitaria española, inició el Programa IRIS (mas tarde RedIRIS), delegando su
gestión en Fundesco. Siguiendo directrices entonces normales en todas las redes de investigación europeas, el
Programa IRIS fomentaba el uso de protocolos OSI, lo cual supuso que en la práctica el avance de la red se viera
limitado por la falta de software adecuado para muchas plataformas, quedando el correo electrónico
prácticamente como el único servicio disponible. Para la transmisión de los datos se utilizaba el servicio Iberpac
de Telefónica, con velocidades de acceso de 2.4 a 9.6 Kbps. En Madrid, Barcelona y Sevilla se instalaron
conmutadores X.25 que se interconectaron mediante líneas dedicadas de 64 Kbps.
TEMA 2: LA CAPA FÍSICA
2.1.- INTRODUCCIÓN
La primera capa dentro de cualquier modelo de red está formada por el medio físico de transmisión y sus
interfaces ópticas o eléctricas. Independientemente de cual sea el conjunto de protocolos a utilizar es
imprescindible que haya compatibilidad entre los equipos. Por ejemplo, al solicitar a la compañía telefónica una
línea dedicada deberemos indicar el tipo de interfaz que tienen nuestros equipos e intentar que la línea dedicada se
nos suministre con ese mismo tipo de interfaz; si esto no es posible tendremos que proveernos de los conversores
apropiados; en algunas ocasiones la conversión se hace con un cable únicamente, en otras mediante un adaptador
pasivo (no alimentado), y en otras será preciso un equipo con alimentación eléctrica; la casuística en este campo
es tan variada que no podemos entrar en detalles concretos a este respecto, pues nos llevaría demasiado tiempo.
En el caso de una LAN suele haber también diferentes tipos de medios de transmisión, de conectores e interfaces;
conviene estar familiarizado con los que vayamos a utilizar para adoptar en cada caso la solución más adecuada.
2.1.1.- TRANSMISIÓN DE DATOS: BASES TEÓRICAS
Módems y códecs
Cuando se envían datos por un canal de transmisión analógico (por ejemplo una línea telefónica de RTB) es
preciso modular la señal en origen y demodularla en el destino; el aparato que realiza esta función se llama
módem. Inversamente, cuando enviamos una señal analógica por un canal de transmisión digital tenemos que
codificarla en origen y decodificarla en destino, para lo cual se utiliza un aparato denominado códec; por ejemplo
un teléfono RDSI es un códec, ya que convierte una señal analógica (la voz humana) en digital, y viceversa; un
sistema de videoconferencia es un códec puesto que convierte una señal analógica (la imagen en movimiento
captada por la cámara) en una señal digital (la transmitida por RDSI u otro medio); también hay un códec en
cualquier sistema de grabación digital de sonido (CD, Minidisc, dcc, DAT). Es frecuente referirse a los códecs
como conversores analógico-digital o conversores A/D, aunque en telecomunicaciones suele preferirse la
denominación códec.
Para desempeñar su labor un códec debe muestrear periódicamente la onda a digitalizar, y convertir su amplitud
en una magnitud numérica. Por ejemplo los sistemas de grabación digital del sonido en CD muestrean la señal de
cada canal de audio 44 100 veces por segundo (44,1 KHz) y generan para cada muestra un número entero de 16
bits que representa la amplitud de la onda. En la decodificación se realiza el proceso inverso.
Teorema de Nyquist
Cualquier medio o canal de transmisión tiene un ancho de banda limitado. A continuación damos algunos
ejemplos:
Medio de transmisión Ancho de banda en KHz
Línea telefónica 3
Emisión de radio de onda media (AM) 4,5
Emisión de radio de FM 75
Emisión de televisión PAL 8 000
Red local Ethernet 10 000
Emisión de televisión de alta definición 30 000
Tabla 2.1: Ancho de banda de algunos medios de transmisión habituales.
Los bits se transmiten por un canal realizando modificaciones en la onda portadora; por ejemplo en una línea
telefónica podemos utilizar una frecuencia de 1 KHz para representar el 0 y una de 2 KHz para el 1; esto se
conoce como modulación de frecuencia; si sincronizamos dos equipos para que transmitan un cambio de
frecuencia de la portadora cada 3,333 milisegundos podremos transmitir datos a 300 bps, (si dos bits
consecutivos son iguales en realidad no hay tal cambio). Si en vez de dos frecuencias utilizamos cuatro, por
ejemplo 0,5, 1, 1,5 y 2 KHz, podremos transmitir con la misma sincronización 600 bps, ya que enviamos dos bits
cada vez al disponer de cuatro estados o niveles posibles; análogamente si utilizamos ocho estados podremos
transmitir 900 bps (tres bits por vez), y así sucesivamente; ganamos en velocidad, pero a cambio tenemos que ser
mas precisos en la frecuencia ya que el número de valores permitidos es mayor. Al número de cambios de estado
o sincronizaciones por segundo que tienen lugar en una comunicación entre dos equipos se le denomina baudios;
así en nuestro ejemplo anterior todas las transmisiones se hacían a 300 baudios, aunque el numero de bits que se
transmitía por segundo era diferente en cada caso. Además de la frecuencia es posible modular la amplitud y la
fase de la onda portadora; en la práctica los módems modernos modulan una compleja combinación de las tres
magnitudes para extraer el máximo provecho posible de las líneas telefónicas, es decir el máximo número de bps a
un número de baudios dado.
A pesar de todo el ingenio utilizado, los canales de transmisión tienen un límite. Ya en 1924 Nyquist observó la
existencia de un límite fundamental en las transmisiones digitales sobre canales analógicos, que se conoce como
teorema de Nyquist, y que establece que el número máximo de baudios que puede transmitirse por un canal no
puede ser superior al doble de su ancho de banda. Así en el caso de la transmisión de datos por una línea
telefónica, con un ancho de banda de 3 KHz, el máximo número de baudios que puede transmitirse es de 6.000.
Podemos comprender intuitivamente el teorema de Nyquist si imaginamos cual sería la frecuencia que tendría una
señal digital que transmitiera 6.000 baudios; supongamos por sencillez que 1 baudio = 1 bps, o sea que
manejamos únicamente dos estados, y que utilizamos una corriente de 1 voltio para indicar un bit a 1 y de -1
voltio para indicar un bit a 0; la frecuencia máxima se produciría cuando transmitieramos la secuencia 010101…
(ya que entonces la alternancia entre cresta y valle sería máxima). Obtendríamos entonces una onda cuadrada de 3
KHz de frecuencia (ya que cada dos bits forman una oscilación completa). Habríamos llegado a la misma
conclusión aplicando el teorema de Nyquist.
El teorema de Nyquist no fija un número máximo de bits por baudio, ya que esto depende del número de estados
que se utilicen. En nuestro ejemplo anterior si en vez de dos valores de voltaje utilizamos cuatro (-2, -1, 1 y 2
voltios) el número de baudios y de hertzios se mantiene constante mientras que se duplica el número de bits por
segundo. Podemos expresar el teorema de Nyquist también en forma de ecuación relacionándolo con la velocidad
máxima de transmisión, así si H es el ancho de banda y V el número de niveles o estados posibles, entonces la
velocidad máxima de transmisión C viene dada por:
C = 2 H log2 V
Por ejemplo, un canal telefónico (H=3 KHz) con tres bits por baudio (ocho estados, V=8) la máxima velocidad
de transmisión posible es 18 Kbps.
Debido a la relación directa que el teorema de Nyquist postula entre ancho de banda y velocidad de transmisión,
es frecuente en telemática considerar ambas expresiones como sinónimos; así decimos por ejemplo que la
transmisión de grandes ficheros necesita un elevado ancho de banda queriendo decir que requiere una elevada
velocidad de transmisión.
=========================== Revisón =======================
Podemos calcular también la eficiencia de un canal de comunicación, E, que es la relación entre la velocidad de
transmisión y el ancho de banda:
E = C/H
Así en nuestro ejemplo anterior la eficiencia era de 6 bits/Hz.
Combinando las dos fórmulas anteriores podemos expresar de otra forma el Teorema de Nyquist:
E = 2 log2 V
O dicho de otro modo, el número de baudios no puede ser mayor que el doble del ancho de banda.
El teorema de Nyquist es bidireccional, es decir, también se aplica al caso de transmisión de una señal analógica
por un canal digital. Por ejemplo, para que un teléfono RDSI (códec) pueda capturar la señal de audio sin mermar
la calidad respecto a una línea analógica el teorema de Nyquist establece que la frecuencia de muestreo deberá ser
como mínimo de 6,8 KHz (recordemos que la frecuencia máxima es de 3,4 KHz). En la práctica los teléfonos
digitales muestrean a 8 KHz para disponer de un cierto margen de seguridad. Los sistemas de grabación digital de
alta fidelidad, que muestrean a 44,1 KHz, son capaces de capturar sonidos de hasta 22 KHz lo cual excede la
capacidad del oído humano (en la práctica suelen filtrarse todas las frecuencias superiores a 20 KHz) . Cuando el
teorema de Nyquist se aplica en este sentido se le suele denominar teorema de muestreo de Nyquist.
Ley de Shannon-Hartley
El teorema de Nyquist supone la utilización de un canal de comunicación perfecto, es decir sin ruido. En la
realidad los canales tienen un ruido aleatorio, llamado también ruido térmico, que se mide por su valor relativo a
la señal principal, y se conoce como relación señal-ruido, S/R o S/N (signal-noise, ruido en inglés). El valor se
suele indicar en decibelios (dB), que equivalen a 10 log10 S/N (así 10 dB equivalen a una relación de 10, 20 dB a
una relación de 100 y 30 dB a una de 1000). Dado que la percepción de la intensidad del sonido por el oído
humano sigue una escala logarítmica la medida en decibelios da una idea más exacta de la impresión que
producirá un nivel de ruido determinado; este parámetro se utiliza por ejemplo para medir la calidad de los
componentes de una cadena musical de alta fidelidad. En 1948 Shannon y Hartley generalizaron el teorema de
Nyquist al caso de un canal de comunicación con ruido aleatorio, derivando lo que se conoce como la ley de
Shannon-Hartley, que está expresada en la siguiente ecuación:
C = H log2 (1 + S/N)
Por ejemplo, con un ancho de banda de 3 KHz y una relación señal-ruido de 30 dB (o sea 1000, valor
considerado bueno en el sistema telefónico analógico) obtenemos una velocidad de transmisión máxima de 29
902 bps. Si la relación señal-ruido desciende a 20 dB (valor bastante normal) la velocidad máxima baja a 19 963
bps.
Si lo expresamos en términos de eficiencia obtendremos:
E = log2 (1 + S/N)
Vista de este modo la Ley de Shannon-Hartley establece una eficiencia máxima para un valor dado de la relación
señal-ruido, independientemente de la frecuencia a la que trabaje el canal. así por ejemplo, para una relación
señal-ruido de 40 dB la eficiencia máxima teórica es de 13,3 bps/Hz. Los valores típicos de eficiencia suelen estar
entre 0,25 y 10 bps/Hz.
Conviene destacar que tanto el teorema de Nyqusit como la Ley de Shannon-Hartley han sido derivados en base a
planteamientos puramente teóricos y no son fruto de experimentos; por tanto su validez puede considerarse
universal y los contraejemplos deberían tratarse con el mismo escepticismo que las máquinas de movimiento
perpetuo. Haciendo un cierto paralelismo con la Termodinámica se podría decir que el Teorema de Nyquist
equivale al primer principio de la Termodinámica (que postula la ley de conservación de la energía) y la Ley de
Shannon-Hartley equivale al segundo principio, que establece que no es posible convertir totalmente en trabajo
útil la energía obtenida de una fuente de calor, por ejemplo en un motor.
2.2.- MEDIOS DE TRANSMISIÓN
El medio de transmisión, es probablemente la parte más crítica en el diseño de una red, especialmente cuando se
trata de una LAN. Mientras que el conjunto de protocolos a utilizar suele estar determinado de antemano por
factores externos , y tiene por tanto poco margen de maniobra, en el medio físico de transmisión se dan
generalmente varias posibilidades razonables; además las inversiones que se hacen en infraestructura suelen ser la
parte más importante de la red y la más difícil de modificar más adelante. Por otro lado, este es un campo que por
suerte o por desgracia evoluciona con mucha rapidez, y lo que hoy puede parecer adecuado quizá no lo sea
dentro de dos años; para tomar una decisión acertada es necesario hacer una estimación objetiva de las
necesidades actuales y futuras, y una valoración adecuada de las tecnologías disponibles tomando en cuenta su
relación costo/prestaciones.
Ahora profundizaremos en los diversos medios de transmisión utilizados actualmente. El alumno debe tener en
cuenta que este es un campo tan dinámico que para cuando termine sus estudios es probable que hayan surgido
nuevos sistemas de transmisión que aquí no hayamos ni mencionado. Afortunadamente existen multitud de
revistas de ámbito nacional e internacional que tratan con más o menos detalle de las novedades que se producen
en cuanto a medios de transmisión; los fabricantes de equipos suelen estar también bien informados de estos
temas, y su literatura es otra fuente de información.
2.2.1.- Pares de cobre
Este es el medio de transmisión mas común, consistente en un par de hilos de cobre aislados, de alrededor de 1
milímetro de diámetro. Un cable suele llevar varios hilos (típicamente 4 u 8) que normalmente están doblados dos
a dos formando una doble hélice, como una molécula de ADN, por lo que se le suele denominar cable de pares
trenzados (twisted pair). Esto se hace para minimizar la interferencia eléctrica que pueden recibir de fuentes
próximas, como por ejemplo los pares vecinos, y la que pueden emitir al exterior. Los cables pueden o no estar
apantallados.
Todo el sistema telefónico se basa en el uso de este tipo de medio de transmisión. Se utilizan tanto para
transmisión digital como analógica. El ancho de banda depende de múltiples factores, entre ellos el grosor del
cable, la distancia, el tipo de aislamiento, el grado de trenzado, etc. Pueden llegar a transmitir velocidades del
orden de Mbps a varios kilómetros. Hoy en día todos los sistemas de red local soportan este tipo de cable, que es
junto con la fibra óptica el más utilizado. Debido a sus características es de esperar que siga siendo popular
durante bastantes años.
Existen varias especificaciones de cables de cobre que difieren fundamentalmente en la frecuencia máxima a la
que pueden trabajar, que a su vez viene determinada principalmente por la densidad de vueltas y por el tipo de
material aislante que recubre los pares. Estas especificaciones se conocen como categorías y son las siguientes:
Categoría Frecuencia máxima (MHz) Usos Vueltas/metro
1 No se especifica Telefonía, datos a corta distancia y baja velocidad 0
2 1 LANs de baja velocidad (1 Mbps) 0
3 16 LANs hasta 10 Mbps 10-16
4 20 LANs hasta 16 Mbps 16-26
5 100 LANs hasta 100 Mbps, ATM a 155 Mbps 26-33
Tabla 2.2: Características principales de los cables según su categoría
Actualmente en instalaciones de datos nuevas se utiliza casi exclusivamente cable categoría 5 ya que el precio es
sólo ligeramente mayor y sus prestaciones son claramente superiores (téngase en cuenta que en el costo total de
una instalación el costo del cable es sólo una parte). Conviene mencionar que la clasificación en categorías,
además de aplicarse a un cable aislado se aplica a instalaciones ya hechas; a menudo sucede que una instalación
hecha con cable categoría 5 no puede funcionar a 100 MHz debido a que el operario no ha puesto suficiente
cuidado en la instalación: errores comunes son por ejemplo destrenzar una longitud excesiva en los conectores,
apretar demasiado las bridas o doblar excesivamente el cable es la falta (por ejemplo al soldar los conectores.
Normalmente los problemas de montaje sólo se pondrán de manifiesto al funcionar a 100 MHz, no a velocidades
inferiores.
En cada una de las categorías anteriores existen diferentes cables de acuerdo al tipo de apantallamiento que
llevan. El más habitual en redes locales es el que no lleva apantallamiento de ningún tipo (más allá del que
proporciona el hecho de llevar los pares trenzados); este se conoce como cable UTP (Unshielded Twisted Pair).
Existe también cable en el que los pares llevan una pantalla hecha de hilos de cobre formando una malla, y se
llama cable STP (Shielded Twisted Pair) ; este cable es bastante voluminoso debido a la pantalla, lo cual encarece
su precio y su costo de instalación, por lo que existe una variante más barata en la que la pantalla esta formada
por papel de aluminio en vez de por malla de cobre, con lo que se consigue reducir considerablemente el precio y
el diámetro (parámetro que determina el costo de instalación); a este cable se le conoce como FTP (Foil Twisted
Pair) o también ScTP (Screened Twisted Pair).
Existe una fuerte polémica sobre si es mejor utilizar en redes locales el cable sin apantallar (UTP) o apantallado
(STP o FTP), con argumentos en ambos sentidos. En grandes distancias se usa mas el cable apantallado ya que
tiene menor atenuación. Según los equipos de transmisión que se utilicen, la velocidad que puede obtenerse de un
par trenzado puede variar considerablemente, desde unos pocos Kbps hasta varios Mbps.
2.2.2.- Cable coaxial
El cable coaxial es otro medio de transmisión común. Tiene mejor apantallamiento que el par trenzado de
cualquier tipo y categoría, por lo que puede llegar a distancias y velocidades mayores. En transmisión de datos
suelen usarse dos tipos de cable coaxial: el de 50 ohmios y el de 75. El de 50 se utiliza en transmisión digital y se
suele denominar cable coaxial de banda base; el cable de 75 ohmios se utiliza en transmisión analógica y se
denomina cable coaxial de banda ancha; el término banda ancha tiene su origen en la transmisión telefónica,
donde se utiliza para indicar cualquier canal con una anchura mayor de 4 KHz.. Las instalaciones de televisión por
cable utilizan este tipo de cable y se suelen utilizar estas mismas redes para la transmisión de datos.
Un cable coaxial esta formado por un núcleo de cobre rodeado de un material aislante; el aislante está cubierto
por una pantalla de material conductor, que según el tipo de cable y su calidad puede estar formada por una o dos
mallas de cobre, un papel de aluminio, o ambos. Este material de pantalla está recubierto a su vez por otra capa
de material aislante.
Por su construcción el cable coaxial tiene una alta inmunidad frente al ruido, y puede llegar a tener unos anchos
de banda considerables. En distancias de hasta 1 Km es factible llegar a velocidades de 1 ó 2 Gbps. El cable
coaxial debe manipularse con cuidado ya que por ejemplo un golpe o doblez excesivo pueden producir una
deformación en la malla que reduzca el alcance del cable.
Los sistemas de LAN 'tradicionales' (Ethernet y Token Ring) utilizan cable coaxial de 50 ohmios. Las longitudes
máximas por ejemplo en el caso de Ethernet (10 Mbps) llegan a 500 metros. Actualmente puede utilizarse
también cable de par trenzado categoría 5.
2.2.3.- Fibras ópticas
Si hubiera que mencionar un único factor como el principal causante del elevado desarrollo que han tenido las
comunicaciones telemáticas en los años recientes, ese factor sería sin duda las fibras ópticas.
Recordemos que tanto el teorema de Nyquist como la ley de Shannon-Hartley basan sus restricciones en un
parámetro fundamental: la frecuencia de la onda portadora. Así pues, si queremos transmitir una señal digital por
ondas electromagnéticas a más velocidad deberemos subir la frecuencia; siguiendo por este camino llegamos a la
luz visible; sólo necesitamos tres elementos: un emisor, un medio de transmisión, y un detector. El emisor
transmite un bit por baudio, es decir, tiene dos estados posibles: un pulso de luz representa un 1 y la ausencia de
pulso un 0. El medio de transmisión es una fibra de vidrio ultrafina (su diámetro es de unas pocas micras). El
detector genera un pulso eléctrico cuando recibe luz. La transmisión por fibra óptica siempre es simplex; para
conseguir comunicación full-duplex es necesario instalar dos fibras, una para cada sentido, o trabajar a dos
frecuencias diferentes.
Para conseguir que la luz que sale del emisor sea 'capturada' por la fibra hasta su destino, y no se pierda por
difusión hacia el exterior se aprovecha una propiedad de las ondas conocida como reflexión, consistente en que
cuando una onda pasa de un medio a otro es parcialmente reflejada hacia el primero como si se tratara de un
espejo; la proporción en que la onda se refleja depende de los índices de refracción de ambos medios (una
propiedad física característica de cada material relacionada con la velocidad de la luz en ese medio) y del ángulo
de incidencia, a mayor ángulo mayor reflexión (el ángulo se mide referido a una línea perpendicular a la superficie
de separación de ambos medios); cuando la luz pasa de un medio con mayor índice de refracción a uno con
menor índice existe un ángulo de incidencia, conocido como ángulo límite, por encima del cual la luz se refleja
totalmente. Así, si el rayo de luz incide de forma suficientemente longitudinal en la fibra y cuando incide en el
borde supera el ángulo límite 'rebotará' y quedará 'atrapado' en la fibra, pudiendo así viajar grandes distancias sin
apenas pérdidas. Sería posible utilizar como medio de reflexión la superficie exterior de la fibra, aprovechando
que el aire tiene un menor índice de refracción que el vidrio, pero esto requeriría tener controlado el entorno
exterior para asegurar que la fibra siempre está rodeada de aire, lo cual es casi imposible; en su lugar lo que se
hace es utilizar dos fibras concéntricas, la interior con un índice de refracción mayor transporta la luz, y la
exterior actúa como 'jaula' para evitar que ésta escape.
Existen básicamente dos sistemas de transmisión de datos por fibras ópticas: los que utilizan LEDs
(Light-Emitting Diode) y los que utilizan diodos láser. En los sistemas que utilizan LEDs la transmisión de un
pulso de luz (equivalente a un bit) genera múltiples rayos de luz, pues se trata de luz normal no coherente; se dice
que cada uno de estos rayos tiene un modo y a la fibra que se utiliza para transmitir luz de emisores LED se la
denomina fibra multimodo. Las fibras se especifican indicando el diámetro de la fibra interior y exterior; las fibras
multimodo típicas son de 50/100 y 62,5/125 micras (diámetro interior de 62.5 micras y exterior de 125); a título
comparativo diremos que un cabello humano tiene un diámetro de 80 a 100 micras.
Los diodos láser emiten luz coherente, hay un único rayo y la fibra se comporta como un guía-ondas; la luz se
propaga a través de ella sin dispersión; la fibra utilizada para luz láser se denomina monomodo. Las fibras
monomodo se utilizan para transmitir a grandes velocidades y/o a grandes distancias. La fibra que transmite la luz
en una fibra monomodo es de un diámetro muy pequeño, de 8 a 10 micras (solo unas pocas veces la longitud de
onda de la luz que transmite); una fibra monomodo típica es la de 8,5/125 micras.
Para la transmisión de luz por fibras ópticas se utilizan tres rangos de frecuencias, aquellos en los que las fibras
muestran menor absorción (mayor 'transparencia'). Son bandas situadas alrededor de 0,85, 1,30 y 1,55 micras, y
se encuentran por tanto en la zona infrarroja del espectro; se conocen como primera, segunda y tercera ventana,
respectivamente. La primera ventana tiene mayor atenuación y es poco utilizada. La segunda ventana, que tiene
una anchura de 18 THz (THz = 1 TeraHertzio = 1000 GHz = 1012 Hz), es la que más se utiliza. La tercera
ventana tiene una anchura de 12,5 THz y es la que presenta menor atenuación y se utiliza en fibra monomodo
cuando se quiere cubrir una gran distancia sin repetidores (por ejemplo la fibra Valencia-Mallorca funciona
actualmente en tercera ventana sin repetidores). Suponiendo una eficiencia de 1 bps/Hz la segunda y tercera
ventanas suministrarían un ancho de banda de 30 Tbps!. El pico a 1,4 micras que separa ambas ventanas se debe a
la presencia de cantidades residuales de agua en el vidrio. Es de esperar que la continua mejora de las técnicas de
fabricación de fibras ópticas amplíe estas ventanas con lo que en el futuro se dispondrá de un ancho de banda aún
mayor. Para mejor aprovechar las fibras ópticas de largo alcance actualmente se utilizan dos longitudes de onda
por fibra en cada una de estas ventanas, mediante lo que se conoce como multiplexación por división en longitud
de onda en banda ancha (wideband WDM, Wavelength Division Multiplexing). Se están desarrollando prototipos
de WDM en banda estrecha, que permitirá extraer aún más ancho de banda de una sola fibra, pudiendo llegar a
compartir una misma fibra varias empresas portadoras. Probablemente WDM será el próximo hito en la carrera de
las nuevas tecnologías de transmisión de datos, marcada hoy por ATM y SONET/SDH.
Para la interconexión de fibras ópticas se utilizan tres sistemas. El primero emplea conectores, que ofrecen
máxima versatilidad pues pueden ser manipulados a voluntad por cualquier persona; sin embargo introducen una
pérdida de la señal de un 10% aproximadamente (0,5 dB). El segundo utiliza un empalme mecánico, que consiste
en unir y alinear los extremos con cuidado; pierde un 5% de señal (0,2 dB) y lo puede realizar en unos cinco
minutos una persona entrenada. El tercero es una fusión o soldadura de las dos fibras; en este caso la pérdida de
señal es muy pequeña, pero la unión ha de llevarla a cabo un técnico especializado con equipo altamente
sofisticado.
En una comunicación por fibra óptica el emisor transmite con una potencia determinada y el receptor tiene una
sensibilidad mínima para captar la señal de manera fiable. Dicha potencia y sensibilidad suelen medirse en una
unidad llamada dBm, que se calcula de la siguiente manera:
potencia (dBm) = 10 log (P)
donde P es la potencia del emisor en milivatios. Así, un emisor con una potencia de 1 milivatio equivale a 0 dBm,
con un microvatio a -30 dBm, y así sucesivamente.
Un emisor LED tiene una potencia típica entre -10 y -25 dBm, y uno láser entre 0 a -13 dBm. Por otro lado, la
potencia mínima que un receptor debe recibir para poder detectar la señal sin errores es de -20 a -35 dBm en
LEDs y de -20 a -45 dBm en láser.
Cuando una señal viaja por una fibra se produce una atenuación debido a los empalmes y conectores, y a la
absorción de la luz por la fibra; en segunda ventana esta pérdida es de aproximadamente 1 dB/Km en fibras
multimodo y de 0,4 dB/Km en fibras monomodo. Al valor así obtenido se debe añadir 1,5 dB debido a otros
factores que no detallaremos. Con estos datos y sabiendo la longitud de fibra y el número de conectores y
empalmes es posible calcular la pérdida de señal que se producirá en un trayecto determinado; si conocemos la
potencia del emisor y la sensibilidad del receptor podremos calcular la distancia máxima a la que la señal llegará
de manera fiable.
Por ejemplo, si utilizamos fibra multimodo, emisores LED de -15 dBm de potencia y receptores de sensibilidad
mínima de -25 dBm y tenemos dos parejas de conectores en el trayecto (0,5 dB cada una) podremos resistir una
pérdida de 7,5 dB en la fibra, equivalente a una distancia de 7,5 Km. Conviene mencionar que esta sería la
distancia máxima teórica; en la práctica se suele añadir un factor de seguridad a estos cálculos reduciendo los
valores al menos en un 30% para tomar en cuenta los efectos de cambios de temperatura, envejecimiento del
material, instalación mecánica incorrecta, etc.
Cuando se transmite un pulso por una fibra multimodo los rayos se reflejan múltiples veces antes de llegar a su
destino, con ángulos diversos (todos por encima del ángulo límite) lo cual hace que la longitud del trayecto
seguido por los rayos que forman el pulso no sea exactamente igual para todos ellos; esto produce un
ensanchamiento del pulso en su recepción, conocido como dispersión, que limita el ancho de banda utilizable, ya
que el emisor no puede enviar los pulsos con la rapidez que en principio podría; la dispersión es función de dos
factores: el ancho de banda y la longitud de la fibra, y se calcula como el producto de ambas magnitudes, así por
ejemplo una fibra de 2 Km que transmita a 155 Mbps (equivalente a 155 MHz) tendrá una dispersión de 310
MHz Km. Con las fibras, emisores y receptores actuales la dispersión máxima tolerable es de 500 MHz Km; por
ejemplo, si se transmite con fibras multimodo a 622 Mbps (que es la distancia máxima que suele utilizarse con
este tipo de fibras) la distancia máxima que puede utilizarse viene limitada a 800 metros por el efecto de
dispersión. A 155 Mbps esta distancia es de 3,2 Km, y a 100 Mbps de 5 Km. Volviendo al ejemplo de antes, la
distancia de 7,5 Km que en principio habíamos calculado como posible por la atenuación no podría funcionar a
velocidades superiores a 66 Mbps. Es fácil comprender por que en distancias grandes se utiliza fibra monomodo.
En ocasiones se habla con demasiada alegría de la capacidad de gigabits de las fibras ópticas; conviene destacar
que dicha afirmación solo es aplicable, al menos hoy en día, a las fibras monomodo. Actualmente se esta
trabajando en el desarrollo de pulsos con una forma especial de manera que los efectos de dispersión se cancelen
mutuamente. Estos pulsos se llaman solitones y son un campo muy activo de investigación.
A menudo los fabricantes dan cifras orientativas del alcance de sus equipos, como por ejemplo que la distancia
máxima en fibra multimodo es de 2 Km o en monomodo de 15 a 30 Km. Estos valores suelen ser muy
conservadores y no dar problemas, pero en casos que haya muchos conectores o empalmes, o que queramos
superar las distancias que da el fabricante, deberemos proceder a hacer los cálculos detallados para asegurarnos
que no superamos la atenuación máxima recomendable; para los cálculos deberemos conocer la potencia del
emisor y la sensibilidad del receptor.
En redes locales, donde las distancias no son muy grandes, se suele utilizar emisores LED y fibras multimodo, ya
que son mas baratos que los láser, tienen una vida mas larga, son menos sensibles a los cambios de temperatura y
son mas seguros. En cambio las compañías telefónicas, que normalmente necesitan largas distancias y altas
velocidades, utilizan casi exclusivamente emisores láser y fibras monomodo.
2.2.4.- Comparación de fibra óptica y cable de cobre
A menudo en el diseño del cableado de una red local es necesario elegir entre fibra óptica o cable de cobre, ya
que la mayoría de los sistemas de red local admiten el uso de ambos medios. En la mayoría de los casos las únicas
opciones que vale la pena considerar son el cableado de cobre UTP categoría 5 y la fibra óptica multimodo
62,5/125 (salvo que por distancia tuviéramos que usar fibra monomodo); el cable de cobre permite llegar a 155
Mbps hasta 100m y la fibra a 622 Mbps hasta 800 m, o 155 Mbps hasta 3 Km. Así pues, si la distancia a cubrir es
superior a 100 metros es preciso usar fibra. Además se recomienda utilizar fibra cuando se da alguna de las
siguientes circunstancias:
El cableado une edificios diferentes; en este caso el uso de cable de cobre podría causar problemas debido a
posibles diferencias de potencial entre las tierras de los edificios que podrían provocar corrientes inducidas en el
cable.
Se prevé pasar a velocidades superiores a 155 Mbps más adelante; si la distancia es superior a 500-800 metros se
debería además considerar la posibilidad de instalar fibra monomodo.
Se desea máxima seguridad en la red (el cobre es más fácil de interceptar que la fibra).
Se atraviesan ambientes que pueden resultar corrosivos para los metales
Se sospecha que puede haber problemas de interferencia eléctrica por proximidad de motores, luces fluorescentes,
o equipos de alta tensión (por ejemplo, equipos de laboratorio).
Para evaluar la necesidad o no de instalar fibra para evitar las interferencias producidas por la red eléctrica existe
una serie de recomendaciones sobre la distancia mínima a mantener que hemos recopilado en la Tabla 2.3.
Potencia (en KVA)
Menos de 2 Entre 2 y 5 Mas de 5
Líneas de corriente o equipos eléctricos no apantallados 13 cm 30 cm 60 cm
Líneas de corriente o equipos no apantallados pero próximos a cables de tierra 6 cm 15 cm 30 cm
Líneas apantalladas (p. ej. dentro de tubo metálico con toma de tierra) 0 cm 15 cm 30 cm
Transformadores y motores eléctricos 1 m 1 m 1 m
Luces fluorescentes 30 cm 30 cm 30 cm
Tabla 2.3: Separación mínima recomendada entre líneas de alimentación eléctrica y cables de datos UTP. Se
supone que la tensión en las líneas eléctricas es menor de 480 voltios.
Cuando no se requiere fibra es recomendable utilizar cobre, ya que es más barato el cable, la instalación y las
interfaces de conexión de los equipos; además es más fácil realizar modificaciones en los paneles de conexión,
empalmes, etc.
TEMA 3: EL NIVEL DE RED
6.1.- INTRODUCCIÓN
Objetivo: encaminar los paquetes del origen al destino.
Es la capa que conoce la topología de la red. Se implementa en dos tipos de nodos:
Hosts: generan o reciben paquetes de otro host, nunca encaminan paquetes destinados a o provenientes de otros
nodos. Se conocen también con los nombres de: ordenadores, nodos terminales (end node), DTEs (en
terminología X.25), o Sistemas Finales (End Systems, ES) en terminología ISO.
Routers, conmutadores o nodos de tránsito: se utilizan para encaminar paquetes entre hosts. También se les llama
nodos de tránsito (routing node), conmutadores o switches (en X.25, frame relay y ATM), o Sistemas
Intermedios (Intermediate Systems, IS) en ISO. Antiguamente en Internet a los routers se les llamaba gateways
(pasarelas). Hoy en día el nombre pasarela se reserva a niveles superiores, normalmente de aplicación. Los routers
suelen ser ordenadores especializados y dedicados, diseñados específicamente para esa función, con sistemas
operativos en tiempo real, aunque en ocasiones también se utilizan ordenadores normales como routers.
En ocasiones un router ha de intercambiar paquetes generados por él con otro nodo (router o host); en este caso
ambos nodos actúan como hosts.
Para su comunicación con el resto de la red los routers tienen normalmente varias interfaces físicas, y los hosts
normalmente una; aunque poco frecuente también es posible que un router tenga una sola interfaz, y que un host
tenga varias por razones de rendimiento o fiabilidad. Cuando un host tiene varias interfaces decimos que está
'multihomed'.
En cada interfaz física de un nodo funciona una instancia independiente del nivel físico y del nivel de enlace; por el
contrario el nivel de red es normalmente global para todo el nodo. En Internet cada interfaz física ha de tener
necesariamente una dirección de red diferente, al menos (puede tener varias).
Los routers junto con las líneas que los unen constituyen la subred (subred = frontera usuario-proveedor).
En las LANs, al ser el medio físico broadcast, todos los nodos comunican directamente entre sí, sin necesidad de
routers; por lo que la capa de red es prácticamente inexistente; a cambio el nivel de enlace es más complejo
(subcapa MAC).
Los puentes MAC, en especial los puentes por encaminamiento desde el origen, desempeñan una función hasta
cierto punto equivalente a la de un router.
La interfaz del nivel de red con el de transporte es la que utilizará el usuario (nivel de transporte) para acceder al
servicio.
Los servicios que ofrece el nivel de red deberán en lo posible aislar al nivel de transporte de detalles tales como
tipo de tecnología física (LAN, WAN, broadcast, etc.), número y topología de las subredes, etc.
Las direcciones de red que se presenten al nivel de transporte deberán tener un formato homogéneo, cualquiera
que sea el medio físico o subred utilizados.
Los servicios de red pueden ser orientados a conexión (CONS) o no orientados a conexión (CLNS).
En un servicio CLNS (p. ej. Internet o ISO CLNS):
Se implementan las primitivas SEND PACKET y RECEIVE PACKET, y poco más.
No se garantiza el orden de llegada de los datagramas.
Cada datagrama ha de llevar la dirección de destino. Cada uno ha de averiguar la ruta por sí mismo.
Cada router ha de mantener una tabla que indique por que interfaz debe encaminar los paquetes en función de su
destino, pero no conserva información de las conexiones (pues no las hay); se dice que el router no tiene estados
o que es 'stateless').
Si un router de la red queda fuera de servicio la única consecuencia será la pérdida de los datagramas que
estuvieran en proceso en el router en ese momento, no se pierde ninguna información sobre la conexión, ya que
no había conexión; los hosts intentarán buscar una ruta alternativa para comunicarse.
Es difícil llevar a cabo un control de congestión, u ofrecer una QoS (calidad de servicio).
En un servicio CONS (p. ej. ATM o X.25):
Las dos entidades establecen primero la conexión de forma explícita (un circuito virtual o VC) y le asignan un
identificador. Esta conexión se utiliza para enviar todos los datos y luego se libera, también de forma explícita.
El orden de entrega de los paquetes está garantizado.
Los paquetes no necesitan llevar la dirección de destino (pero sí el número del VC por el que van a viajar). La
ruta está marcada por el VC mientras éste está establecido. El router (o conmutador) ha de tomar nota de los
VCs existentes en cada momento (decimos que el conmutador tiene estados o que es 'statefull').
Cada conmutador ha de mantener una tabla que le indique la interfaz de entrada y de salida para cada VC que
pasa por él.
Si un conmutador queda fuera de servicio desaparecerán todos los VCs que pasen por él en ese momento, y los
hosts afectados dejarán de comunicar; la información de los VCs se perderá (salvo que se tratara de PVCs).
Es fácil efectuar un control de congestión, y también asegurar una QoS.
En una red CLNS el nivel de transporte es más complejo pues se ha de ocupar de mas funciones que en una
CONS. Normalmente el nivel de transporte en una red CLNS es CONS (p. ej.: IP es CLNS y TCP es CONS).
Generalmente una red CONS es fiable y una CLNS es no fiable (entendemos por no fiable que no garantiza la
entrega).
Apartados que veremos en este tema:
Algoritmos de routing: como elegir la ruta más adecuada.
Algoritmos de control de congestión: como resolver (o evitar) situaciones de saturación en la red.
Internetworking: como se conectan e interoperan diferentes redes entre sí
Capa de red en Internet
Capa de red en ATM
6.2.- ALGORITMOS DE ROUTING
Una función fundamental de la capa de red en los routers es decidir por que interfaz se manda el paquete recibido.
Con datagramas esto se hace para cada paquete; con VCs se hace sólo para cada nuevo circuito.
Un algoritmo de routing debe ser:
Correcto
Simple
Robusto
Estable
Justo
Óptimo
A menudo justo y óptimo son características contrapuestas.
Encaminamiento o routing estático: las rutas están basadas en información de la topología no obtenida en tiempo
real, sino previamente. Se fija cada posible ruta de antemano, según la capacidad de la línea, el tráfico esperado, u
otros criterios. No es posible responder a situaciones cambiantes (p. ej. saturación, exceso de tráfico o fallo de
una línea). Al realizar los cálculos offline es posible aplicar algoritmos muy sofisticados, aun cuando sean
costosos en el cálculo.
Encaminamiento o routing dinámico: las rutas se fijan en cada momento en función de información en tiempo real
que los routers reciben del estado de la red. Se utilizan algoritmos autoadaptativos y es preciso utilizar un
protocolo de routing que permita a los routers intercambiar información sobre el estado de la red. Los algoritmos
no pueden ser demasiado complejos pues han de implementarse en los routers y ejecutarse cada poco tiempo.
El principio de optimalidad
Si Castellón está en la ruta óptima de Valencia a Tarragona, entonces el camino óptimo de Castellón a Tarragona
está incluido en dicha ruta.
Una consecuencia de este principio es que todas las rutas óptimas para llegar a un punto determinado forman un
árbol con raíz en el punto de destino. El árbol no contiene bucles (decimos que es un spanning tree) y siempre es
posible llegar al punto de destino en un número finito de saltos ('hops').
Encaminamiento por el camino mas corto (estático y dinámico)
Para saber elegir el camino más corto primero debemos definir como medimos la distancia. La longitud de un
trayecto se mide como la suma de las longitudes de cada uno de los tramos, o enlaces que se atraviesan.
Generalmente la 'longitud' de un enlace se mide como una combinación de diversos factores, por ejemplo:
Velocidad del enlace (información estática)
Tráfico medio (puede ser información estática o dinámica)
Retardo (información dinámica medida enviando paquetes de prueba)
Costo (información estática especificada por el usuario)
El peso relativo que se da a cada uno de los factores que intervienen en el cálculo del costo de un trayecto se
denomina métrica. La métrica puede ser fijada o modificada al configurar el router.
Si se utiliza información invariable (velocidad del enlace o costo) este algoritmo puede aplicarse a un
encaminamiento estático.
Si se emplean parámetros dinámicos (tráfico medio, retardo) obtenidos en tiempo real el algoritmo puede
utilizarse para encaminamiento dinámico.
Existen diversos algoritmos que permiten calcular el camino más corto entre dos nodos de un grafo. Uno de los
mas conocidos es debido a Dijkstra.
Inundación, o flooding (estático)
Consiste en enviar cada paquete por todas las interfaces, excepto por la que se ha recibido.
Puede multiplicar el tráfico si existen bucles en la topología, ya que en ese caso se envían paquetes duplicados.
Para limitarlo se fija un número máximo de saltos para cada paquete igual al máximo de saltos que hay hasta
llegar al punto mas lejano de la red (decimos que ese número de saltos constituye el tamaño o diámetro de la red).
Otra posibilidad es que cada router mantenga una lista de paquetes enviados para evitar reenviarlos de nuevo (la
lista no necesita ser exhaustiva, puede decir por ejemplo 'para el destino X recibidos todos hasta el 1900, y
además 1912 y 1915'). Los paquetes han de estar numerados de manera no ambigua.
También puede usarse inundación selectiva: el paquete se envía sólo por las líneas que aproximadamente van en la
dirección correcta; por ejemplo si el paquete va hacia Córdoba se enviará por las líneas que van al sur solamente.
La inundación se utiliza en algunos algoritmos de routing multicast.
Encaminamiento basado en el flujo (normalmente estático)
Toma en cuenta la cantidad de tráfico medio que soportan las líneas, y en base a esta información intenta
optimizar el conjunto de las rutas para utilizar el camino menos congestionado en cada caso.
Se ha de conocer bastante bien el tráfico, y éste ha de ser muy regular; se pueden aplicar algoritmos relativamente
sofisticados ya que el cálculo de rutas se hace offline y se carga en el router después.
Encaminamiento por vector distancia (dinámico)
Fue el algoritmo original de ARPANET. Se usó en DECNET e IPX, y se usa en Appletalk. Se usa en el
protocolo RIP (Routing Information Protocol), que hasta 1988 era el único utilizado en Internet. También se
utiliza en los protocolos propietarios IGRP y EIGRP de Cisco, que es la marca más importante en routers IP, y
una de las más importantes en equipos de comunicaciones para redes de datos. También se conoce como
algoritmo de Bellman-Ford o Ford-Fulkerson, que son los autores de la idea.
Cada router mantiene una tabla (vector) que le indica la distancia mínima conocida para cada router destino y que
línea utilizar para llegar a él. La tabla se actualiza regularmente con información obtenida de los routers vecinos.
La distancia puede medirse en saltos, retardo, paquetes encolados, etc., o una combinación de estos u otros
parámetros. Para medir el retardo el router envía un paquete de prueba que debe ser respondido por el router
remoto (por ejemplo en IP se utilizan paquetes especiales denominados ECHO).
En routing con vector distancia las noticias buenas se propagan rápidamente, pero se reacciona lentamente a las
malas. Esto se conoce como el problema de la cuenta a infinito. Se han ideado multitud de trucos para resolver
este problema, pero cada solución propuesta introduce otros inconvenientes.
Encaminamiento por el estado del enlace
El encaminamiento basado en el estado del enlace tiene cinco fases:
1. Descubrir los routers vecinos y averiguar sus direcciones.
2. Medir el retardo o costo de llegar a cada vecino
3. Construir un paquete que resuma toda esta información
4. Enviar ese paquete a todos los routers
5. Calcular el camino mas corto a cada router
Para conocerse los routers al encenderse envían paquetes de presentación (HELLO) por todas sus interfaces; los
paquetes HELLO son respondidos con mensajes identificativos por los routers.
Para conocer el retardo los routers envían paquetes de prueba (p. ej. ECHO) que son respondidos por el router
remoto, y miden el tiempo de ida y vuelta. En ocasiones se toma en cuenta el tiempo en cola, y en ocasiones no.
Ambas opciones tienen sus ventajas e inconvenientes.
Con toda la información obtenida el router debe construir un paquete y enviarlo a todos los otros routers. Para
esto utiliza inundación. Los paquetes se numeran para detectar (y descartar) duplicados, e ignorar paquetes
obsoletos (si llega el paquete 26 después de haber recibido el 28 se descarta). Además cada paquete tiene una
vida limitada, al cabo de la cual es descartado.
Con toda la información obtenida el router conoce perfectamente la topología de la red, y puede calcular el
camino óptimo mediante el algoritmo de Dijkstra, por ejemplo.
Entre los protocolos dinámicos que utilizan routing por el estado del enlace destaca OSPF (Open Shortest Path
First) que es un protocolo de routing estándar de Internet. Otro protocolo de estado del enlace también utilizado
en la Internet es IS-IS (Intermediate System-Intermediate System). IS-IS es multiprotocolo, es decir, soporta
múltiples protocolos de red por encima. OSPF esta basado en IS-IS, pero no es multiprotocolo.
Encaminamiento jerárquico
Para ir en coche de Valencia a Milán utilizamos un mapa detallado de España e Italia, pero no necesitamos
normalmente uno detallado de Francia, nos basta con uno de carreteras principales de Europa.
A medida que una red crece la cantidad información de routing aumenta de forma exponencial con el tamaño de
la red, ya que cada router ha de calcular las rutas óptimas a todos los demás. Esto incrementa el tráfico, la
memoria en los routers, y la complejidad de los cálculos necesarios para obtener las rutas óptimas. Decimos que
los algoritmos de routing no escalan bien o no son escalables.
Para reducir este problema las redes se organizan en niveles jerárquicos; se divide la red en regiones, y sólo un
número reducido de routers de cada región (los routers interregionales) puede comunicar con el exterior. Las
rutas quizá no sean tan óptimas, pero se simplifica la gestión y el mantenimiento de las tablas de routing, y se
reduce el tráfico de gestión de la red.
En la práctica se suelen dar dos o más niveles jerárquicos de routing.
Se puede demostrar que el número óptimo de niveles para una red de N routers es ln N, con una tabla de e ln N
entradas en cada router. Por ejemplo para 150 routers lo óptimo serían 5 niveles, con 14 entradas por router.
Encaminamiento broadcast
En algunos casos se necesita enviar un paquete a todos los destinos posibles en una red, es decir se quiere hacer
un envío broadcast.
A veces esto se hace por inundación, ya que es especialmente apropiada en este caso. Sin embargo se pueden
producir bucles en la red.
Otro método es el routing multidestino. Se manda un único paquete con todas las direcciones a las que debe
enviarse, y en cada router se replica en aquellas interfaces donde esta justificado, es decir, las que son parte de la
mejor ruta para alguno de los destinos.
Otro algoritmo es construir el spanning tree correspondiente al origen, y seguirlo, replicando el paquete allí donde
haya una bifurcación. El spanning tree no tiene bucles. El sistema es óptimo, ya que se asegura que la distribución
se hará generando el número mínimo de paquetes y sin duplicados. Pero requiere que cada router conozca cuales
de sus interfaces forman parte del spanning tree para el router origen, y cuales no. Con routing del estado del
enlace los routers poseen esta información.
Por último el algoritmo de encaminamiento por el camino inverso intenta emular al spanning tree cuando la
información sobre la topología no está disponible. Consiste en lo siguiente: el router examina la dirección origen
del paquete recibido, y la interfaz por la que le ha llegado; si la interfaz es la vía habitual para esa dirección es
bastante probable que el paquete no sea un duplicado, por lo que lo reenviará por todas las interfaces excepto por
aquella por la que vino; si no es la interfaz habitual para esa dirección el paquete se descarta pues es muy probable
que sea un duplicado. Esta técnica evita que se produzcan bucles y consigue una eficiencia bastante buena,
aunque no tanto como el spanning tree ya que algunos paquetes no llegaran a su destino por la ruta óptima.
Encaminamiento multicast
Para el envío de paquetes multicast primero hay que crear el grupo multicast. Una vez creado diferentes usuarios
pueden unirse al grupo, o abandonarlo. Las tareas de gestión del grupo son en principio independientes del
routing multicast.
Cuando un usuario (o proceso que depende de un host conectado a un router), se une a un grupo multicast debe
informar a su router, y éste a sus vecinos.
Cada router que quiera emitir paquetes multicast ha de construir el spanning tree de toda la subred, colocándose
él como raíz. A continuación 'poda' el árbol (podar= to prune en inglés), dejando sólo las ramas necesarias para
hacer llegar los paquetes a los routers que forman parte del grupo multicast.
Si se utiliza routing por el estado del enlace cada router conoce la topología en detalle, por lo que puede proceder
a podar todo el árbol sin más, de abajo hacia arriba.
Con routing por vector distancia se puede utilizar encaminamiento por el camino inverso; cuando un router
detecta que ninguno de los hosts que dependen de él está interesado en la emisión envía un mensaje PRUNE por
la interfaz por la que recibe el tráfico multicast, para indicar al emisor que no desea recibir los paquetes multicast.
Cuando un router ha recibido mensajes PRUNE por todas sus interfaces menos por la que le está enviando
paquetes multicast, envía a su vez un mensaje PRUNE por ésta para que el emisor proceda a 'podar' la rama
correspondiente.
En vez de empezar enviando los paquetes a todos los routers e ir podando las ramas innecesarias también es
posible adoptar la postura inversa, donde los routers que deseen recibir tráfico multicast lo soliciten. El uso de
una u otra estrategia depende de si la audiencia va a ser 'densa' (es decir, va ha haber un porcentaje elevado de
'espectadores') o 'dispersa', (va a haber un porcentaje reducido).
6.3.- ALGORITMOS DE CONTROL DE CONGESTIÓN
Denominamos congestión a la circunstancia en la que el rendimiento de la red (o una parte de ella) se degrada
debido a la presencia de demasiados paquetes.
La congestión es un problema global, que se da en el nivel de red como consecuencia del tráfico agregado de
varias fuentes sobre un enlace o router de baja capacidad.
Por el contrario el control de flujo es una circunstancia que solo puede darse en conexiones punto a punto (es
decir, a nivel de enlace o a nivel de transporte).
Tanto en congestión como en control de flujo suelen utilizarse mecanismos de notificación al emisor para que
baje el ritmo. La congestión es más compleja, ya que generalmente el emisor no es el verdadero causante del
problema, y se limita a reenviar hacia atrás el aviso recibido; entretanto seguirán llegando irremediablemente
paquetes que agravarán la situación. En líneas de alta velocidad y elevado retardo (gran distancia) este problema
se acentúa.
En muchos casos la solución a un problema de congestión se traduce en un control de flujo en el host que genera
el tráfico.
Normalmente la congestión se produce porque pretende pasar más tráfico por una línea de lo que ésta es capaz de
absorber. Por ejemplo un router recibe mucho tráfico de varias líneas de 2 Mbps todo dirigido a una sola línea
también de 2 Mbps. Generalmente el cuello de botella es la línea de transmisión, pero en algunos casos la
congestión puede ser causada por el propio router (CPU lenta).
Inicialmente los buffers intentan salvar la situación, pero si la situación dura bastante los buffers se llenan y los
routers empiezan a descartar paquetes.
A menudo cuando se produce congestión en un router el problema crece y se propaga con rapidez a otros routers
vecinos (algo parecido a un atasco de tráfico), pudiendo llegar a ser un problema en toda la red.
Principios generales del control de congestión
Para el control de la congestión caben dos planteamientos:
Diseñar las cosas de entrada para que la congestión no pueda llegar a ocurrir.
Tomar medidas que permitan detectar la congestión y adoptar medidas correctoras en su caso.
Entre los parámetros que permiten detectar la presencia de congestión se encuentran por ejemplo:
Porcentaje de paquetes descartados
Longitud media de las colas en las interfaces
Número de paquetes que dan timeout y se retransmiten (se supone que esto no se debe a errores)
Retardo medio por paquete
Desviación media del retardo por paquete
Para informar sobre situaciones de congestión el receptor pueden utilizar paquetes de alerta, o incluir la
información en un campo especial de los paquetes de datos que devuelve (aviso 'piggybacked'). También puede el
emisor enviar paquetes para sondear el estado de la red.
Es preciso llegar a un compromiso, ya que si se es demasiado conservador se puede desaprovechar la capacidad
de la red; por el contrario, si se es muy atrevido se puede llegar a situaciones de congestión de las que sea difícil
salir. En general suele ser preferible pasarse de conservador.
Para resolver la congestión solo hay dos posibles medidas:
Reducir el tráfico informando al emisor o buscando rutas alternativas.
Aumentar la capacidad (por ejemplo activando canales RDSI).
Sistemas o políticas ('policies') de prevención de congestión
Entre los factores a nivel de enlace que pueden influir en el nivel de congestión se encuentran:
El intervalo de timeout; si es pequeño originará retransmisiones innecesarias
El tamaño de ventana; si es grande es más fácil que se produzca congestión
El uso de retroceso n o repetición selectiva; el retroceso n genera más tráfico
El uso o no de ACK piggybacked; si no se usa se genera más tráfico
En el nivel de red son los siguientes:
Uso de circuitos virtuales o datagramas (hay mejor control cuando se trata de circuitos virtuales).
Mecanismo de encolamiento y criterios de selección (prioridades)
Mecanismo de descarte de paquetes (hay paquetes marcados como imprescindibles?)
Algoritmo de routing (es posible evitar una zona congestionada?)
Vida media de los paquetes (si duran demasiado poco tendrán que ser retransmitidos, si demasiado terminarán
siendo inútiles)
En el nivel de transporte se dan básicamente los mismos factores que en el nivel de enlace; la principal diferencia
es que la estimación del timeout adecuado es mucho más difícil al no ser una comunicación entre entidades
vecinas.
Perfiles de tráfico y vigilancia del tráfico ('traffic shaping' y 'traffic policing')
El tráfico a ráfagas es la principal causa de congestión. Si todos los ordenadores transmitieran siempre un flujo
constante sería muy fácil evitar las congestiones.
Los perfiles de tráfico (traffic shaping) establecen unos márgenes máximos al tráfico a ráfagas. Suelen utilizarse
para fijar una QoS entre el operador y el usuario; entretanto el usuario respete lo establecido el operador se
compromete a no descartar paquetes (actúa como una especie de contrato de QoS).
Se denomina vigilancia del tráfico (traffic policing) a la labor de monitorización o seguimiento del tráfico
introducido por el usuario en la red para verificar que no excede el perfil pactado.
Uno de los sistemas utilizados para establecer perfiles de tráfico es el conocido como algoritmo del pozal
agujereado (leaky bucket): el host puede enviar ráfagas que son almacenadas en un buffer de la interfaz, la cual
envía a la red un caudal constante; si la ráfaga es de tal intensidad o duración que el buffer (pozal) se llena, los
paquetes excedentes son descartados. Para definir un pozal agujereado se utilizan dos parámetros, el caudal r con
que sale el flujo a la red, y la capacidad del buffer C.
Por ejemplo supongamos que con r=2 MB/s y C= 1 MB un ordenador envía una ráfaga de 1MB en 40 mseg
(equivalente a 25 MB/s); la ráfaga tardará en enviarse 500 mseg; si el ordenador envía otra ráfaga de 1 MB
durante esos 500 mseg el buffer se llenará y se perderán datos.
El pozal agujereado suprime completamente las ráfagas en la red. A veces interesa algo más de flexibilidad; en
esos casos se utiliza el algoritmo del pozal con créditos (token bucket). Podemos considerarlo como una versión
mejorada del pozal agujereado: cuando el host no envía datos a la interfaz ésta va sumando créditos (tokens)
hasta un máximo igual a la capacidad del buffer (el cubo); los créditos acumulados pueden utilizarse después para
enviar ráfagas con un caudal M mayor de lo normal; cuando se agotan los créditos el caudal vuelve a su valor
normal r, como en el caso del pozal agujereado. Los parámetros que definen un pozal con vale son r, la capacidad
del buffer C y el caudal máximo permitido M (normalmente igual a la velocidad de la interfaz física).
Supongamos que r=2 MB/s, C= 1 MB y M = 25 MB/s. Siguiendo con el ejemplo anterior, si el buffer está lleno
de créditos cuando llega la ráfaga ésta será enviada a la red a 25 MB/s, o sea a la misma velocidad que la envía el
host. Si el buffer está solo medio lleno (500 KB de créditos) se producirá una ráfaga de 25 MB/s durante 22 mseg
y seguirá un caudal de 2 MB/s durante 228 mseg (hay que tomar en cuenta que durante la ráfaga siguen llegando
créditos, pero no después ya que se van consumiendo a medida que llegan). Por último, si no hubiera créditos
disponibles el comportamiento sería idéntico al del pozal agujereado.
En ocasiones se combina un pozal con créditos seguido de un pozal agujereado de r mayor; con lo que se
permiten ráfagas pero de forma controlada.
Especificaciones de flujo
Se conocen con este nombre el conjunto de parámetros que especifican el caudal y calidad de servicio esperados
en una transferencia de datos entre dos entidades, para poder realizar de forma eficiente el perfil de tráfico y la
vigilancia de éste.
Algunos de estos parámetros son los siguientes:
Máximo tamaño de paquete
r y C si se utiliza pozal agujereado
r, C y M si se utiliza pozal con vale
Tasa de pérdidas (p. ej. 1 byte/hora)
Cantidad máxima de paquetes consecutivos que pueden descartarse.
Retardo máximo (p. ej. 100 mseg)
Variación máxima en el retardo, o jitter (p. ej. 10 mseg, equivalente a retardo ± 5 ms).
Control de admisión (redes de circuitos virtuales)
El control de admisión consiste en impedir el establecimiento de nuevos VC que pasen por la zona congestionada.
Si para cada VC se conoce la capacidad que necesita es posible controlar el acceso de forma que nunca se
produzca congestión. En general esta técnica no usa los recursos de manera eficiente, por lo que es normal prever
un cierto grado de sobresuscripción, u overbooking.
Paquetes de asfixia ('choke packets')
Se puede aplicar tanto en redes de VC como de datagramas.
El router sigue de cerca la situación de cada una de sus líneas, monitorizando por ejemplo el grado de utilización,
la longitud de la cola o la ocupación del buffer correspondiente. Cuando el parámetro inspeccionado supera un
determinado valor considerado peligroso se envía un paquete de asfixia ('choke' packet) al host considerado
'culpable' para que reduzca el ritmo.
La evaluación del parámetro a monitorizar se suele hacer con una fórmula del tipo:
unuevo = auviejo + (1-a) f
donde f es el valor instantáneo medido del parámetro (utilización, tamaño de la cola u ocupación del buffer), u el
valor medio, y a una constante que permite regular el peso que se le quiere dar a los valores anteriores, o dicho de
otro modo con que rapidez se quiere reaccionar a las situaciones nuevas.
Los paquetes de asfixia se envían al host, ya que es éste y no el router el verdadero origen de la congestión. Los
hosts cuando reciben estos paquetes suelen reducir a la mitad la velocidad con la que envían datos a la red. Esto
lo pueden hacer reduciendo por ejemplo el tamaño de ventana (del protocolo a nivel de transporte) o cambiando
los parámetros del pozal agujereado o pozal con vale, si utilizan alguno de estos algoritmos para controlar su
flujo. En una situación de congestión normalmente serán muchos los hosts que recibirán este tipo de paquetes.
En ocasiones interesa que los paquetes de asfixia tengan un efecto inmediato en cada uno de los routers que
atraviesan en su camino hacia el host origen del tráfico; esto ocurre sobre todo cuando la conexión es de alta
velocidad y el retardo grande (gran distancia por ejemplo). En esencia se trata de resolver la congestión de forma
inmediata distribuyendo el tráfico en curso entre los buffers de los routers que hay por el camino, mientras el
mensaje de alerta llega al verdadero causante de los problemas.
Por desgracia la obediencia a los paquetes de asfixia es completamente voluntaria; si un host decide hacer caso
omiso de las advertencias no se le puede obligar. Si un host reduce su ritmo mientras otros no lo hacen el primero
saldrá perjudicado pues obtendrá una parte aún menor del ya escaso ancho de banda.
Así pues, en situaciones de saturación se plantea el problema de como repartir el ancho de banda de forma justa
entre los usuarios. Existen varios mecanismos que intentan resolver este problema:
Encolamiento justo (fair queuing): el router mantiene una cola independiente por cada host y envía los paquetes
en turno rotatorio ('round robin'); el problema es que los usuarios con paquetes grandes obtienen mas ancho de
banda. Una versión mejorada investiga el tamaño de los paquetes para hacer un reparto homogéneo en número de
bytes transmitidos por host.
Encolamiento justo ponderado (weighted fair queuing): permite establecer prioridades, ya que en ocasiones
interesa dar mas prioridad a algunas maquinas (por ejemplo servidores) o a algunos servicios (aplicaciones
interactivas, por ejemplo). La prioridad se puede establecer por direcciones o por tipo de servicio (por ejemplo
más prioridad a los servicios interactivos).
Derramamiento de la carga
La solución extrema para resolver la congestión es descartar paquetes. En ocasiones los paquetes llevan alguna
indicación de su grado de importancia, en cuyo caso los routers intentan descartar los menos importantes
primero. Por ejemplo, sería bastante grave si un router para resolver una situación de congestión descartara
paquetes de asfixia enviados por otro router.
A veces el nivel de aplicación puede dar información sobre la prioridad de descarte de los paquetes. Por ejemplo
en cualquier aplicación con tráfico isócrono suele ser preferible descartar el paquete viejo al nuevo ya que el viejo
seguramente es inútil, mientras que en transferencia de ficheros es al contrario pues en muchos casos el receptor
no aceptará el paquete nuevo mientras no reciba el viejo (retroceso n). En los ficheros MPEG (formato estándar
de vídeo digital) algunos fotogramas son completos y otros son diferencias respecto a los fotogramas contiguos;
descartar un paquete de un fotograma completo es mas perjudicial. En todos estos casos es preciso que el nivel
de transporte identifique claramente los paquetes poco importantes para que los routers sepan descartarlos de
manera selectiva en caso necesario.
En algunos casos el paquete a nivel de red se utiliza para encapsular otros de mayor tamaño del nivel de
transporte, por lo que si se descarta un paquete de la secuencia se tendrán que reenviar todos los demás; en este
caso se pueden descartar todos los paquetes del mismo grupo pues su envío será inútil de todos modos. Por
ejemplo cuando se utiliza una red ATM para transportar tráfico TCP/IP las celdas transportan encapsulados
datagramas IP que pueden llegar a ser de 9180 bytes, por lo que un paquete se traduce en unas 190 celdas ATM.
Si por congestión se descarta alguna celda de un datagrama IP no tiene sentido enviar las demás celdas del mismo
datagrama. Algunos conmutadores ATM implementan técnicas conocidas como Early Packet Discard y Partial
Packet Discard que permiten al conmutador realizar ese descarte inteligente.
Control del jitter
En aplicaciones isócronas (audio y vídeo) la fluctuación en el retardo o jitter, es tan importante o más que el
retardo mismo.
Para intentar minimizar el jitter en la red es preciso que cada router analice si el paquete va adelantado o atrasado
respecto a su 'horario' normal; si va adelantado lo pondrá al final de su cola, y si va atrasado lo pondrá al
principio. De esta forma se reduce el jitter para todos los paquetes.
Control de congestión para tráfico multicast
Hasta ahora hemos supuesto que todo el tráfico tenía un único destino, es decir era tráfico unicast. Existen como
ya hemos visto algoritmos de routing específicos para tráfico multicast y broadcast. Recientemente se ha
investigado bastante todo lo relativo al tráfico multicast, ya que es se prevé un gran aumento de tráfico de este en
aplicaciones de vídeoconferencia o vídeo casi bajo demanda. Muchas de las aplicaciones que envían tráfico
multicast son isócronas, por lo que tienen unos requerimientos severos en el retardo y el jitter, y por tanto
soportan mal la congestión.
Generalmente se considera necesario que los usuarios puedan incorporarse o abandonar un grupo multicast sin
necesidad de reserva o planificación previas. Imaginemos por ejemplo un servicio de televisión digital en el que
los usuarios van haciendo continuamente 'zapping' de un canal a otro; en un momento dado los usuarios que estén
viendo el mismo canal forman un grupo multicast, pero el grupo puede cambiar con bastante rapidez.
El protocolo RSVP (Resource reSerVation Protocol) permite manejar estas situaciones, evitando la congestión.
Para funcionar requiere construir el spanning tree correspondiente al grupo multicast (lo cual no es misión de
RSVP sino del algoritmo de routing). Una vez construido el árbol uno cualquiera de los receptores envía un
mensaje de reserva hacia el emisor empleando el encaminamiento del camino inverso que hemos visto al hablar de
routing broadcast. Cada router por el que pasa el paquete de reserva toma nota del ancho de banda solicitado y lo
asigna, o bien devuelve un mensaje de error si no hay capacidad disponible. Si todo va bien al final del proceso el
receptor ha reservado el ancho de banda necesario en todo el camino.
Cuando a continuación otro receptor envía su mensaje de reserva ésta solo se efectuará en aquella parte del
trayecto que no sea común con el primer receptor y no haya sido por tanto ya reservada por éste. De esta forma
se asegura un uso óptimo de las líneas a la vez que se evita por completo la congestión (suponiendo que RSVP
no realiza sobresuscripción).
RSVP es actualmente un estándar Internet, y existen ya routers comerciales que lo implementan. Las primeras
pruebas de uso de RSVP para servicio comerciales de televisión interactiva se han llevado a cabo a finales de
1996.
Es interesante observar que, aunque se trate de un estándar Internet, RSVP tiene más parecido con un protocolo
CONS que con un CLNS, ya que los routers tienen que guardar una cierta información de la conexión activa,
algo equivalente a lo que sería un VC; dicho de otro modo, ya no son 'stateless' sino 'statefull'.
6.4.- LA CAPA DE RED EN LA INTERNET
La Internet es un compendio de redes diferentes que comparten un protocolo, o pila de protocolos comunes (IP a
nivel de red y sobre todo TCP a nivel de transporte); cada una de estas redes es administrada por una entidad
diferente: universidades, redes académicas nacionales, proveedores comerciales , operadores, multinacionales,
etc. Como consecuencia de esto las políticas de uso son muy variadas.
Técnicamente a nivel de red la Internet puede definirse como un conjunto de sistemas autónomos conectados
entre sí que utilizan el protocolo de red IP.
IP es una red de datagramas, no orientada a conexión, con calidad de servicio 'best effort', es decir, no hay QoS,
no se garantiza la entrega de los paquetes ya que en momentos de congestión éstos pueden ser descartados sin
previo aviso por los routers que se encuentren en el trayecto.
El protocolo IP
Toda información en una red IP ha de viajar en datagramas IP. Esto incluye tanto las TPDUs (Transport Protocol
Data Units) de TCP y UDP, como cualquier información de routing que se intercambie en la red (paquetes
ECHO, HELLO, PRUNE; de asfixia, etc.).
El tamaño de un datagrama IP se especifica en un campo de dos bytes, por lo que su valor máximo es de 65535
bytes, pero muy pocas redes admiten este valor. Normalmente el nivel de enlace no fragmenta, por lo que cada
paquete viaja en una trama; por tanto el tamaño máximo de paquete viene determinado por el tamaño máximo de
trama característico de la red utilizada. El tamaño máximo de paquete de una red se conoce como MTU
(Maximum Transfer Unit).; a continuación damos algunos ejemplos de valores de MTU característicos de las
redes más habituales:
Protocolo a nivel de enlace MTU
PPP (valor por defecto) 1500
PPP (bajo retardo) 296
SLIP 1006 (límite original)
X.25 1600 (varía según las redes)
Frame relay al menos 1600 normalmente
SMDS 9235
Ethernet version 2 1500
IEEE 802.3/802.2 1492
IEEE 802.4/802.2 8166
Token Ring IBM 16 Mb 17914 máximo
IEEE 802.5/802.2 4 Mb 4464 máximo
FDDI 4352
Hyperchannel 65535
ATM 9180
Es bastante normal utilizar 1500 como valor de MTU. Cualquier red debe soportar como mínimo un MTU de 68
bytes.
El datagrama tiene dos partes: cabecera y texto; la cabecera tiene una parte fija de 20 bytes y una opcional de
entre 0 y 40 bytes (siempre múltiplo de 4).La parte fija de la cabecera tiene la siguiente estructura:
Campo Longitud (bits)
Versión 4
IHL (Internet Header Length) 4
Tipo de servicio 8
Longitud total 16
Identificación 16
Reservado 1
DF (Don't Fragment 1
MF (More Fragments) 1
Fragment offset 13
TTL (Time To Live) 8
Protocolo 8
Checksum de cabecera 16
Dirección de origen 32
Dirección de destino 32
Opciones 0-320
El campo versión permite que coexistan en la misma red sin ambigüedad paquetes de distintas versiones; la
versión actualmente utilizada de IP (que corrresponde a la estructura de datagrama que estamos estudiando) es la
4. Como veremos mas tarde se empieza a extender el uso de una nueva versión, la 6, con una estructura de
datagrama diferente.
El campo IHL especifica la longitud de la cabecera, en palabras de 32 bits, ya que ésta puede variar debido a la
presencia de campos opcionales. Se especifica en palabras de 32 bits. La longitud mínima es 5 y la máxima 15,
que equivale a 40 bytes de información opcional. La longitud de la cabecera siempre ha de ser un número entero
de palabras de 32 bits, por lo que si la longitud de los campos opcionales no es un múltiplo exacto de 32 bits se
utiliza un campo de relleno al final de la cabecera.
El campo tipo de servicio se compone de dos subcampos: la prioridad (denominada precedencia) y el tipo de
servicio (TOS). Los primeros tres bits permiten especificar una prioridad entre 0 y 7 para cada datagrama,
pudiendo así marcar los paquetes normales con prioridad 0 y los importantes (por ejemplo paquetes de asfixia)
con prioridad 7. La prioridad actúa alterando el orden de los paquetes en cola en los routers, pero no modifica la
ruta de éstos. Dada la actual abundancia de ordenadores personales y estaciones de trabajo gestionadas por el
usuario final, existe un gran debate sobre si es conveniente la existencia de un campo prioridad, ya que el usuario
podría descubrir que obtiene mejor servicio con alta prioridad y utilizar sistemáticamente el valor 7 para todo tipo
de paquetes; en la práctica muchos equipos ignoran este campo y cuando hacen uso de el es únicamente dentro de
la red (es decir, entre routers). Los cuatro bits siguientes actúan como flags denominados D, T, R y C
respectivamente. El primero indica que se desea un servicio de bajo retardo (D=Delay); el segundo que se quiere
elevado rendimiento (T=Throughput), el tercero que se quiere una elevada fiabilidad (R=Reliability), y el cuarto
que se quiere un bajo costo (C=Cost). Las combinaciones válidas del subcampo TOS son las siguientes:
Valor TOS Descripción
0000 Valor por defecto
0001 Mínimo costo económico
0010 Máxima fiabilidad
0100 Máximo rendimiento
1000 Mínimo retardo
1111 Máxima seguridad
Para cada aplicación existe un valor de TOS recomendado. Por ejemplo, para telnet y logon remoto se
recomienda 1000 (mínimo retardo), para FTP 0100 (máximo rendimiento) y para NNTP (news) 0001 (mínimo
costo económico).
Algunos routers utilizan el subcampo TOS para encaminar los paquetes por la ruta óptima en función del valor
especificado; también pueden utilizarlo para tomar decisiones sobre que paquetes descartar en situaciones de
congestión. Algunos routers simplemente ignoran este subcampo.
El campo longitud total especifica la longitud del datagrama completo (cabecera incluida) en bytes. El valor
máximo es 65535 bytes.
El campo identificación lo usa el emisor para marcar en origen cada datagrama emitido, y permite al receptor
reconocer las partes correspondientes en caso de que se haya producido fragmentación por el camino.
El bit DF (Don't Fragment) cuando está a 1 indica a los routers que no fragmenten el paquete, ya que el receptor
no está capacitado para reensamblarlo. Por ejemplo, si un ordenador arranca su sistema operativo a través de la
red solicitará que el ejecutable correspondiente se le envíe desde algún servidor a través de la red como un único
datagrama. Si un datagrama con el bit DF puesto no puede pasar por una red el router lo rechazará con un
mensaje de error al emisor. Existe una técnica para averiguar el MTU de una ruta (denominada 'path MTU
discovery') que consiste en enviar un datagrama grande con el bit DF puesto al destino deseado; si se recibe un
mensaje de error se envía otro mas pequeño, hasta que el emisor averigua a base de tanteos cual es el valor de
MTU de la ruta correspondiente, y a partir de ahí puede utilizarla para todos los datagramas (siempre que la ruta
no cambie sobre la marcha).
El bit MF (More Fragments) a 1 especifica que este datagrama es realmente un fragmento de un datagrama
mayor, y que no es el último. Si está a 0 indica que este es el último fragmento (o bien que el datagrama original
no esta fragmentado).
El campo fragment offset sirve para indicar, en el caso de que el datagrama sea un fragmento de un datagrama
mayor, en que posición del datagrama mayor empieza este fragmento. Los cortes siempre se realizan en frontera
múltiplo de 8 bytes (la unidad elemental de fragmentación), por lo que este campo en realidad cuenta los bytes de
8 en 8. Al ser su longitud de 13 bits el número máximo de fragmentos es de 8192, que da cabida a la longitud
máxima de un datagrama (8192 x 8 = 65536). Los fragmentos pueden llegar desordenados, por lo que el último
fragmento puede llegar al receptor sin que haya recibido aun todos los fragmentos; la información fragment offset
junto con longitud del último fragmento (bit MF a 0) le permite al receptor calcular la longitud total del
datagrama original.
El campo TTL (Time To Live) permite descartar un datagrama cuando ha pasado un tiempo excesivo viajando
por la red y es presumiblemente inútil. En el diseño original se pretendía que el valor de este campo (que
inicialmente podía valer por ejemplo 64) se decrementara en cada router en un valor igual al tiempo en segundos
que el paquete había empleado en esa parte del trayecto, restando como mínimo 1 en cualquier caso. En la
práctica medir tiempos en una red es mucho más difícil de lo que parece (los relojes de los routers han de estar
muy bien sincronizados), por lo que todas las implementaciones se limitan sencillamente a restar 1 al valor de
TTL de cada paquete que pasa por ellos, sin analizar el tiempo que el paquete ha invertido en el salto. Como de
cualquier forma hoy en día es muy raro que un paquete tarde más de un segundo en cada salto esto es
aproximadamente conforme con el diseño original. El valor inicial de TTL de un paquete fija el número máximo
de saltos que podrá dar, y por tanto debería ser suficientemente grande como para que pueda llegar a su destino.
El TTL evita que por algún problema de rutas se produzcan bucles y un datagrama pueda permanecer 'flotando'
indefinidamente en la red.
El campo protocolo especifica a que protocolo del nivel de transporte corresponde el datagrama. La tabla de
protocolos válidos y sus correspondientes números son controlados por el IANA (Internet Assigned Number
Authority) y se especifican (junto con muchas otras tablas de números) en un RFC muy especial, denominado
'Assigned Numbers', que se actualiza regularmente; el vigente actualmente es el RFC 1700. Algunos de los
posibles valores del campo protocolo son los siguientes:
Valor Protocolo Descripción
0 Reservado
1 ICMP Internet Control Message Protocol
2 IGMP Internet Group Management Protocol
3 GGP Gateway-to-Gateway Protocol
4 IP IP en IP (encapsulado)
5 ST Stream
6 TCP Transmission Control Protocol
8 EGP Exterior Gateway Protocol
17 UDP User Datagram Protocol
29 ISO-TP4 ISO Transport Protocol Clase 4
38 IDRP-CMTP IDRP Control Message Transport Protocol
80 ISO-IP ISO Internet Protocol (CLNP)
88 IGRP Internet Gateway Routing Protocol (Cisco)
89 OSPF Open Shortest Path First
255 Reservado
El campo checksum sirve para detectar errores producidos en la cabecera del datagrama; no es un CRC sino el
complemento a uno en 16 bits de la suma complemento a uno de toda la cabecera (incluidos los campos
opcionales si los hubiera), tomada en campos de 16 bits; para el cálculo el campo checksum se pone a ceros. Este
campo permite salvaguardar a la red de un router que alterara los campos de cabecera de un datagrama, por
ejemplo por un problema hardware. El campo checksum se ha de recalcular en cada salto, ya que al menos el
TTL cambia. Esto supone un serio inconveniente desde el punto de vista de rendimiento en routers con mucho
tráfico.
Los campos dirección de origen y dirección de destino corresponden a direcciones IP según el formato que
veremos luego.
Los campos opcionales de la cabecera no siempre están soportados en los routers y se utilizan muy raramente; de
estos podemos destacar los siguientes:
Record route: Esta opción pide a cada router por el que pasa este datagrama que anote en la cabecera su
dirección, con lo que se dispone de una traza de la ruta seguida para fines de prueba o diagnóstico de problemas.
Debido a la limitación en la longitud de la cabecera como máximo pueden registrarse 9 direcciones, lo cual es
insuficiente en algunos casos.
Source routing: permite al emisor especificar la ruta que debe seguir el datagrama hasta llegar a su destino.
Existen dos variantes: strict source routing permite especificar la ruta exacta salto a salto, de modo que si algún
paso de la ruta no es factible por algún motivo se producirá un error. Con loose source routing no es preciso
detallar todos los saltos, puede haber pasos intermedios no especificados.
Timestamp: esta opción actúa de manera similar a record route, pero además de anotar la dirección IP de cada
router atravesado se anota en otro campo de 32 bits el instante en que el datagrama pasa por dicho router.
De estos el más utilizado es source routing, y aún éste se usa poco pues generalmente se prefiere usar en su lugar
encapsulado IP en IP, que es más eficiente.
Direcciones IP
Cada nodo (host o router) en una red IP se identifica mediante al menos una dirección única de 32 bits. Las
direcciones IP se suelen representar por cuatro números decimales separados por puntos, que equivalen al valor
de cada uno de los cuatro bytes que componen la dirección. Por ejemplo una dirección IP válida sería
147.156.23.208.
Si un nodo dispone de varias interfaces físicas (cosa habitual en los routers) cada una de ellas deberá tener
necesariamente una dirección IP distinta si se desea que sea accesible para este protocolo. Es posible además, y en
algunas situaciones resulta útil, definir varias direcciones IP asociadas a una misma interfaz física.
Las direcciones IP tienen una estructura jerárquica. Una parte de la dirección corresponde a la red, y la otra al
host dentro de la red. Cuando un router recibe un datagrama por una de sus interfaces compara la parte de red de
la dirección con las entradas contenidas en sus tablas (que normalmente sólo contienen direcciones de red, no de
host) y envía el datagrama por la interfaz correspondiente.
En el diseño inicial de la Internet se reservaron los ocho primeros bits para la red, dejando los 24 restantes para el
host; se creía que con 254 redes habría suficiente para una red que tan solo era fruto de un proyecto de
investigación del DoD. Ya en 1980 se vio que esto resultaría insuficiente, por lo que se reorganizó el espacio de
direcciones reservando una parte para poder definir mas redes más pequeñas. Para dar mayor flexibilidad y
permitir diferentes tamaños se optó por dividir el rango de direcciones en tres clases adecuadas para redes
grandes, medianas y pequeñas, conocidas como redes de clase A, B y C respectivamente:
Una red de clase A (que corresponde a las redes originalmente diseñadas) se caracteriza por tener a 0 el primer bit
de dirección; el campo red ocupa los 7 bits siguientes y el campo host los últimos 24 bits. Puede haber hasta 126
redes de clase A con 16 millones de hosts cada una.
Una red de clase B tiene el primer bit a 1 y el segundo a 0; el campo red ocupa los 14 bits siguientes, y el campo
host los 16 últimos bits. Puede haber 16382 redes clase B con 2 millones de hosts cada una.
Una red clase C tiene los primeros tres bits a 110; el campo red ocupa los siguientes 21 bits, y el campo host los 8
últimos. Puede haber hasta dos millones de redes clase C con 254 hosts cada una.
Para indicar qué parte de la dirección corrresponde a la red y qué parte al host se suele utilizar una notación
denominada máscara, consistente en poner a 1 los bits que corresponden a la parte de red y a 0 los que
corresponden a la parte host. Así por ejemplo diremos que una red clase A tiene una máscara 255.0.0.0, lo cual
equivale a decir que los ocho primeros bits especifican la red y los 24 restantes el host. Análogamente decimos
que una red clase B tiene una máscara 255.255.0.0 y una clase C una máscara 255.255.255.0.
Existe además direcciones (no redes) clase D cuyos primeros cuatro bits valen 1110, que se utilizan para definir
grupos multicast (el grupo viene definido por los 28 bits siguientes).
Por último, la clase E, que corresponde al valor 11110 en los primeros cinco bits, está reservada para usos
futuros.
De los valores de los primeros bits de cada una de las clases antes mencionadas se deduce que el rango de
direcciones que corresponde a cada una de ellas es el siguiente:
Clase A: de 1.0.0.0 a 127.255.255.255
Clase B: de 128.0.0.0 a 191.255.255.255
Clase C: de 192.0.0.0 a 223.255.255.255
Clase D: de 224.0.0.0 a 239.255.255.255
Clase E: de 240.0.0.0 a 247.255.255.255
Así pues, en la práctica es inmediato saber a que clase pertenece una dirección determinada sin más que saber el
primer byte de su dirección.
La asignación deedirecciones válidas de Internet la realizan los NICs (NIC = Network Information Center). Al
principio había un NIC para toda la Internet pero luego se crearon NICs regionales (por continentes);
actualmente muchos países tienen un NIC propio; en España el NIC es administrado por RedIRIS.
Además del reparto de direcciones por clases según hemos visto existen unos convenios que es importante
conocer:
La dirección con el campo host todo a ceros no se utiliza para ningún host pues se reserva para indicar la red
misma.
La dirección con el campo host todo a unos no se utiliza para ningún host pues se reserva para indicar la
dirección broadcast correspondiente a toda la red.
La dirección 255.255.255.255 (todo a 1) se utiliza para indicar broadcast en la propia red.
Así por ejemplo, si tenemos la red 200.200.200.0 (clase C) reservaremos la dirección 200.200.200.0 para denotar
la red misma, y la dirección 200.200.200.255 para envíos broadcast a toda la red; dispondremos pues de 254
direcciones para hosts (no 256).
Algunas redes están reservadas para fines especiales:
La red 127.0.0.0 se utiliza para pruebas loopback; todas las implementaciones de IP devuelven a la dirección de
origen los datagramas enviados a esta dirección sin intentar enviarlos a ninguna parte.
Las redes:
10.0.0.0,
172.16.0.0 a 172.31.0.0, y
192.168.0.0 a 192.168.255.0
están reservadas por convenio para redes privadas ('intranets'); estos números no se asignan a ninguna dirección
válida en Internet y por tanto pueden utilizarse para construir redes, por ejemplo detrás de un cortafuego, sin
riesgo de entrar en conflicto de acceso a redes válidas de la Internet.
Subredes
Supongamos que una empresa dispone de varias oficinas, cada una con una LAN, todas ellas interconectadas
entre sí, y que desea unirlas mediante el protocolo TCP/IP; una de dichas oficinas (la principal) dispone además
de una conexión a la Internet; sería posible asignar por ejemplo una red clase C diferente para cada oficina, pero
esto supone solicitar al NIC una clase C para cada nueva oficina que se conecte, y al ser cada red independiente
de las demás la gestión se complica; por ejemplo no es posible definir una dirección broadcast para toda la
empresa, para el acceso desde el exterior se ha de contemplar una entrada distinta en las tablas de routing para
cada, etc.
En estos casos resulta útil disponer de algún mecanismo que permita dividir una red IP en trozos o subredes,
creando así un nivel jerárquico intermedio entre la red el host; de esa forma la empresa podría por ejemplo
solicitar una clase B y asignar fragmentos de dicha red a cada oficina a medida que fueran creándose.
Supongamos que a la empresa se le asigna la clase B 156.134.0.0; de los 16 bits que en principio corresponden al
host podría reservar los primeros 8 para la subred y dejar los 8 siguientes para el host, de esta forma habría 256
subredes de 256 direcciones cada una. Desde fuera la red de la empresa seguiría siendo 156.134.0.0, ya que la
estructura de subred no sería visible.
Las subredes se añadieron a la Internet en 1982 para crear ese nivel jerárquico intermedio entre la red y el host,
dando así mayor flexibilidad en el reparto de direcciones dentro de una red.
Para dividir la red en subredes se define una máscara en la que están a 1 los bits de la dirección que corresponden
a la red-subred, y a cero los que corresponden al host. Por ejemplo, la máscara 255.255.255.0 divide una red
clase B en 256 subredes de 256 hosts pues tiene puestos a 1 los primeros 24 bits (16 de la clase B mas 8 de la
subred). Se pueden hacer divisiones que no correspondan con bytes enteros, por ejemplo si la máscara fuera
255.255.252.0 se estarían reservando los primeros 6 bits para la subred y dejando 10 para el host; de esta forma
podría haber hasta 64 redes de 1024 hosts.
Al crear subredes las direcciones con el campo host todo a 0 y todo a 1 quedan automáticamente reservadas para
la designación de la subred y para la dirección broadcast, respectivamente. Así si la red 156.134.0.0 se subdivide
con la máscara 255.255.255.0 se crean 256 subredes del tipo 156.134.subred.host, siendo 156.134.subred.0 la
dirección que identifica a toda la subred y 156.134.subred.255 la dirección broadcast de la subred. El número de
hosts de una subred es siempre dos menos que el número de direcciones que abarca.
Descargar
Enviado por: | Parri |
Idioma: | castellano |
País: | España |