Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Tema III (Control de Acceso Al Medio)

Descargar como doc, pdf o txt
Descargar como doc, pdf o txt
Está en la página 1de 18

Redes de Computadoras

Tema III

CONTROL DE ACCESO AL MEDIO (MAC)


SUB CAPA 1.5
Las redes por su tecnología se clasifican en redes broadcast y redes formadas por enlaces punto a punto.
En este último caso la información se envía al computador situado al otro lado del enlace, que está
claramente identificado y el medio de transmisión normalmente está siempre disponible.
En las redes broadcast hay una complejidad añadida. Dado que el canal de comunicación es compartido
entre varios computadores, es preciso habilitar mecanismos que permitan a cada uno de ellos utilizarlo
para enviar sus tramas al computador de destino. El hecho de compartir el canal generará conflictos o
incluso pérdida de tramas (colisiones) en algunos casos; los protocolos deberán establecer los
mecanismos adecuados para resolver dichos conflictos y permitir que los computadores retransmitan en
caso necesario las tramas que no hayan podido ser enviadas correctamente.

Debido a esta característica singular de las redes broadcast la capa de enlace tiene en ellas una
complejidad mayor que en las redes punto a punto, por lo que el modelo OSI se suele dividir en este caso
en dos subcapas: la inferior, que se ocupa de controlar esta nueva función de acceso al medio de
transmisión que hemos comentado, se denomina subcapa MAC (Medium Access Control); la superior,
conocida como subcapa LLC (Logical Link Control) corresponde a las funciones de la capa de enlace
comunes a todo tipo de redes que se revisara en el siguiente tema.

3.1. COLISIÓN
Una colisión es una interferencia en la transmisión de un computador, producida por otro u otros
computadores, o por las condiciones del medio de transmisión. Puede haber más de dos computadores
involucrados en la colisión. Un computador puede interferir consigo mismo.

Se produce una colisión cuando, a pesar de que un equipo pretende transmitir una cierta serie de bits, las
alteraciones que se producen en el medio de transmisión no se corresponden con esa secuencia de bits.
El computador que transmite es la única capaz de detectar que se está produciendo una colisión, porque
es la única que conoce qué es lo que pretende emitir. Para detectar una colisión, el computador debe
comparar (bit a bit) lo que pretende enviar, con lo que realmente está siendo enviado por el medio. El
computador tiene que tener la capacidad de poder “escuchar” (recibir) mientras está enviando. Los
factores que intervienen en una colisión son la velocidad de propagación, distancia, velocidad de
transmisión y longitud del mensaje.

3.2. ESTRATEGIAS O METODOS DE ACCESO AL MEDIO


Todas las redes locales consisten en una colección de dispositivos que deben compartir la capacidad de
transmisión de la red. Para ello, se hace necesaria la existencia de algún método o estrategia para
controlar el acceso al medio de transmisión evitando los posibles conflictos o errores que puedan
aparecer. El protocolo de control de acceso al medio de transmisión es el factor que más caracteriza el
funcionamiento de una red de área local. De él dependen los parámetros básicos del funcionamiento de
la red como son el rendimiento, la fiabilidad y la gestión de la red. Para regular el control de acceso al
medio, se pueden utilizar estrategias estáticas o dinámicas
Estrategias estáticas
Dividen el uso del recurso de modo fijo. Son ineficientes, porque cuando un computador no tiene nada
para transmitir, los otros no pueden aprovechar la capacidad ociosa.
 TDM (time division multiplexing)
 FDM (frequency division multiplexing)
Estrategias dinámicas
Se clasifican, a su vez, en
 Aleatorias o de Contención: Todos los nodos tienen el control en cada momento (CSMA-Ethernet)
 Distribuidas : Sólo un nodo tiene el control en cada momento (Token bus, token ring)

Ing. Jorge Orellana A. 43


Redes de Computadoras

 Centralizadas: Un único nodo tiene el control, y periódicamente invita a los otros a transmitir (Sondeo
o Polling)

3.2.1. Asignación estática de canales

La manera tradicional de asignar un solo canal entre múltiples usuarios competidores es dividir su
capacidad mediante el uso de uno de los esquemas de multiplexación como el FDM (Multiplexación por
División de Frecuencia. Si hay N usuarios, el ancho de banda se divide en N partes de igual tamaño, y a
cada usuario se le asigna una parte. Debido a que cada usuario tiene una banda de frecuencia privada,
ahora no hay interferencia entre ellos. Cuando sólo hay una pequeña cantidad fija y constante de
usuarios, cada uno tiene un flujo estable o una carga de tráfico pesada, esta división es un mecanismo de
asignación sencillo y eficiente. Las estaciones de radio de FM son un ejemplo inalámbrico. Cada estación
recibe una parte de la banda de FM y la utiliza la mayor parte del tiempo para difundir su señal. Dividir el
único canal disponible en varios subcanales estáticos es ineficiente por naturaleza. El problema básico es
que, cuando algunos usuarios están inactivos, su ancho de banda simplemente se pierde. No lo están
usando, y a nadie más se le permite usarlo.
Por otro lado, si se usara la multiplexación por división de tiempo (TDM) y a cada usuario se le asignara
una N-ésima ranura de tiempo, en caso de que un usuario no utilizara la ranura asignada, simplemente
se desperdicia.

3.2.2. Asignación dinámica de canales

El trabajo hecho en esta área se basa en cinco supuestos clave, que se describen a continuación:

 Tráfico independiente. El modelo consiste en N estaciones independientes (computadoras,


teléfonos), cada una con un programa o usuario que genera tramas para transmisión. El número
esperado de tramas que se generan en un intervalo de longitud Dt es de λDt, donde λ es una
constante (la tasa de llegada de tramas nuevas). Una vez que se ha generado una trama, la estación
se bloquea y no hace nada sino hasta que la trama se haya transmitido con éxito.
 Canal único. Hay un solo canal disponible para todas las comunicaciones. Todas las estaciones
pueden transmitir en él y pueden recibir de él. Se asume que las estaciones tienen una capacidad
equivalente, aunque los protocolos pueden asignarles distintos roles (prioridades).
 Colisiones observables. Si dos tramas se transmiten en forma simultánea, se traslapan en el tiempo
y la señal resultante se altera. Este evento se llama colisión. Todas las estaciones pueden detectar
una colisión que haya ocurrido. Una trama en colisión se debe volver a transmitir después. No hay
otros errores, excepto aquéllos generados por las colisiones.
 Tiempo continuo o ranurado. Se puede asumir que el tiempo es continuo, en cuyo caso la
transmisión de una trama puede comenzar en cualquier momento. Por el contrario, el tiempo se
puede ranurar o dividir en intervalos discretos (llamados ranuras). En este caso las transmisiones de
las tramas deben empezar al inicio de una ranura. Una ranura puede contener 0, 1 o más tramas,
correspondientes a una ranura inactiva, una transmisión exitosa o una colisión, respectivamente.
 Detección de portadora o sin detección de portadora. Con el supuesto de detección de portadora,
las estaciones pueden saber si el canal está en uso antes de intentar usarlo. Si se detecta que el
canal está ocupado, ninguna estación intentará utilizarlo. Si no hay detección de portadora, las
estaciones no pueden detectar el canal antes de intentar usarlo. Simplemente transmiten. Sólo
después pueden determinar si la transmisión tuvo éxito.

3.3. PROTOCOLOS DE ACCESO MÚLTIPLE


Se conocen muchos algoritmos para asignar un canal de acceso múltiple. En la siguiente parte se
estudiara una muestra representativa de los más interesantes y se dará algunos ejemplos de cómo se
usan comúnmente en la práctica.

3.3.1. Protocolo sin detección de portadora: ALOHA


En 1970, cuando la red ARPANET solo llevaba unos meses en funcionamiento, un equipo de la
Universidad de Hawai quería poner en marcha una red para interconectar terminales ubicados en las
islas de Kauai, Maui y Hawaii, con un computador situado en Honolulu, en la isla de Oahu. Lo normal

Ing. Jorge Orellana A. 44


Redes de Computadoras

habría sido utilizar enlaces telefónicos, pero la baja calidad y el elevado costo de las líneas hacían
prohibitiva esta opción. El equipo estaba decidido a llevar a cabo su proyecto a toda costa, pero no a
cualquier costo. Consiguieron varios transmisores de radio taxis viejos y construyeron módems de forma
artesanal. Con esto pusieron en marcha una red de radioenlaces entre las islas. Si se hubiera asignado
un canal diferente para la comunicación en cada sentido entre Oahu y las otras tres islas habrían hecho
falta seis canales; en vez de eso asignaron solamente dos: uno a 413,475 MHz para las transmisiones de
Oahu a las demás islas y otro a 407,350 MHz para el sentido inverso. Cada canal tenía un ancho de
banda de 100 KHz y una capacidad de 9,6 Kb/s. En caso de haber creado seis canales en el mismo
ancho de banda la capacidad de cada uno habría sido proporcionalmente menor; creando solo dos se
disponía de una mayor capacidad a costa de tener que compartirlos entre las tres islas. Las
transmisiones desde Oahu no planteaban problemas pues había un único emisor. Sin embargo el canal
de retorno era compartido por tres emisores (Kauai, Maui y Hawaii), por lo que podía suceder que dos
emisores transmitieran simultáneamente, con lo que se producía una colisión con lo que ambas tramas
se perdían; había pues que establecer reglas que especificaran como se resolvía una situación de este
tipo; estas reglas es lo que denominamos un protocolo de acceso al medio o protocolo MAC (Medium
Access Control).

La solución que adoptaron fue muy simple. Cuando un emisor quiere transmitir una trama simplemente la
emite, sin preocuparse en ningún momento de si el canal está libre; una vez ha terminado se pone a la
escucha, esperando recibir confirmación de que la información ha sido recibida correctamente por el
destinatario. Si pasado un tiempo razonable no se recibe confirmación el emisor supone que ha ocurrido
una colisión; en este caso espera un tiempo aleatorio (para no colisionar nuevamente) y a continuación
reenvía la trama. Este protocolo MAC, que fue el primero en implementarse, se denominó Aloha. La red
creada en Hawai se denominó ALOHANET. Aloha es una palabra Hawaiana que se utiliza para saludar,
tanto al llegar como al despedirse. Seguramente esta ambigüedad pareció apropiada a sus inventores
para indicar el carácter multidireccional o broadcast de la transmisión, por contraste con los enlaces punto
a punto utilizados hasta entonces donde se sabe con certeza si la información va o viene.

En el protocolo Aloha original (puro) la emisión de tramas por parte de cada computador se hace de
forma completamente caótica y basta que dos tramas colisionen o se solapen solamente en un bit para
que ambas sean completamente inútiles, a pesar de lo cual tanto la primera como la segunda serán
irremediablemente transmitidas, ya que los emisores sólo se percatarán del problema después de haber
terminado la transmisión; además la segunda trama podría colisionar con una tercera, y así
sucesivamente; en una red Aloha cuando el tráfico crece las colisiones aumentan de manera no lineal y el
rendimiento decae rápidamente. En la siguiente figura se presenta un ejemplo de la generación de tramas
en un sistema ALOHA. Todas las tramas son de la misma longitud porque la velocidad real de
transmisión (throughput) de los sistemas ALOHA se maximiza al tener tramas con un tamaño uniforme en
lugar de tramas de longitud variable. Cada vez que dos tramas traten de ocupar el canal al mismo tiempo,
habrá una colisión y ambas se dañarán. Si el primer bit de una trama nueva se traslapa con el último bit
de una trama casi terminada, ambas se destruirán por completo (es decir, tendrán sumas de verificación
incorrectas) y ambas tendrán que volver a transmitirse más tarde. La suma de verificación no distingue (y
no debe) entre una pérdida total y un error ligero. El uso del canal es aproximadamente el 18%.

Ing. Jorge Orellana A. 45


Redes de Computadoras

3.3.2. Protocolo sin detección de portadora: ALOHA RANURADO


En 1972 se propuso una mejora al protocolo Aloha que consistía en dividir el tiempo para la emisión de
tramas en intervalos de duración constante. De alguna manera los computadores estarían sincronizadas
y todos sabrían cuando empezaba cada intervalo. Esto reduce la probabilidad de colisión, ya que al
menos limita su efecto a un intervalo concreto. A esta versión mejorada de Aloha se la denomina Aloha
ranurado, porque utiliza tiempo ranurado o a intervalos.

Los protocolos Aloha aún se utilizan hoy en día (normalmente Aloha ranurado) en situaciones donde no
es posible o no es práctico detectar las colisiones en tiempo real, por ejemplo algunas redes de satélite o
el canal de acceso aleatorio que se utiliza en las redes GSM para acceder al canal de control.

3.3.3. Protocolo con detección de portadora: CSMA 1-persistente


En Aloha los computadores se ponen a transmitir sin preguntar antes si el canal está libre. Hay protocolos
más diplomáticos, que antes de transmitir miran si alguien ya lo está haciendo. Esto permite hacer un uso
más eficiente del canal y llegar a mayores grados de ocupación, ya que no se interrumpe la transmisión
en curso. Estos protocolos se denominan de acceso múltiple con detección de portadora o CSMA (Carrier
Sense Multiple Access); la denominación “detección de portadora” hace referencia a esa consulta previa
sobre la ocupación del canal.

En su nivel más primitivo el protocolo CSMA hace lo siguiente: cuando tiene una trama que enviar
primero escucha el canal para saber si está libre; si lo está envía la trama; en caso contrario espera a que
se libere y en ese momento la envía. Este protocolo se denomina CSMA 1-persistente porque hay una
probabilidad 1 (es decir certeza) de que la trama se transmita cuando el canal esté libre.

En una situación real con tráfico intenso es muy posible que cuando un computador termine de transmitir
haya varios esperando para enviar su trama; con CSMA 1-persistente todas esas tramas serán emitidas a
la vez y colisionarán, pudiéndose repetir el proceso varias veces con la consiguiente degradación del
rendimiento. En realidad la colisión ocurre aunque no empiecen a transmitir exactamente a la vez: basta
con que dos computadores empiecen a transmitir con una diferencia de tiempos menor que la distancia
que los separa, ya que en tal caso ambos detectarán el canal libre en el momento de iniciar la
transmisión. A pesar de sus inconvenientes el CSMA 1-persistente supone un avance respecto al ALOHA
ranurado, ya que toma la precaución de averiguar antes si el canal está disponible, con lo que se evitan
un buen número de colisiones.

3.3.4. Protocolo con detección de portadora: CSMA no persistente


En un intento por resolver el problema de colisiones de CSMA 1-persistente se puede adoptar la
estrategia siguiente: antes de enviar se escucha, si el canal está libre se transmite, pero si está ocupado,
en vez de estar a la escucha, pendientes de usarlo en cuanto se libere, se espera un tiempo aleatorio
después del cual se repite el proceso; a este protocolo se le denomina CSMA no persistente. Este
protocolo tiene una menor eficiencia que CSMA 1-persistente para tráficos moderados, pues introduce
una mayor latencia; sin embargo, se comporta mejor en situaciones de tráfico intenso ya que evita las

Ing. Jorge Orellana A. 46


Redes de Computadoras

colisiones producidas por los computadores que se encuentran a la espera de que termine la transmisión
de una trama en un momento dado.

3.3.5. Protocolo con detección de portadora: CSMA p-persistente


CSMA p-persistente intenta combinar las ventajas de CSMA 1-persistente y CSMA no persistente. Este
protocolo se aplica con tiempo ranurado o a intervalos y funciona de la siguiente manera: cuando el
computador tiene algo que enviar primero escucha el canal, si está libre transmite, en caso contrario
espera; cuando el canal se libera transmite con una probabilidad p (o no transmite con una probabilidad
q=1-p); si no transmite en el primer intervalo el proceso se repite en el siguiente, es decir transmite con
una probabilidad p, o no transmite con una probabilidad q. El proceso se repite hasta que finalmente la
trama es transmitida o bien otro computador utiliza el canal, en cuyo caso espera un tiempo aleatorio y
empieza de nuevo el proceso desde el principio.

Ajustando el valor del parámetro p el funcionamiento de este protocolo se puede regular en todo el rango
entre el de CSMA 1-persistente y el de CSMA no persistente. Su eficiencia es en general superior a la de
ambos.

3.3.6. Protocolo con detección de portadora: CSMA con detección de colisión


En los protocolos que se han descrito hasta ahora una vez se había empezado a transmitir una trama el
computador seguía transmitiendo aun cuando detectara una colisión. En ese caso sería lógico y más
eficiente parar de transmitir, ya que la trama será errónea e inútil. Esta mejora es la que incorporan los
protocolos conocidos como CSMA/CD (Carrier Sense Multiple Access with Collision Detection, acceso
múltiple con escucha de portadora y detección de colisiones) que se utiliza en la red local IEEE 802.3,
también conocida como Ethernet, en sus múltiples variantes.
CSMA/CD utiliza el modelo conceptual de la siguiente figura. En el punto marcado como t 0, una estación
ha terminado de transmitir su trama. Cualquier otra estación que tenga una trama por enviar puede
intentar hacerlo ahora. Si dos o más estaciones deciden transmitir en forma simultánea, habrá una
colisión. Si una estación detecta una colisión, aborta la transmisión, espera un tiempo aleatorio e intenta
de nuevo (suponiendo que ninguna otra estación ha comenzado a transmitir durante ese lapso). Por lo
tanto, el modelo de CSMA/CD consistirá en periodos alternantes de contención y transmisión, con
periodos de inactividad que ocurrirán cuando todas las estaciones estén en reposo (por ejemplo, por falta
de trabajo).

Ing. Jorge Orellana A. 47


Redes de Computadoras

En una red CSMA/CD la única circunstancia en la que puede producirse una colisión es cuando dos
computadores empiezan a transmitir a la vez, o con una diferencia de tiempo lo bastante pequeña como
para que la señal de uno no haya podido llegar al otro antes de que éste empiece a transmitir. Suponer
que se tiene dos computadores A y B situados en extremos opuestos de la red y que la señal tarda un
tiempo  en propagarse de uno a otro extremo a otro; cabría pensar que si A empieza a transmitir pasado
ese tiempo  ya puede estar seguro de que no observará colisiones, ya que sus señal ha llegado al otro
extremo de la red; pero en el caso más desfavorable B podría haber empezado a transmitir justo en el
instante -, o sea inmediatamente antes de que le haya llegado la trama de A; por lo que sólo después
de un tiempo 2 puede A estar seguro de no colisionar con ningún otro computador, habiéndose
entonces “apoderado” del canal de transmisión. Dado que el período de incertidumbre en CSMA/CD se
reduce a ese intervalo 2 estas redes se suelen modelar como un sistema ALOHA ranurado con
intervalos de tamaño 2.

3.3.7. Protocolos sin colisiones: Bitmap


En cualquiera de los protocolos que se ha visto hasta ahora puede haber competencia entre
computadores por acceder al medio. Dicha competencia produce colisiones, que en la práctica suponen
una disminución del rendimiento ya que las transmisiones que se producen durante la colisión son
inútiles; estos efectos se agravan a medida que aumenta el tráfico en la red, ya que la probabilidad de
colisiones aumenta. Las cosas mejoran a medida que se refina el protocolo, pero incluso con CSMA/CD
cuando la ocupación del canal es elevada el rendimiento empieza a bajar.

Suponiendo que la red tiene N computadores, numerados de 0 a N-1. Para empezar a funcionar se
establece una ronda “exploratoria” de N intervalos en la que por riguroso turno cada computador,
empezando por el 0, tiene la posibilidad de enviar un bit con el valor 1 ó 0 para indicar si tiene alguna
trama que transmitir. Pasados N intervalos todos los computadores han podido manifestar su situación, y
todos saben quien tiene tramas para transmitir. Por ejemplo, si se tienen 8 computadores, y que después
de la ronda inicial se sabe que los computadores 1, 3 y 7 tienen tramas para transmitir. Entonces toma la
palabra el computador 1, que transmite la trama que tenía pendiente. Después vendrá el 3 y por último el
7. Agotados los turnos que había solicitados se inicia otra ronda de sondeo para saber quien tiene tramas
pendientes de transmitir, y así sucesivamente.

Puede suceder que a algún computador le surja la necesidad de transmitir una trama justo después de
haber dejado pasar su turno; en tal caso tendrá que esperar a la siguiente vuelta.

Desde el punto de vista del rendimiento este protocolo genera una trama adicional de N bits. Si la red no
tiene tráfico se generará una trama bitmap que estará continuamente dando vueltas por la red. Si la carga

Ing. Jorge Orellana A. 48


Redes de Computadoras

en la red es baja (una trama transmitida por vuelta) la eficiencia es d/(N+d), donde d es el tamaño de la
trama de información transmitida y N el número de computadores. Si la red está saturada cada
computador tendrá una trama que enviar y la eficiencia será Nd/(Nd+N), o sea d/(d+1). Se ve que el
rendimiento de este protocolo aumenta a medida que lo hace el tráfico en la red, justo lo contrario de lo
que ocurría con los protocolos basados en colisiones.

En situaciones de saturación donde todos los computadores tienen tramas que transmitir, y suponiendo
que todas las tramas tienen el mismo tamaño el protocolo bitmap produce un reparto equitativo, por lo
que resulta equivalente a utilizar multiplexación por división en el tiempo para repartir el canal entre los
computadores de la red.

El protocolo bitmap resulta más eficiente y más homogéneo en su comportamiento a medida que la carga
de la red aumenta. Los protocolos como se han descrito, en los que se emite un paquete indicando el
deseo de transmitir información, se denominan protocolos de reserva.

3.3.8. Protocolos sin colisiones: Paso de token


La esencia del protocolo de mapa de bits es que permite que cada estación transmita una trama por
turno, en un orden predefinido. Otra forma de lograr lo mismo es pasar un pequeño mensaje conocido
como token de una estación a otra, en el mismo orden predefinido. El token representa el permiso para
enviar. Si una estación tiene una trama puesta en cola para transmitirla cuando recibe el token, puede
enviar esa trama antes de pasar el token a la siguiente estación. Si no tiene una trama puesta en cola,
simplemente pasa el token.
En un protocolo token ring, la topología de la red se utiliza para definir el orden en el que las estaciones
envían información. Las estaciones están conectadas una con otra en un solo anillo. Así, el proceso de
pasar el token a la siguiente estación consiste en recibir el token proveniente de una dirección y
transmitirlo hacia la otra dirección. Las tramas también se transmiten en la dirección del token. De esta
forma, circularán alrededor del anillo y llegarán a la estación de destino. Sin embargo, para evitar que la
trama circule en forma indefinida (como el token), una estación necesita quitarla del anillo. Esta estación
puede ser la que envió originalmente la trama, después de que haya pasado por un ciclo completo, o la
estación destinada a recibir la trama.
Cabe mencionar que no se necesita un anillo físico para implementar el paso del token. El canal que
conecta a las estaciones podría ser también un solo bus extenso. Así, cada estación puede usar el bus
para enviar el token a la siguiente estación en la secuencia predefinida. Al poseer el token, una estación
puede usar el bus para enviar una trama, como antes. A este protocolo se le conoce como token bus.

El desempeño del protocolo de paso de token es similar al del protocolo de mapa de bits, aunque las
ranuras de contención y las tramas de un ciclo están ahora entremezcladas. Después de enviar una
trama, cada estación debe esperar a que las N estaciones (incluyéndose a sí misma) envíen el token a
sus estaciones vecinas y que las otras N – 1 estaciones envíen una trama, si es que la tienen. Una sutil
diferencia es que, como todas las posiciones en el ciclo son equivalentes, no hay parcialidad por las
estaciones de menor o de mayor numeración. Para token ring, cada estación también envía el token sólo
hasta su estación vecina antes de que el protocolo lleve a cabo el siguiente paso. No es necesario
propagar cada token a todas las estaciones antes de que el protocolo avance al siguiente paso.
Las redes de token ring han surgido como protocolos MAC con cierta consistencia. Uno de los primeros
protocolos de este tipo (conocido como “Token Ring”, que se estandarizó como IEEE 802.5) fue popular
en la década de 1980 como alternativa a la Ethernet clásica. En la década de 1990, una red token ring

Ing. Jorge Orellana A. 49


Redes de Computadoras

mucho más veloz conocida como FDDI (Interfaz de Datos Distribuidos por Fibra) fue vencida por la
Ethernet conmutada. En la década de 2000, una red token ring llamada RPR (Anillo de Paquetes con
Recuperación) se definió como el IEEE 802.17 para estandarizar la mezcla de anillos de área
metropolitana que usaban los ISP.

3.3.9. Protocolos sin colisiones: Protocolo de cuenta atrás binaria


El protocolo bitmap requiere reservar un intervalo de un bit para cada computador. Con un número
elevado de computadores esto puede suponer un costo elevado que lo haga impracticable. Se tiene una
alternativa que resuelve ese inconveniente, el protocolo denominado cuenta atrás binaria.

Suponiendo que se tiene una red con 16 computadores. Cada uno recibirá una dirección codificada en 4
bits. Suponiendo también que los computadores 0010, 0100, 1001 y 1010 desean transmitir tramas. El
protocolo de cuenta atrás binaria procede de la siguiente forma:

1. En el primer intervalo los cuatro computadores que desean transmitir envían a la red el primer bit
de su dirección; el medio de transmisión está diseñado de tal forma que retransmite el OR de
todos los bits transmitidos, es decir en este caso los cuatro computadores reciben un 1.
2. Al haber recibido un 1 los computadores 0010 y 0100 (que tienen un 0 en su primer bit)
reconocen que hay computadores superiores a ellos en la competición y se retiran; los dos
“finalistas” envían a la red su segundo bit, que es cero para ambos; la red retransmite un cero.
3. Al haber recibido un cero los dos computadores siguen compitiendo y envían su tercer bit, un
cero para 1001 y un 1 para 1010; la red retransmite un 1 y el computador 1001 se retira al ver
que hay uno que le supera.
4. El computador ganador, el 1010, envía su trama.

El proceso se repite para los tres computadores restantes, y así sucesivamente hasta que eventualmente
todos envían su trama. La eficiencia de este protocolo es d/(d + ln N), que para tráficos reducidos supera
al bitmap; además, el mecanismo de selección suministra la dirección del computador transmisor que a
menudo es parte de la información que se pretende transmitir, con lo que incluso este overhead se
aprovecha y la eficiencia puede ser del 100%.

3.3.10. Protocolos de contención limitada: El protocolo de recorrido de árbol adaptable


Se ha visto que los protocolos con contención (es decir con colisiones) son ideales cuando los niveles de
tráfico son bajos, ya que tienen retardos pequeños y no introducen sobrecarga (overhead); todos los
datos transmitidos son tramas de información útil. En cambio, cuando el tráfico aumenta, es preferible
perder una parte de la capacidad del canal en habilitar mecanismos que habiliten “turnos de palabra”, ya
que de lo contrario no es posible utilizar el canal al máximo de sus posibilidades.

Cabría pensar en un protocolo ideal que contuviera lo mejor de ambos mundos. Debería ser lo bastante
astuto como para funcionar de forma “caótica” (es decir con colisiones) a bajos niveles de tráfico, y poner
en marcha mecanismos de arbitraje riguroso en caso de que el tráfico aumente por encima de ciertos
niveles considerados peligrosos, es decir, debería ser autoadaptativo. Este tipo de protocolos se
denomina protocolos de contención limitada.

Ing. Jorge Orellana A. 50


Redes de Computadoras

En caso de que la red tenga poco tráfico estos protocolos se comportarán según alguno de los protocolos
con colisiones que hemos visto. Pero cuando se superen determinados umbrales de ocupación el
protocolo dividirá el canal en intervalos asignando uno a cada computador, en riguroso turno. Este
comportamiento es equivalente a realizar multiplexación por división en el tiempo sobre el canal. En la
práctica suelen ser unos pocos computadores los que generan la mayor parte del tráfico, por lo que lo
ideal es identificar a los culpables y aislarlos en intervalos propios, independientes del resto de los
computadores; de esta forma esos computadores con tráfico elevado consiguen un buen rendimiento sin
perjudicar a la mayoría “silenciosa”. Precisamente la pronta identificación de esos culpables es la clave
del funcionamiento de estos protocolos. Los computadores no necesariamente han de ser identificados
individualmente, es suficiente detectar un grupo con tráfico elevado (que presumiblemente contendrá
algún “sospechoso”) y aislarlo del resto. Uno de los protocolos que funciona con este principio es el
denominado protocolo de recorrido de árbol adaptable.

Una manera muy sencilla de llevar a cabo la asignación necesaria es usar el algoritmo desarrollado por el
ejército de Estados Unidos para hacer pruebas de sífilis a los soldados durante la Segunda Guerra
Mundial (Dorfman, 1943). En esencia, el ejército tomaba una muestra de sangre de N soldados. Se
vaciaba una parte de cada muestra en un solo tubo de ensayo. Luego se examinaba esta muestra
mezclada en busca de anticuerpos. Si no se encontraban, todos los soldados del grupo se declaraban
sanos. Si se encontraban anticuerpos, se preparaban dos nuevas muestras mezcladas, una de los
soldados 1 a N/2 y otra de los demás. El proceso se repetía en forma recursiva hasta que se
determinaban los soldados infectados. Para la versión de computadora de este algoritmo es conveniente
considerar a las estaciones como hojas de un árbol binario, como se muestra en la siguiente figura. En la
primera ranura de contención después de la transmisión exitosa de una trama (ranura 0), se permite que
todas las estaciones intenten adquirir el canal. Si una de ellas lo logra, qué bueno. Si hay una colisión,
entonces durante la ranura 1, sólo aquellas estaciones que queden bajo el nodo 2 del árbol podrán
competir. Si alguna de ellas adquiere el canal, la ranura que siga después de la trama se reservará para
las estaciones que están bajo el nodo 3. Por otra parte, si dos o más estaciones bajo el nodo 2 quieren
transmitir, habrá una colisión durante la ranura 1, en cuyo caso será el turno del nodo 4 durante la ranura
2.

Si ocurre una colisión durante la ranura 0, se examina todo el árbol para localizar todas las estaciones
listas. Cada ranura de bits está asociada a un nodo específico del árbol. Si ocurre una colisión, continúa
la búsqueda en forma recursiva con el hijo izquierdo y el derecho del nodo. Si una ranura de bits está
inactiva o si sólo una estación que transmite en ella, se puede detener la búsqueda de su nodo, ya que se
han localizado todas las estaciones listas (si hubiera existido más de una, habría ocurrido una colisión).

Aunque hay una gama muy amplia de protocolos MAC que han sido propuestos en teoría, modelados por
simulación e incluso probados en redes experimentales, en la práctica las posibles opciones se reducen a
un número muy pequeño. Además el protocolo MAC va implícito en la tecnología de red local utilizada,
que muchas veces se decide en base otros factores, tales como costo, disponibilidad de productos, etc.
por lo que el margen de maniobra en cuanto a la elección del protocolo MAC es prácticamente nulo.

Ing. Jorge Orellana A. 51


Redes de Computadoras

3.3.11. Protocolos de redes inalámbricas MACA : CSMS/CA


Las ondas electromagnéticas no guiadas son un medio ideal para la creación de redes broadcast; ya se
ha visto como algunas de las primeras experiencias (Aloha) se hicieron con este tipo de medios de
transmisión. Actualmente, con el auge de los sistemas móviles han aparecido redes locales basadas en
ondas radioeléctricas e infrarrojos; los sistemas infrarrojos por sus características tienen un alcance
reducido y requieren estricta visión directa entre emisor y receptor. Los de radio solo pueden transmitir a
muy baja potencia (0,1 W) por restricciones legales, por lo que su alcance es también reducido, aunque
no tanto como los infrarrojos. Normalmente se emplea la banda conocida como Industrial/Científica
/Médica (2,4 - 2,484 GHz). Típicamente una LAN inalámbrica está formada por un conjunto de
computadores base, unidos entre sí por algún tipo de cable, y una serie de computadores móviles que se
comunican con el computador base más próximo. El conjunto de computadores base forma en realidad
un sistema celular en miniatura.

El problema de las colisiones debe encararse de modo diferente. En redes inalámbricas, lo que importa
es la percepción del receptor. No hay forma de que el emisor determine qué sucede en el receptor.
Midiendo el nivel de energía de radio frecuencia, una estación puede determinar si hay otra cuya emisión
puede perturbarla. Mucho más simple que full dúplex.

Dada la topología y alcance de la siguiente figura, cuando A transmite, su señal llega hasta B, pero no
llega ni a C, ni a D. Una transmisión de A hacia B puede hacer colisión con otra cuyo destino sea B, pero
no afecta si los destinos son C o D

 El problema de la estación escondida


En (a), A comienza a transmitir hacia B, C escucha el canal, y no detecta actividad, C envía un
mensaje hacia B, provocando una colisión.
 El problema de la estación expuesta
En (b), B comienza a transmitir hacia A, C, que pretende enviar hacia D, escucha el canal, y percibe
actividad, C no envía su mensaje hacia D, aunque no provocaría colisión con el de B hacia A

MACA (Multiple Access with Collision Avoidance) es el protocolo MAC que ha servido de base para el
estándar IEEE 802.11 que es el que especifica el funcionamiento de LANs inalámbricas. MACA resuelve
los dos problemas antes mencionados.

Cuando una estación tiene una trama que transmitir antes de enviarla envía una trama pequeña de aviso
(de 30 bytes) denominada RTS (Request To Send). La trama RTS contiene información sobre la longitud
de la trama que se pretende transmitir y la estación de destino.
Al recibir la trama RTS la estación de destino, si está en condiciones de recibir la transmisión, responde
con otra trama denominada CTS (Clear To Send). La trama CTS también indica la longitud de la trama

Ing. Jorge Orellana A. 52


Redes de Computadoras

que se va a recibir. Cualquier estación que escuche el RTS está bastante cerca de A y debe permanecer
en silencio durante el tiempo suficiente para que el CTS se transmita de regreso a A sin conflicto. Es
evidente que cualquier estación que escuche el CTS está bastante cerca de B y debe permanecer en
silencio durante la siguiente transmisión de datos, cuya longitud puede determinar examinando la trama
CTS. En la figura, C está en el alcance de A pero no en el alcance de B. Por lo tanto, escucha el RTS de
A pero no el CTS de B. En tanto no interfiera con el CTS, está libre para transmitir mientras se envía la
trama de datos. En contraste, D está en el alcance de B pero no de A. No escucha el RTS pero sí el CTS.
Al escuchar el CTS sabe que está cerca de una estación que está a punto de recibir una trama, por lo
que difiere el envío de cualquier cosa hasta el momento en que se espera la terminación de esa trama.
La estación E escucha ambos mensajes de control y, al igual que D, debe permanecer en silencio hasta
que se haya completado la trama de datos.

El 802.11 trata de evitar colisiones con un protocolo llamado CSMA/CA (CSMA con Evitación de
Colisiones), que se basa en MACA. En concepto, este protocolo es similar al CSMA/CD de Ethernet, con
detección del canal antes de enviar y retroceso exponencial después de las colisiones. Sin embargo, una
estación que desee enviar una trama empieza con un retroceso aleatorio (excepto en el caso en que no
haya utilizado el canal recientemente y éste se encuentre inactivo). No espera una colisión. La estación
espera hasta que el canal está inactivo, para lo cual detecta que no hay señal durante un periodo corto y
realiza un conteo descendente de las ranuras inactivas, haciendo pausa cuando se envían tramas. Envía
su trama cuando el contador llega a 0. Si la trama logra pasar, el destino envía de inmediato una
confirmación de recepción corta. La falta de una confirmación de recepción se interpreta como si hubiera
ocurrido un error, sea una colisión o cualquier otra cosa. En este caso, el emisor duplica el periodo de
retroceso e intenta de nuevo, continuando con el retroceso exponencial como en Ethernet, hasta que la
trama se transmita con éxito o se llegue al número máximo de retransmisiones.
En la figura siguiente se muestra una línea de tiempo de ejemplo. La estación A es la primera en enviar
una trama. Mientras A envía, las estaciones B y C se preparan para enviar. Ven que el canal está
ocupado y esperan a que esté inactivo. Poco después de que A recibe una confirmación de recepción, el
canal queda inactivo. Sin embargo, en vez de enviar una trama de inmediato y colisionar, B y C realizan
un retroceso. C elije un retroceso corto, por lo que envía primero. B detiene su conteo mientras detecta
que C está usando el canal y lo reanuda después de que C recibe una confirmación de recepción. Poco
después, B completa su retroceso y envía su trama.

Para decidir qué estación va a transmitir en caso de tener el canal habilitado, el 802.11 define la
detección del canal como un proceso que consiste tanto de una detección física como de una detección
virtual. En la detección física sólo se verifica el medio para ver si hay una señal válida. En la detección
virtual, cada estación mantiene un registro lógico del momento en que se usa el canal rastreando el NAV
(Vector de Asignación de Red). Cada trama lleva un campo NAV que indica cuánto tiempo tardará en
completarse la secuencia a la que pertenece esta trama. Las estaciones que escuchen por casualidad
esta trama saben que el canal estará ocupado durante el periodo indicado por el NAV, sin importar que
puedan detectar o no una señal física.
Hay un mecanismo RTS/CTS opcional que usa el NAV para evitar que las terminales envíen tramas al
mismo tiempo como terminales ocultas. En la siguiente figura, A desea enviar a B. C es una estación
dentro del alcance de A. D es una estación dentro del alcance de B, pero no dentro del alcance de A.

Ing. Jorge Orellana A. 53


Redes de Computadoras

El protocolo empieza cuando A decide que desea enviar datos a B. A empieza por enviar una trama RTS
a B para solicitar permiso de enviarle una trama. Si B recibe esta solicitud, responde con una trama CTS
para indicar que el canal está libre para enviar. Al recibir la CTS, A envía su trama e inicia un
temporizador ACK. Al recibir de forma correcta la trama de datos, B responde con una trama ACK para
completar el intercambio. Si el temporizador ACK de A expira antes de que la trama ACK vuelva a ella, se
considera como una colisión y se lleva a cabo todo el protocolo de nuevo, después de un retroceso.

C está dentro del alcance de A, por lo que puede recibir la trama RTS. Si pasa esto, se da cuenta de que
alguien pronto va a enviar datos. A partir de la información proporcionada en la solicitud RTS, C puede
estimar cuánto tardará la secuencia, incluyendo la trama ACK final. Entonces, desiste de transmitir
cualquier cosa hasta que el intercambio esté completo. A continuación actualiza su registro del NAV para
indicar que el canal está ocupado. D no escucha el RTS pero sí el CTS, por lo que también actualiza su
NAV. Es necesario tener en cuenta que las señales NAV no se transmiten; sólo son recordatorios
internos para mantenerse en silencio durante cierto periodo.

3.4. REDES ETHERNET


Una vez tratados de manera general los protocolos de asignación de canal, es tiempo de ver la forma en
que estos principios se aplican a sistemas reales. Muchos de los diseños para las redes personales,
locales y de área metropolitana se han estandarizado bajo el nombre de IEEE 802. Algunos han
sobrevivido pero muchos no. Los sobrevivientes más importantes son el 802.3 (Ethernet) y el 802.11
(LAN inalámbrica).

Ethernet, probablemente es el tipo más común de red de computadoras en el mundo. Existen dos clases
de Ethernet: Ethernet clásica, que resuelve el problema de acceso múltiple mediante el uso de las
técnicas que se han estudiado en este capítulo; el segundo tipo es la Ethernet conmutada, en donde los
dispositivos llamados conmutadores (switches) se utilizan para conectar distintas computadoras. Es
importante mencionar que, aunque se hace referencia a ambas como Ethernet, son muy diferentes. La
Ethernet clásica es la forma original que operaba a tasas de transmisión de 3 a 10 Mbps. La Ethernet
conmutada es en lo que se convirtió la Ethernet y opera a 100, 1000 y 10000 Mbps, en formas conocidas
como Fast Ethernet, Gigabit Ethernet y 10 Gigabit Ethernet. Actualmente, en la práctica sólo se utiliza
Ethernet conmutada.

Se analizará estas formas históricas de Ethernet en orden cronológico para mostrar cómo se
desarrollaron. Puesto que Ethernet y el IEEE 802.3 son idénticos, excepto por una pequeña diferencia,
muchas personas usan los términos “Ethernet” e “IEEE 802.3” sin distinción.

3.4.1. IEEE 802.3 - Ethernet Clasica


La red Ethernet fue inventada por Xerox en 1976. Esta red primitiva permitía conectar más de 100
computadores en un área de aproximadamente 1 km, a una velocidad de 2.94 Mbps. Debido al éxito
alcanzado, Xerox, DEC e Intel Corporation desarrollaron una versión mejorada que permitía tasas de
transferencia de 10 Mbps. La estandarización de la LAN Ethernet se llama IEEE 802.3.

La red Ethernet utiliza un medio común (cable coaxial o UTP), que puede ser usado en un instante
determinado por una sola computadora para transmitir. El cable llega a todas las computadoras e

Ing. Jorge Orellana A. 54


Redes de Computadoras

independientemente de su estructura física, se comporta como un bus, donde todo lo que se coloca en el
cable llega a todas las computadores.
Una red Ethernet está compuesta de uno o más segmentos de cable (unidos por repetidores) y puede
construirse con diferentes tecnologías. En la descripción de una red Ethernet, se usa la nomenclatura del
tipo XYZ donde X especifica la tasa de transferencia medida en Mbps, Y determina el tipo de transmisión
y Z define la longitud máxima de un tramo sin repetidor medido en cientos de metros; T si es par trenzado
(10baseT) o F si es fibra optica (10baseF).

10Base5: Se conoce también como Ethernet de cable coaxial grueso (Thick Ethernet). Permite una tasa
de transferencia de 10 Mbps, la transmisión es en banda base (modulación digital Manchester), los
segmentos pueden tener hasta 500 m (distancia máxima entre repetidores que a lo sumo pueden ser 4) y
un computador debe separarse de otro al menos 2,5 m. La longitud máxima del enlace no puede superar
los 2.500 m. Solo pueden colocarse 200 computadores en cada tramo, lo que da un número máximo de
1000 computadores. Lo más destacable del 10Base5 es que las computadoras no se conectan
directamente al cable coaxial, sino a través de unos dispositivos llamados transceivers. Los transceivers
tienen una aguja metálica que atraviesa el cable hasta llegar a la línea de conductor interno (por este
motivo, a estos dispositivos también se les conoce con el nombre de vampiros). Del transceiver salen 15
cables que pueden tener una longitud máxima de 50 m y que van a parar al conector del interface de red
(NIC) del computador. La ventaja de los transceivers es que no es necesario cortar la línea para instalar
una nueva computadora.

10Base2: Llamado también Ethernet de cable coaxial fino (thin Ethernet), permite tasas de 10 Mbps en
banda base (modulación Manchester), pero los segmentos pueden ser a lo sumo de 200 m., (185 m en la
práctica). En este caso, las computadoras se conectan directamente a la red colocando un conector T del
tipo BNC en el punto de inserción. El hardware que antes se encontraba en el transceiver ahora se
encuentra en el interface de red del computador. Para instalar un nuevo computador es necesario cortar
la línea e instalar un conector T.

3.4.2. Ethernet conmutada


Ethernet empezó a evolucionar y a alejarse de la arquitectura de un solo cable extenso de la Ethernet
clásica. Los problemas asociados con el hecho de encontrar interrupciones o conexiones flojas
condujeron hacia un distinto tipo de patrón de cableado, en donde cada estación cuenta con un cable
dedicado que llega a un hub (concentrador) central. Un hub simplemente conecta de manera eléctrica
todos los cables que llegan a él, como si estuvieran soldados en conjunto. Esta configuración se muestra
en la siguiente figura (a).

Los cables eran pares trenzados de la compañía telefónica, ya que la mayoría de los edificios de oficinas
contaban con este tipo de cableado y por lo general había muchos de sobra. Esta reutilización fue una
ventaja, pero a la vez se redujo la distancia máxima de cable del hub hasta 100 metros. En esta
configuración es más simple agregar o quitar una estación, además de que los cables rotos se pueden
detectar con facilidad. Con las ventajas de usar el cableado existente y la facilidad de mantenimiento, los
hubs de par trenzado se convirtieron rápidamente en la forma dominante de Ethernet. Sin embargo, los
hubs no incrementan la capacidad debido a que son lógicamente equivalentes al cable extenso individual
de la Ethernet clásica. A medida que se agregan más estaciones, cada estación recibe una parte cada
vez menor de la capacidad fija. En un momento dado, la LAN se saturará. Una forma de solucionar esto
es usar una Ethernet conmutada. El corazón de este sistema es un conmutador (switch) que contiene un
plano posterior (backplane) de alta velocidad, el cual conecta a todos los puertos como se muestra en la

Ing. Jorge Orellana A. 55


Redes de Computadoras

figura anterior (b). Desde el exterior, un switch se ve igual que un hub. Ambos son cajas que por lo
general contienen de 4 a 48 puertos, cada uno con un conector estándar RJ-45 para un cable de par
trenzado. Cada cable conecta al switch o hub con una sola computadora. Un switch tiene también las
mismas ventajas que un hub. Es fácil agregar o quitar una nueva estación con sólo conectar o
desconectar un cable, y es fácil encontrar la mayoría de las fallas, ya que un cable o puerto defectuoso
por lo general afectará a una sola estación. De todas formas hay un componente compartido que puede
fallar (el mismo switch).

Sin embargo, dentro del switch ocurre algo muy distinto. Los switches sólo envían tramas a los puertos
para los cuales están destinadas. Cuando el puerto de un switch recibe una trama Ethernet de una
estación, el switch verifica las direcciones de Ethernet para ver cuál es el puerto de destino de la trama.
Este paso requiere que el switch sea capaz de deducir qué puertos corresponden a qué direcciones. A
continuación, el switch reenvía la trama a través de su plano posterior (switch fabric) de alta velocidad
hacia el puerto de destino. Por lo general, el plano posterior opera a muchos Gbps mediante el uso de un
protocolo propietario que no necesita estandarización, ya que está completamente oculto dentro del
switch. Después, el puerto de destino transmite la trama sobre el cable, de manera que pueda llegar a la
estación de destino. Ninguno de los otros puertos sabe siquiera que existe la trama.

Si más de una estación o puerto desea enviar una trama al mismo tiempo, los switches difieren de los
hubs. En un hub, todas las estaciones están en el mismo dominio de colisión. Deben usar el algoritmo
CSMA/CD para programar sus transmisiones. En un switch, cada puerto es su propio dominio de colisión
independiente.

Un switch mejora el desempeño de la red en comparación con un hub de dos maneras. Primero, como no
hay colisiones, la capacidad se utiliza con más eficiencia. Segundo y más importante, con un switch se
pueden enviar varias tramas al mismo tiempo (por distintas estaciones). Estas tramas llegarán a los
puertos del switch y viajarán hacia el plano posterior de éste para enviarlos por los puertos apropiados.
No obstante, como se podrían enviar dos tramas al mismo puerto de salida y al mismo tiempo, el switch
debe tener un búfer para que pueda poner temporalmente en cola una trama de entrada hasta que se
pueda transmitir al puerto de salida. En general, estas mejoras producen una considerable ganancia en el
desempeño que no es posible lograr con un hub. Con frecuencia, la velocidad real de transmisión total del
sistema se puede incrementar en un orden de magnitud, dependiendo del número de puertos y patrones
de tráfico.

En el funcionamiento de un switch se analiza una trama entrante (dirección MAC) y redirecciona la misma
únicamente a la salida correspondiente. Requiere de tablas de conmutación (enrutamiento) para
determinar la interfaz de salida correspondiente a cada equipo en la red.

Por ejemplo si A le envía información a D, el switch Aprende quien es A y registra la MAC A en la tabla,
luego habilita la Inundación flooding para la MAC destino y cuando esta responde, hay Filtrado de

Ing. Jorge Orellana A. 56


Redes de Computadoras

tramas al registrar la MAC D en la tabla, haciendo “Frame filtering” para la MAC A destino, que se
encuentra en la tabla

3.4.3. FastEthernet

802.3u, fue aprobado de manera oficial por el IEEE en junio de 1995. Técnicamente, 802.3u no es un
nuevo estándar sino un agregado al estándar 802.3 existente, para su compatibilidad con versiones
anteriores. Es comun llamarlo Fast Ethernet en vez de 802.3u. El tipo de cableado que soporta es:

El esquema UTP categoría 3, llamado 100Base-T4, utilizaba una velocidad de señalización de 25 MHz,
tan sólo un 25% más rápida que los 20 MHz de la Ethernet estándar. Sin embargo, para alcanzar la tasa
de bits necesaria, 100Base-T4 requiere cuatro cables de par trenzado. De los cuatro pares, uno siempre
va al hub, uno siempre sale del hub y los otros dos se pueden conmutar a la dirección actual de la
transmisión. Para obtener 100 Mbps de los tres pares trenzados en la dirección de la transmisión, se
utiliza un esquema bastante complejo en cada par trenzado, que implica enviar dígitos ternarios con tres
distintos niveles de voltaje.
Ethernet 100Base-TX, llegó a dominar el mercado. Este diseño es más simple puesto que los cables
pueden manejar velocidades de reloj de 125 MHz. Sólo se utilizan dos pares trenzados por estación, uno
que va al hub y otro que viene de él. No se utiliza la codificación binaria directa (es decir, NRZ) ni la
codificación Manchester. Se utiliza la codificación 4B/5B. Se codifican 4 bits de datos como 5 bits de
señal y se envían a 125 MHz para proveer 100 Mbps. El sistema 100Base-TX es full-dúplex; las
estaciones pueden transmitir a 100 Mbps en un par trenzado y recibir a 100 Mbps en otro par trenzado al
mismo tiempo.
La última opción, 100Base-FX, utiliza dos filamentos de fibra multimodo, una para cada dirección, por lo
que también es full-dúplex con 100 Mbps en cada dirección. En esta configuración, la distancia entre una
estación y el switch puede ser de hasta 2 km.

Casi todos los switches Fast Ethernet pueden manejar una mezcla de estaciones de 10 Mbps y 100
Mbps. Para facilitar la actualización, el estándar provee por sí solo un mecanismo llamado
autonegociación, el cual permite que dos estaciones negocien de manera automática la velocidad óptima
(10 o 100 Mbps) y la duplicidad (half-dúplex o full-dúplex). La mayoría de los productos Ethernet usan
esta característica para configurarse a sí mismos.

Ing. Jorge Orellana A. 57


Redes de Computadoras

3.4.4. Gigabit Ethernet

El IEEE trabajó en 802.3ab en 1999, llamada Gigabit Ethernet. Los objetivos del comité para la Gigabit
Ethernet eran en esencia los mismos que los del comité para Fast Ethernet: que tuviera un desempeño
10 veces mayor y que mantuviera la compatibilidad con todos los estándares Ethernet existentes. Gigabit
Ethernet ofrece servicio de datagramas sin confirmación de recepción con unidifusión y multidifusión,
utiliza el mismo esquema de direccionamiento de 48 bits que ya estaba en uso y mantiene el mismo
formato de trama, incluyendo los tamaños mínimo y máximo de trama.

Al igual que Fast Ethernet, Gigabit Ethernet soporta dos modos diferentes de funcionamiento: modo full-
dúplex y modo half-dúplex. El modo “normal” es el modo full-dúplex, que permite tráfico en ambas
direcciones al mismo tiempo. Este modo se utiliza cuando hay un switch central conectado a
computadoras o a otros switches. En esta configuración, todas las líneas se almacenan en el búfer con el
fin de que cada computadora y switch pueda enviar tramas siempre que lo desee. El emisor no tiene que
detectar el canal para ver si alguien más lo está utilizando debido a que la contención es imposible. En la
línea entre una computadora y un switch, la computadora es la única que puede enviar al switch y la
transmisión tendrá éxito aun cuando el switch esté enviado ahora una trama a la computadora. Los
switches tienen la libertad de mezclar e igualar velocidades. La autonegociación se soporta al igual que
en Fast Ethernet, sólo que ahora la opción está entre 10, 100 y 1000 Mbps.
El otro modo de operación es half-dúplex y se utiliza cuando las computadoras están conectadas a un
hub en vez de un switch. Un hub no almacena las tramas entrantes. En su lugar, conecta en forma
eléctrica todas las líneas internamente, simulando el cable con múltiples derivaciones que se utiliza en la
Ethernet clásica. En este modo puede haber colisiones, por lo que se requiere el protocolo CSMA/CD
estándar.

Gigabit Ethernet soporta tanto el cableado de cobre como el de fibra óptica. La señalización cerca de 1
Gbps requiere codificar y enviar un bit cada nanosegundo. En un principio este truco se lograba con
cables cortos de cobre blindados (la versión 1000Base-CX) y con fibra óptica. En la fibra óptica se
permiten dos longitudes de onda y resultan dos versiones distintas: 0.85 micras (corto, para 1000Base-
SX) y 1.3 micras (largo, para 1000Base-LX).

La señalización en la longitud de onda corta se puede realizar mediante LEDs económicos. Se utiliza con
fibra multimodo y es útil para las conexiones dentro de un edificio, ya que puede funcionar hasta por
500m para la fibra de 50 micras. La señalización en la longitud de onda larga requiere láser más
costosos. Por otro lado, al combinarse con fibra monomodo (10 micras), la longitud de cable puede ser de
hasta 5 km. Para enviar bits por estas versiones de Gigabit Ethernet, se utiliza la codificación 8B/10B, que
codifica 8 bits de datos en palabras codificadas de 10 bits que se envían a través del cable o la fibra.

3.4.5. 10 Gigabit Ethernet

Aparecieron estándares para fibra y cable de cobre blindado por primera vez en 2002 y 2004, seguidos
de un estándar para par trenzado de cobre en 2006.
10 Gbps es una velocidad realmente prodigiosa, 1000 veces más rápida que la Ethernet original. ¿En
dónde se podría necesitar? La respuesta es que dentro de los centros e intercambios de datos para
conectar enrutadores, switches y servidores de gama alta, así como en las troncales de larga distancia
con alto ancho de banda entre las oficinas que permiten la operación de redes de área metropolitana
completas, basadas en Ethernet y fibra. Las conexiones de larga distancia usan fibra óptica, mientras que
las conexiones cortas pueden usar cobre o fibra.

Ing. Jorge Orellana A. 58


Redes de Computadoras

Todas las versiones de Ethernet de 10 gigabits soportan sólo la operación full-dúplex. CSMA/CD ya no
forma parte del diseño y los estándares se concentran en los detalles de las capas físicas que pueden
operar a muy alta velocidad. Pero la compatibilidad aún sigue siendo importante, por lo que las interfaces
Ethernet de 10 gigabits usan la autonegociación y cambian a la velocidad más alta soportada por ambos
extremos de la línea.

En la figura siguiente se listan los principales tipos de Ethernet de 10 gigabits. Se utiliza fibra multimodo
con la longitud de onda de 0.85 micras (corta) para distancias medias, y la fibra monomodo a 1.3 micras
(larga) y 1.5 micras (extendida) para distancias largas. 10GBase-ER puede operar en distancias de 40
km, lo cual la hace adecuada para aplicaciones de área amplia. Todas estas versiones envían un flujo
serial de información que se produce mediante el mezclado de los bits de datos, para después
codificarlos mediante un código 64B/66B. Esta codificación tiene menos sobrecarga que un código
8B/10B.

La primera versión de cobre que se definió (10GBase-CX4) utiliza un cable con cuatro pares de cableado
twinaxial de cobre. Cada par usa codificación 8B/10B y opera a 3.125 Gsímbolos/segundo para alcanzar
10 Gbps. Esta versión es más económica que la fibra y fue de las primeras en comercializarse.

10GBase-T es la versión que usa cables UTP. Aunque requiere cableado categoría 6a o 7, en distancias
más cortas puede usar categorías más bajas (incluyendo la categoría 5 o 5e) para reutilizar una parte del
cableado ya instalado. Cada uno de los cuatro pares trenzados se utiliza para enviar 2500 Mbps en
ambas direcciones. Para llegar a esta velocidad se utiliza una tasa de señalización de 800
Msímbolos/seg, con símbolos que usan 16 niveles de voltaje. Para producir los símbolos se mezclan los
datos, se protegen con un código LDPC (Verificación de Paridad de Baja Densidad) y se vuelven a
codificar para corrección de errores. A finales de 2007, el IEEE creó un grupo para estandarizar la
Ethernet que opera a 40 Gbps y 100 Gbps. Esta actualización permitirá a Ethernet competir en ambientes
de muy alto rendimiento, incluyendo las conexiones de larga distancia en redes troncales y las
conexiones cortas a través de los planos posteriores de los equipos. El estándar todavía no está
completo, pero ya hay productos propietarios disponibles.

3.4.6. 40 Gigabit Ethernet

Ing. Jorge Orellana A. 59


Redes de Computadoras

3.4.7. 100 Gigabit Ethernet

Ing. Jorge Orellana A. 60

También podría gustarte