Tema III (Control de Acceso Al Medio)
Tema III (Control de Acceso Al Medio)
Tema III (Control de Acceso Al Medio)
Tema III
Debido a esta característica singular de las redes broadcast la capa de enlace tiene en ellas una
complejidad mayor que en las redes punto a punto, por lo que el modelo OSI se suele dividir en este caso
en dos subcapas: la inferior, que se ocupa de controlar esta nueva función de acceso al medio de
transmisión que hemos comentado, se denomina subcapa MAC (Medium Access Control); la superior,
conocida como subcapa LLC (Logical Link Control) corresponde a las funciones de la capa de enlace
comunes a todo tipo de redes que se revisara en el siguiente tema.
3.1. COLISIÓN
Una colisión es una interferencia en la transmisión de un computador, producida por otro u otros
computadores, o por las condiciones del medio de transmisión. Puede haber más de dos computadores
involucrados en la colisión. Un computador puede interferir consigo mismo.
Se produce una colisión cuando, a pesar de que un equipo pretende transmitir una cierta serie de bits, las
alteraciones que se producen en el medio de transmisión no se corresponden con esa secuencia de bits.
El computador que transmite es la única capaz de detectar que se está produciendo una colisión, porque
es la única que conoce qué es lo que pretende emitir. Para detectar una colisión, el computador debe
comparar (bit a bit) lo que pretende enviar, con lo que realmente está siendo enviado por el medio. El
computador tiene que tener la capacidad de poder “escuchar” (recibir) mientras está enviando. Los
factores que intervienen en una colisión son la velocidad de propagación, distancia, velocidad de
transmisión y longitud del mensaje.
Centralizadas: Un único nodo tiene el control, y periódicamente invita a los otros a transmitir (Sondeo
o Polling)
La manera tradicional de asignar un solo canal entre múltiples usuarios competidores es dividir su
capacidad mediante el uso de uno de los esquemas de multiplexación como el FDM (Multiplexación por
División de Frecuencia. Si hay N usuarios, el ancho de banda se divide en N partes de igual tamaño, y a
cada usuario se le asigna una parte. Debido a que cada usuario tiene una banda de frecuencia privada,
ahora no hay interferencia entre ellos. Cuando sólo hay una pequeña cantidad fija y constante de
usuarios, cada uno tiene un flujo estable o una carga de tráfico pesada, esta división es un mecanismo de
asignación sencillo y eficiente. Las estaciones de radio de FM son un ejemplo inalámbrico. Cada estación
recibe una parte de la banda de FM y la utiliza la mayor parte del tiempo para difundir su señal. Dividir el
único canal disponible en varios subcanales estáticos es ineficiente por naturaleza. El problema básico es
que, cuando algunos usuarios están inactivos, su ancho de banda simplemente se pierde. No lo están
usando, y a nadie más se le permite usarlo.
Por otro lado, si se usara la multiplexación por división de tiempo (TDM) y a cada usuario se le asignara
una N-ésima ranura de tiempo, en caso de que un usuario no utilizara la ranura asignada, simplemente
se desperdicia.
El trabajo hecho en esta área se basa en cinco supuestos clave, que se describen a continuación:
habría sido utilizar enlaces telefónicos, pero la baja calidad y el elevado costo de las líneas hacían
prohibitiva esta opción. El equipo estaba decidido a llevar a cabo su proyecto a toda costa, pero no a
cualquier costo. Consiguieron varios transmisores de radio taxis viejos y construyeron módems de forma
artesanal. Con esto pusieron en marcha una red de radioenlaces entre las islas. Si se hubiera asignado
un canal diferente para la comunicación en cada sentido entre Oahu y las otras tres islas habrían hecho
falta seis canales; en vez de eso asignaron solamente dos: uno a 413,475 MHz para las transmisiones de
Oahu a las demás islas y otro a 407,350 MHz para el sentido inverso. Cada canal tenía un ancho de
banda de 100 KHz y una capacidad de 9,6 Kb/s. En caso de haber creado seis canales en el mismo
ancho de banda la capacidad de cada uno habría sido proporcionalmente menor; creando solo dos se
disponía de una mayor capacidad a costa de tener que compartirlos entre las tres islas. Las
transmisiones desde Oahu no planteaban problemas pues había un único emisor. Sin embargo el canal
de retorno era compartido por tres emisores (Kauai, Maui y Hawaii), por lo que podía suceder que dos
emisores transmitieran simultáneamente, con lo que se producía una colisión con lo que ambas tramas
se perdían; había pues que establecer reglas que especificaran como se resolvía una situación de este
tipo; estas reglas es lo que denominamos un protocolo de acceso al medio o protocolo MAC (Medium
Access Control).
La solución que adoptaron fue muy simple. Cuando un emisor quiere transmitir una trama simplemente la
emite, sin preocuparse en ningún momento de si el canal está libre; una vez ha terminado se pone a la
escucha, esperando recibir confirmación de que la información ha sido recibida correctamente por el
destinatario. Si pasado un tiempo razonable no se recibe confirmación el emisor supone que ha ocurrido
una colisión; en este caso espera un tiempo aleatorio (para no colisionar nuevamente) y a continuación
reenvía la trama. Este protocolo MAC, que fue el primero en implementarse, se denominó Aloha. La red
creada en Hawai se denominó ALOHANET. Aloha es una palabra Hawaiana que se utiliza para saludar,
tanto al llegar como al despedirse. Seguramente esta ambigüedad pareció apropiada a sus inventores
para indicar el carácter multidireccional o broadcast de la transmisión, por contraste con los enlaces punto
a punto utilizados hasta entonces donde se sabe con certeza si la información va o viene.
En el protocolo Aloha original (puro) la emisión de tramas por parte de cada computador se hace de
forma completamente caótica y basta que dos tramas colisionen o se solapen solamente en un bit para
que ambas sean completamente inútiles, a pesar de lo cual tanto la primera como la segunda serán
irremediablemente transmitidas, ya que los emisores sólo se percatarán del problema después de haber
terminado la transmisión; además la segunda trama podría colisionar con una tercera, y así
sucesivamente; en una red Aloha cuando el tráfico crece las colisiones aumentan de manera no lineal y el
rendimiento decae rápidamente. En la siguiente figura se presenta un ejemplo de la generación de tramas
en un sistema ALOHA. Todas las tramas son de la misma longitud porque la velocidad real de
transmisión (throughput) de los sistemas ALOHA se maximiza al tener tramas con un tamaño uniforme en
lugar de tramas de longitud variable. Cada vez que dos tramas traten de ocupar el canal al mismo tiempo,
habrá una colisión y ambas se dañarán. Si el primer bit de una trama nueva se traslapa con el último bit
de una trama casi terminada, ambas se destruirán por completo (es decir, tendrán sumas de verificación
incorrectas) y ambas tendrán que volver a transmitirse más tarde. La suma de verificación no distingue (y
no debe) entre una pérdida total y un error ligero. El uso del canal es aproximadamente el 18%.
Los protocolos Aloha aún se utilizan hoy en día (normalmente Aloha ranurado) en situaciones donde no
es posible o no es práctico detectar las colisiones en tiempo real, por ejemplo algunas redes de satélite o
el canal de acceso aleatorio que se utiliza en las redes GSM para acceder al canal de control.
En su nivel más primitivo el protocolo CSMA hace lo siguiente: cuando tiene una trama que enviar
primero escucha el canal para saber si está libre; si lo está envía la trama; en caso contrario espera a que
se libere y en ese momento la envía. Este protocolo se denomina CSMA 1-persistente porque hay una
probabilidad 1 (es decir certeza) de que la trama se transmita cuando el canal esté libre.
En una situación real con tráfico intenso es muy posible que cuando un computador termine de transmitir
haya varios esperando para enviar su trama; con CSMA 1-persistente todas esas tramas serán emitidas a
la vez y colisionarán, pudiéndose repetir el proceso varias veces con la consiguiente degradación del
rendimiento. En realidad la colisión ocurre aunque no empiecen a transmitir exactamente a la vez: basta
con que dos computadores empiecen a transmitir con una diferencia de tiempos menor que la distancia
que los separa, ya que en tal caso ambos detectarán el canal libre en el momento de iniciar la
transmisión. A pesar de sus inconvenientes el CSMA 1-persistente supone un avance respecto al ALOHA
ranurado, ya que toma la precaución de averiguar antes si el canal está disponible, con lo que se evitan
un buen número de colisiones.
colisiones producidas por los computadores que se encuentran a la espera de que termine la transmisión
de una trama en un momento dado.
Ajustando el valor del parámetro p el funcionamiento de este protocolo se puede regular en todo el rango
entre el de CSMA 1-persistente y el de CSMA no persistente. Su eficiencia es en general superior a la de
ambos.
En una red CSMA/CD la única circunstancia en la que puede producirse una colisión es cuando dos
computadores empiezan a transmitir a la vez, o con una diferencia de tiempo lo bastante pequeña como
para que la señal de uno no haya podido llegar al otro antes de que éste empiece a transmitir. Suponer
que se tiene dos computadores A y B situados en extremos opuestos de la red y que la señal tarda un
tiempo en propagarse de uno a otro extremo a otro; cabría pensar que si A empieza a transmitir pasado
ese tiempo ya puede estar seguro de que no observará colisiones, ya que sus señal ha llegado al otro
extremo de la red; pero en el caso más desfavorable B podría haber empezado a transmitir justo en el
instante -, o sea inmediatamente antes de que le haya llegado la trama de A; por lo que sólo después
de un tiempo 2 puede A estar seguro de no colisionar con ningún otro computador, habiéndose
entonces “apoderado” del canal de transmisión. Dado que el período de incertidumbre en CSMA/CD se
reduce a ese intervalo 2 estas redes se suelen modelar como un sistema ALOHA ranurado con
intervalos de tamaño 2.
Suponiendo que la red tiene N computadores, numerados de 0 a N-1. Para empezar a funcionar se
establece una ronda “exploratoria” de N intervalos en la que por riguroso turno cada computador,
empezando por el 0, tiene la posibilidad de enviar un bit con el valor 1 ó 0 para indicar si tiene alguna
trama que transmitir. Pasados N intervalos todos los computadores han podido manifestar su situación, y
todos saben quien tiene tramas para transmitir. Por ejemplo, si se tienen 8 computadores, y que después
de la ronda inicial se sabe que los computadores 1, 3 y 7 tienen tramas para transmitir. Entonces toma la
palabra el computador 1, que transmite la trama que tenía pendiente. Después vendrá el 3 y por último el
7. Agotados los turnos que había solicitados se inicia otra ronda de sondeo para saber quien tiene tramas
pendientes de transmitir, y así sucesivamente.
Puede suceder que a algún computador le surja la necesidad de transmitir una trama justo después de
haber dejado pasar su turno; en tal caso tendrá que esperar a la siguiente vuelta.
Desde el punto de vista del rendimiento este protocolo genera una trama adicional de N bits. Si la red no
tiene tráfico se generará una trama bitmap que estará continuamente dando vueltas por la red. Si la carga
en la red es baja (una trama transmitida por vuelta) la eficiencia es d/(N+d), donde d es el tamaño de la
trama de información transmitida y N el número de computadores. Si la red está saturada cada
computador tendrá una trama que enviar y la eficiencia será Nd/(Nd+N), o sea d/(d+1). Se ve que el
rendimiento de este protocolo aumenta a medida que lo hace el tráfico en la red, justo lo contrario de lo
que ocurría con los protocolos basados en colisiones.
En situaciones de saturación donde todos los computadores tienen tramas que transmitir, y suponiendo
que todas las tramas tienen el mismo tamaño el protocolo bitmap produce un reparto equitativo, por lo
que resulta equivalente a utilizar multiplexación por división en el tiempo para repartir el canal entre los
computadores de la red.
El protocolo bitmap resulta más eficiente y más homogéneo en su comportamiento a medida que la carga
de la red aumenta. Los protocolos como se han descrito, en los que se emite un paquete indicando el
deseo de transmitir información, se denominan protocolos de reserva.
El desempeño del protocolo de paso de token es similar al del protocolo de mapa de bits, aunque las
ranuras de contención y las tramas de un ciclo están ahora entremezcladas. Después de enviar una
trama, cada estación debe esperar a que las N estaciones (incluyéndose a sí misma) envíen el token a
sus estaciones vecinas y que las otras N – 1 estaciones envíen una trama, si es que la tienen. Una sutil
diferencia es que, como todas las posiciones en el ciclo son equivalentes, no hay parcialidad por las
estaciones de menor o de mayor numeración. Para token ring, cada estación también envía el token sólo
hasta su estación vecina antes de que el protocolo lleve a cabo el siguiente paso. No es necesario
propagar cada token a todas las estaciones antes de que el protocolo avance al siguiente paso.
Las redes de token ring han surgido como protocolos MAC con cierta consistencia. Uno de los primeros
protocolos de este tipo (conocido como “Token Ring”, que se estandarizó como IEEE 802.5) fue popular
en la década de 1980 como alternativa a la Ethernet clásica. En la década de 1990, una red token ring
mucho más veloz conocida como FDDI (Interfaz de Datos Distribuidos por Fibra) fue vencida por la
Ethernet conmutada. En la década de 2000, una red token ring llamada RPR (Anillo de Paquetes con
Recuperación) se definió como el IEEE 802.17 para estandarizar la mezcla de anillos de área
metropolitana que usaban los ISP.
Suponiendo que se tiene una red con 16 computadores. Cada uno recibirá una dirección codificada en 4
bits. Suponiendo también que los computadores 0010, 0100, 1001 y 1010 desean transmitir tramas. El
protocolo de cuenta atrás binaria procede de la siguiente forma:
1. En el primer intervalo los cuatro computadores que desean transmitir envían a la red el primer bit
de su dirección; el medio de transmisión está diseñado de tal forma que retransmite el OR de
todos los bits transmitidos, es decir en este caso los cuatro computadores reciben un 1.
2. Al haber recibido un 1 los computadores 0010 y 0100 (que tienen un 0 en su primer bit)
reconocen que hay computadores superiores a ellos en la competición y se retiran; los dos
“finalistas” envían a la red su segundo bit, que es cero para ambos; la red retransmite un cero.
3. Al haber recibido un cero los dos computadores siguen compitiendo y envían su tercer bit, un
cero para 1001 y un 1 para 1010; la red retransmite un 1 y el computador 1001 se retira al ver
que hay uno que le supera.
4. El computador ganador, el 1010, envía su trama.
El proceso se repite para los tres computadores restantes, y así sucesivamente hasta que eventualmente
todos envían su trama. La eficiencia de este protocolo es d/(d + ln N), que para tráficos reducidos supera
al bitmap; además, el mecanismo de selección suministra la dirección del computador transmisor que a
menudo es parte de la información que se pretende transmitir, con lo que incluso este overhead se
aprovecha y la eficiencia puede ser del 100%.
Cabría pensar en un protocolo ideal que contuviera lo mejor de ambos mundos. Debería ser lo bastante
astuto como para funcionar de forma “caótica” (es decir con colisiones) a bajos niveles de tráfico, y poner
en marcha mecanismos de arbitraje riguroso en caso de que el tráfico aumente por encima de ciertos
niveles considerados peligrosos, es decir, debería ser autoadaptativo. Este tipo de protocolos se
denomina protocolos de contención limitada.
En caso de que la red tenga poco tráfico estos protocolos se comportarán según alguno de los protocolos
con colisiones que hemos visto. Pero cuando se superen determinados umbrales de ocupación el
protocolo dividirá el canal en intervalos asignando uno a cada computador, en riguroso turno. Este
comportamiento es equivalente a realizar multiplexación por división en el tiempo sobre el canal. En la
práctica suelen ser unos pocos computadores los que generan la mayor parte del tráfico, por lo que lo
ideal es identificar a los culpables y aislarlos en intervalos propios, independientes del resto de los
computadores; de esta forma esos computadores con tráfico elevado consiguen un buen rendimiento sin
perjudicar a la mayoría “silenciosa”. Precisamente la pronta identificación de esos culpables es la clave
del funcionamiento de estos protocolos. Los computadores no necesariamente han de ser identificados
individualmente, es suficiente detectar un grupo con tráfico elevado (que presumiblemente contendrá
algún “sospechoso”) y aislarlo del resto. Uno de los protocolos que funciona con este principio es el
denominado protocolo de recorrido de árbol adaptable.
Una manera muy sencilla de llevar a cabo la asignación necesaria es usar el algoritmo desarrollado por el
ejército de Estados Unidos para hacer pruebas de sífilis a los soldados durante la Segunda Guerra
Mundial (Dorfman, 1943). En esencia, el ejército tomaba una muestra de sangre de N soldados. Se
vaciaba una parte de cada muestra en un solo tubo de ensayo. Luego se examinaba esta muestra
mezclada en busca de anticuerpos. Si no se encontraban, todos los soldados del grupo se declaraban
sanos. Si se encontraban anticuerpos, se preparaban dos nuevas muestras mezcladas, una de los
soldados 1 a N/2 y otra de los demás. El proceso se repetía en forma recursiva hasta que se
determinaban los soldados infectados. Para la versión de computadora de este algoritmo es conveniente
considerar a las estaciones como hojas de un árbol binario, como se muestra en la siguiente figura. En la
primera ranura de contención después de la transmisión exitosa de una trama (ranura 0), se permite que
todas las estaciones intenten adquirir el canal. Si una de ellas lo logra, qué bueno. Si hay una colisión,
entonces durante la ranura 1, sólo aquellas estaciones que queden bajo el nodo 2 del árbol podrán
competir. Si alguna de ellas adquiere el canal, la ranura que siga después de la trama se reservará para
las estaciones que están bajo el nodo 3. Por otra parte, si dos o más estaciones bajo el nodo 2 quieren
transmitir, habrá una colisión durante la ranura 1, en cuyo caso será el turno del nodo 4 durante la ranura
2.
Si ocurre una colisión durante la ranura 0, se examina todo el árbol para localizar todas las estaciones
listas. Cada ranura de bits está asociada a un nodo específico del árbol. Si ocurre una colisión, continúa
la búsqueda en forma recursiva con el hijo izquierdo y el derecho del nodo. Si una ranura de bits está
inactiva o si sólo una estación que transmite en ella, se puede detener la búsqueda de su nodo, ya que se
han localizado todas las estaciones listas (si hubiera existido más de una, habría ocurrido una colisión).
Aunque hay una gama muy amplia de protocolos MAC que han sido propuestos en teoría, modelados por
simulación e incluso probados en redes experimentales, en la práctica las posibles opciones se reducen a
un número muy pequeño. Además el protocolo MAC va implícito en la tecnología de red local utilizada,
que muchas veces se decide en base otros factores, tales como costo, disponibilidad de productos, etc.
por lo que el margen de maniobra en cuanto a la elección del protocolo MAC es prácticamente nulo.
El problema de las colisiones debe encararse de modo diferente. En redes inalámbricas, lo que importa
es la percepción del receptor. No hay forma de que el emisor determine qué sucede en el receptor.
Midiendo el nivel de energía de radio frecuencia, una estación puede determinar si hay otra cuya emisión
puede perturbarla. Mucho más simple que full dúplex.
Dada la topología y alcance de la siguiente figura, cuando A transmite, su señal llega hasta B, pero no
llega ni a C, ni a D. Una transmisión de A hacia B puede hacer colisión con otra cuyo destino sea B, pero
no afecta si los destinos son C o D
MACA (Multiple Access with Collision Avoidance) es el protocolo MAC que ha servido de base para el
estándar IEEE 802.11 que es el que especifica el funcionamiento de LANs inalámbricas. MACA resuelve
los dos problemas antes mencionados.
Cuando una estación tiene una trama que transmitir antes de enviarla envía una trama pequeña de aviso
(de 30 bytes) denominada RTS (Request To Send). La trama RTS contiene información sobre la longitud
de la trama que se pretende transmitir y la estación de destino.
Al recibir la trama RTS la estación de destino, si está en condiciones de recibir la transmisión, responde
con otra trama denominada CTS (Clear To Send). La trama CTS también indica la longitud de la trama
que se va a recibir. Cualquier estación que escuche el RTS está bastante cerca de A y debe permanecer
en silencio durante el tiempo suficiente para que el CTS se transmita de regreso a A sin conflicto. Es
evidente que cualquier estación que escuche el CTS está bastante cerca de B y debe permanecer en
silencio durante la siguiente transmisión de datos, cuya longitud puede determinar examinando la trama
CTS. En la figura, C está en el alcance de A pero no en el alcance de B. Por lo tanto, escucha el RTS de
A pero no el CTS de B. En tanto no interfiera con el CTS, está libre para transmitir mientras se envía la
trama de datos. En contraste, D está en el alcance de B pero no de A. No escucha el RTS pero sí el CTS.
Al escuchar el CTS sabe que está cerca de una estación que está a punto de recibir una trama, por lo
que difiere el envío de cualquier cosa hasta el momento en que se espera la terminación de esa trama.
La estación E escucha ambos mensajes de control y, al igual que D, debe permanecer en silencio hasta
que se haya completado la trama de datos.
El 802.11 trata de evitar colisiones con un protocolo llamado CSMA/CA (CSMA con Evitación de
Colisiones), que se basa en MACA. En concepto, este protocolo es similar al CSMA/CD de Ethernet, con
detección del canal antes de enviar y retroceso exponencial después de las colisiones. Sin embargo, una
estación que desee enviar una trama empieza con un retroceso aleatorio (excepto en el caso en que no
haya utilizado el canal recientemente y éste se encuentre inactivo). No espera una colisión. La estación
espera hasta que el canal está inactivo, para lo cual detecta que no hay señal durante un periodo corto y
realiza un conteo descendente de las ranuras inactivas, haciendo pausa cuando se envían tramas. Envía
su trama cuando el contador llega a 0. Si la trama logra pasar, el destino envía de inmediato una
confirmación de recepción corta. La falta de una confirmación de recepción se interpreta como si hubiera
ocurrido un error, sea una colisión o cualquier otra cosa. En este caso, el emisor duplica el periodo de
retroceso e intenta de nuevo, continuando con el retroceso exponencial como en Ethernet, hasta que la
trama se transmita con éxito o se llegue al número máximo de retransmisiones.
En la figura siguiente se muestra una línea de tiempo de ejemplo. La estación A es la primera en enviar
una trama. Mientras A envía, las estaciones B y C se preparan para enviar. Ven que el canal está
ocupado y esperan a que esté inactivo. Poco después de que A recibe una confirmación de recepción, el
canal queda inactivo. Sin embargo, en vez de enviar una trama de inmediato y colisionar, B y C realizan
un retroceso. C elije un retroceso corto, por lo que envía primero. B detiene su conteo mientras detecta
que C está usando el canal y lo reanuda después de que C recibe una confirmación de recepción. Poco
después, B completa su retroceso y envía su trama.
Para decidir qué estación va a transmitir en caso de tener el canal habilitado, el 802.11 define la
detección del canal como un proceso que consiste tanto de una detección física como de una detección
virtual. En la detección física sólo se verifica el medio para ver si hay una señal válida. En la detección
virtual, cada estación mantiene un registro lógico del momento en que se usa el canal rastreando el NAV
(Vector de Asignación de Red). Cada trama lleva un campo NAV que indica cuánto tiempo tardará en
completarse la secuencia a la que pertenece esta trama. Las estaciones que escuchen por casualidad
esta trama saben que el canal estará ocupado durante el periodo indicado por el NAV, sin importar que
puedan detectar o no una señal física.
Hay un mecanismo RTS/CTS opcional que usa el NAV para evitar que las terminales envíen tramas al
mismo tiempo como terminales ocultas. En la siguiente figura, A desea enviar a B. C es una estación
dentro del alcance de A. D es una estación dentro del alcance de B, pero no dentro del alcance de A.
El protocolo empieza cuando A decide que desea enviar datos a B. A empieza por enviar una trama RTS
a B para solicitar permiso de enviarle una trama. Si B recibe esta solicitud, responde con una trama CTS
para indicar que el canal está libre para enviar. Al recibir la CTS, A envía su trama e inicia un
temporizador ACK. Al recibir de forma correcta la trama de datos, B responde con una trama ACK para
completar el intercambio. Si el temporizador ACK de A expira antes de que la trama ACK vuelva a ella, se
considera como una colisión y se lleva a cabo todo el protocolo de nuevo, después de un retroceso.
C está dentro del alcance de A, por lo que puede recibir la trama RTS. Si pasa esto, se da cuenta de que
alguien pronto va a enviar datos. A partir de la información proporcionada en la solicitud RTS, C puede
estimar cuánto tardará la secuencia, incluyendo la trama ACK final. Entonces, desiste de transmitir
cualquier cosa hasta que el intercambio esté completo. A continuación actualiza su registro del NAV para
indicar que el canal está ocupado. D no escucha el RTS pero sí el CTS, por lo que también actualiza su
NAV. Es necesario tener en cuenta que las señales NAV no se transmiten; sólo son recordatorios
internos para mantenerse en silencio durante cierto periodo.
Ethernet, probablemente es el tipo más común de red de computadoras en el mundo. Existen dos clases
de Ethernet: Ethernet clásica, que resuelve el problema de acceso múltiple mediante el uso de las
técnicas que se han estudiado en este capítulo; el segundo tipo es la Ethernet conmutada, en donde los
dispositivos llamados conmutadores (switches) se utilizan para conectar distintas computadoras. Es
importante mencionar que, aunque se hace referencia a ambas como Ethernet, son muy diferentes. La
Ethernet clásica es la forma original que operaba a tasas de transmisión de 3 a 10 Mbps. La Ethernet
conmutada es en lo que se convirtió la Ethernet y opera a 100, 1000 y 10000 Mbps, en formas conocidas
como Fast Ethernet, Gigabit Ethernet y 10 Gigabit Ethernet. Actualmente, en la práctica sólo se utiliza
Ethernet conmutada.
Se analizará estas formas históricas de Ethernet en orden cronológico para mostrar cómo se
desarrollaron. Puesto que Ethernet y el IEEE 802.3 son idénticos, excepto por una pequeña diferencia,
muchas personas usan los términos “Ethernet” e “IEEE 802.3” sin distinción.
La red Ethernet utiliza un medio común (cable coaxial o UTP), que puede ser usado en un instante
determinado por una sola computadora para transmitir. El cable llega a todas las computadoras e
independientemente de su estructura física, se comporta como un bus, donde todo lo que se coloca en el
cable llega a todas las computadores.
Una red Ethernet está compuesta de uno o más segmentos de cable (unidos por repetidores) y puede
construirse con diferentes tecnologías. En la descripción de una red Ethernet, se usa la nomenclatura del
tipo XYZ donde X especifica la tasa de transferencia medida en Mbps, Y determina el tipo de transmisión
y Z define la longitud máxima de un tramo sin repetidor medido en cientos de metros; T si es par trenzado
(10baseT) o F si es fibra optica (10baseF).
10Base5: Se conoce también como Ethernet de cable coaxial grueso (Thick Ethernet). Permite una tasa
de transferencia de 10 Mbps, la transmisión es en banda base (modulación digital Manchester), los
segmentos pueden tener hasta 500 m (distancia máxima entre repetidores que a lo sumo pueden ser 4) y
un computador debe separarse de otro al menos 2,5 m. La longitud máxima del enlace no puede superar
los 2.500 m. Solo pueden colocarse 200 computadores en cada tramo, lo que da un número máximo de
1000 computadores. Lo más destacable del 10Base5 es que las computadoras no se conectan
directamente al cable coaxial, sino a través de unos dispositivos llamados transceivers. Los transceivers
tienen una aguja metálica que atraviesa el cable hasta llegar a la línea de conductor interno (por este
motivo, a estos dispositivos también se les conoce con el nombre de vampiros). Del transceiver salen 15
cables que pueden tener una longitud máxima de 50 m y que van a parar al conector del interface de red
(NIC) del computador. La ventaja de los transceivers es que no es necesario cortar la línea para instalar
una nueva computadora.
10Base2: Llamado también Ethernet de cable coaxial fino (thin Ethernet), permite tasas de 10 Mbps en
banda base (modulación Manchester), pero los segmentos pueden ser a lo sumo de 200 m., (185 m en la
práctica). En este caso, las computadoras se conectan directamente a la red colocando un conector T del
tipo BNC en el punto de inserción. El hardware que antes se encontraba en el transceiver ahora se
encuentra en el interface de red del computador. Para instalar un nuevo computador es necesario cortar
la línea e instalar un conector T.
Los cables eran pares trenzados de la compañía telefónica, ya que la mayoría de los edificios de oficinas
contaban con este tipo de cableado y por lo general había muchos de sobra. Esta reutilización fue una
ventaja, pero a la vez se redujo la distancia máxima de cable del hub hasta 100 metros. En esta
configuración es más simple agregar o quitar una estación, además de que los cables rotos se pueden
detectar con facilidad. Con las ventajas de usar el cableado existente y la facilidad de mantenimiento, los
hubs de par trenzado se convirtieron rápidamente en la forma dominante de Ethernet. Sin embargo, los
hubs no incrementan la capacidad debido a que son lógicamente equivalentes al cable extenso individual
de la Ethernet clásica. A medida que se agregan más estaciones, cada estación recibe una parte cada
vez menor de la capacidad fija. En un momento dado, la LAN se saturará. Una forma de solucionar esto
es usar una Ethernet conmutada. El corazón de este sistema es un conmutador (switch) que contiene un
plano posterior (backplane) de alta velocidad, el cual conecta a todos los puertos como se muestra en la
figura anterior (b). Desde el exterior, un switch se ve igual que un hub. Ambos son cajas que por lo
general contienen de 4 a 48 puertos, cada uno con un conector estándar RJ-45 para un cable de par
trenzado. Cada cable conecta al switch o hub con una sola computadora. Un switch tiene también las
mismas ventajas que un hub. Es fácil agregar o quitar una nueva estación con sólo conectar o
desconectar un cable, y es fácil encontrar la mayoría de las fallas, ya que un cable o puerto defectuoso
por lo general afectará a una sola estación. De todas formas hay un componente compartido que puede
fallar (el mismo switch).
Sin embargo, dentro del switch ocurre algo muy distinto. Los switches sólo envían tramas a los puertos
para los cuales están destinadas. Cuando el puerto de un switch recibe una trama Ethernet de una
estación, el switch verifica las direcciones de Ethernet para ver cuál es el puerto de destino de la trama.
Este paso requiere que el switch sea capaz de deducir qué puertos corresponden a qué direcciones. A
continuación, el switch reenvía la trama a través de su plano posterior (switch fabric) de alta velocidad
hacia el puerto de destino. Por lo general, el plano posterior opera a muchos Gbps mediante el uso de un
protocolo propietario que no necesita estandarización, ya que está completamente oculto dentro del
switch. Después, el puerto de destino transmite la trama sobre el cable, de manera que pueda llegar a la
estación de destino. Ninguno de los otros puertos sabe siquiera que existe la trama.
Si más de una estación o puerto desea enviar una trama al mismo tiempo, los switches difieren de los
hubs. En un hub, todas las estaciones están en el mismo dominio de colisión. Deben usar el algoritmo
CSMA/CD para programar sus transmisiones. En un switch, cada puerto es su propio dominio de colisión
independiente.
Un switch mejora el desempeño de la red en comparación con un hub de dos maneras. Primero, como no
hay colisiones, la capacidad se utiliza con más eficiencia. Segundo y más importante, con un switch se
pueden enviar varias tramas al mismo tiempo (por distintas estaciones). Estas tramas llegarán a los
puertos del switch y viajarán hacia el plano posterior de éste para enviarlos por los puertos apropiados.
No obstante, como se podrían enviar dos tramas al mismo puerto de salida y al mismo tiempo, el switch
debe tener un búfer para que pueda poner temporalmente en cola una trama de entrada hasta que se
pueda transmitir al puerto de salida. En general, estas mejoras producen una considerable ganancia en el
desempeño que no es posible lograr con un hub. Con frecuencia, la velocidad real de transmisión total del
sistema se puede incrementar en un orden de magnitud, dependiendo del número de puertos y patrones
de tráfico.
En el funcionamiento de un switch se analiza una trama entrante (dirección MAC) y redirecciona la misma
únicamente a la salida correspondiente. Requiere de tablas de conmutación (enrutamiento) para
determinar la interfaz de salida correspondiente a cada equipo en la red.
Por ejemplo si A le envía información a D, el switch Aprende quien es A y registra la MAC A en la tabla,
luego habilita la Inundación flooding para la MAC destino y cuando esta responde, hay Filtrado de
tramas al registrar la MAC D en la tabla, haciendo “Frame filtering” para la MAC A destino, que se
encuentra en la tabla
3.4.3. FastEthernet
802.3u, fue aprobado de manera oficial por el IEEE en junio de 1995. Técnicamente, 802.3u no es un
nuevo estándar sino un agregado al estándar 802.3 existente, para su compatibilidad con versiones
anteriores. Es comun llamarlo Fast Ethernet en vez de 802.3u. El tipo de cableado que soporta es:
El esquema UTP categoría 3, llamado 100Base-T4, utilizaba una velocidad de señalización de 25 MHz,
tan sólo un 25% más rápida que los 20 MHz de la Ethernet estándar. Sin embargo, para alcanzar la tasa
de bits necesaria, 100Base-T4 requiere cuatro cables de par trenzado. De los cuatro pares, uno siempre
va al hub, uno siempre sale del hub y los otros dos se pueden conmutar a la dirección actual de la
transmisión. Para obtener 100 Mbps de los tres pares trenzados en la dirección de la transmisión, se
utiliza un esquema bastante complejo en cada par trenzado, que implica enviar dígitos ternarios con tres
distintos niveles de voltaje.
Ethernet 100Base-TX, llegó a dominar el mercado. Este diseño es más simple puesto que los cables
pueden manejar velocidades de reloj de 125 MHz. Sólo se utilizan dos pares trenzados por estación, uno
que va al hub y otro que viene de él. No se utiliza la codificación binaria directa (es decir, NRZ) ni la
codificación Manchester. Se utiliza la codificación 4B/5B. Se codifican 4 bits de datos como 5 bits de
señal y se envían a 125 MHz para proveer 100 Mbps. El sistema 100Base-TX es full-dúplex; las
estaciones pueden transmitir a 100 Mbps en un par trenzado y recibir a 100 Mbps en otro par trenzado al
mismo tiempo.
La última opción, 100Base-FX, utiliza dos filamentos de fibra multimodo, una para cada dirección, por lo
que también es full-dúplex con 100 Mbps en cada dirección. En esta configuración, la distancia entre una
estación y el switch puede ser de hasta 2 km.
Casi todos los switches Fast Ethernet pueden manejar una mezcla de estaciones de 10 Mbps y 100
Mbps. Para facilitar la actualización, el estándar provee por sí solo un mecanismo llamado
autonegociación, el cual permite que dos estaciones negocien de manera automática la velocidad óptima
(10 o 100 Mbps) y la duplicidad (half-dúplex o full-dúplex). La mayoría de los productos Ethernet usan
esta característica para configurarse a sí mismos.
El IEEE trabajó en 802.3ab en 1999, llamada Gigabit Ethernet. Los objetivos del comité para la Gigabit
Ethernet eran en esencia los mismos que los del comité para Fast Ethernet: que tuviera un desempeño
10 veces mayor y que mantuviera la compatibilidad con todos los estándares Ethernet existentes. Gigabit
Ethernet ofrece servicio de datagramas sin confirmación de recepción con unidifusión y multidifusión,
utiliza el mismo esquema de direccionamiento de 48 bits que ya estaba en uso y mantiene el mismo
formato de trama, incluyendo los tamaños mínimo y máximo de trama.
Al igual que Fast Ethernet, Gigabit Ethernet soporta dos modos diferentes de funcionamiento: modo full-
dúplex y modo half-dúplex. El modo “normal” es el modo full-dúplex, que permite tráfico en ambas
direcciones al mismo tiempo. Este modo se utiliza cuando hay un switch central conectado a
computadoras o a otros switches. En esta configuración, todas las líneas se almacenan en el búfer con el
fin de que cada computadora y switch pueda enviar tramas siempre que lo desee. El emisor no tiene que
detectar el canal para ver si alguien más lo está utilizando debido a que la contención es imposible. En la
línea entre una computadora y un switch, la computadora es la única que puede enviar al switch y la
transmisión tendrá éxito aun cuando el switch esté enviado ahora una trama a la computadora. Los
switches tienen la libertad de mezclar e igualar velocidades. La autonegociación se soporta al igual que
en Fast Ethernet, sólo que ahora la opción está entre 10, 100 y 1000 Mbps.
El otro modo de operación es half-dúplex y se utiliza cuando las computadoras están conectadas a un
hub en vez de un switch. Un hub no almacena las tramas entrantes. En su lugar, conecta en forma
eléctrica todas las líneas internamente, simulando el cable con múltiples derivaciones que se utiliza en la
Ethernet clásica. En este modo puede haber colisiones, por lo que se requiere el protocolo CSMA/CD
estándar.
Gigabit Ethernet soporta tanto el cableado de cobre como el de fibra óptica. La señalización cerca de 1
Gbps requiere codificar y enviar un bit cada nanosegundo. En un principio este truco se lograba con
cables cortos de cobre blindados (la versión 1000Base-CX) y con fibra óptica. En la fibra óptica se
permiten dos longitudes de onda y resultan dos versiones distintas: 0.85 micras (corto, para 1000Base-
SX) y 1.3 micras (largo, para 1000Base-LX).
La señalización en la longitud de onda corta se puede realizar mediante LEDs económicos. Se utiliza con
fibra multimodo y es útil para las conexiones dentro de un edificio, ya que puede funcionar hasta por
500m para la fibra de 50 micras. La señalización en la longitud de onda larga requiere láser más
costosos. Por otro lado, al combinarse con fibra monomodo (10 micras), la longitud de cable puede ser de
hasta 5 km. Para enviar bits por estas versiones de Gigabit Ethernet, se utiliza la codificación 8B/10B, que
codifica 8 bits de datos en palabras codificadas de 10 bits que se envían a través del cable o la fibra.
Aparecieron estándares para fibra y cable de cobre blindado por primera vez en 2002 y 2004, seguidos
de un estándar para par trenzado de cobre en 2006.
10 Gbps es una velocidad realmente prodigiosa, 1000 veces más rápida que la Ethernet original. ¿En
dónde se podría necesitar? La respuesta es que dentro de los centros e intercambios de datos para
conectar enrutadores, switches y servidores de gama alta, así como en las troncales de larga distancia
con alto ancho de banda entre las oficinas que permiten la operación de redes de área metropolitana
completas, basadas en Ethernet y fibra. Las conexiones de larga distancia usan fibra óptica, mientras que
las conexiones cortas pueden usar cobre o fibra.
Todas las versiones de Ethernet de 10 gigabits soportan sólo la operación full-dúplex. CSMA/CD ya no
forma parte del diseño y los estándares se concentran en los detalles de las capas físicas que pueden
operar a muy alta velocidad. Pero la compatibilidad aún sigue siendo importante, por lo que las interfaces
Ethernet de 10 gigabits usan la autonegociación y cambian a la velocidad más alta soportada por ambos
extremos de la línea.
En la figura siguiente se listan los principales tipos de Ethernet de 10 gigabits. Se utiliza fibra multimodo
con la longitud de onda de 0.85 micras (corta) para distancias medias, y la fibra monomodo a 1.3 micras
(larga) y 1.5 micras (extendida) para distancias largas. 10GBase-ER puede operar en distancias de 40
km, lo cual la hace adecuada para aplicaciones de área amplia. Todas estas versiones envían un flujo
serial de información que se produce mediante el mezclado de los bits de datos, para después
codificarlos mediante un código 64B/66B. Esta codificación tiene menos sobrecarga que un código
8B/10B.
La primera versión de cobre que se definió (10GBase-CX4) utiliza un cable con cuatro pares de cableado
twinaxial de cobre. Cada par usa codificación 8B/10B y opera a 3.125 Gsímbolos/segundo para alcanzar
10 Gbps. Esta versión es más económica que la fibra y fue de las primeras en comercializarse.
10GBase-T es la versión que usa cables UTP. Aunque requiere cableado categoría 6a o 7, en distancias
más cortas puede usar categorías más bajas (incluyendo la categoría 5 o 5e) para reutilizar una parte del
cableado ya instalado. Cada uno de los cuatro pares trenzados se utiliza para enviar 2500 Mbps en
ambas direcciones. Para llegar a esta velocidad se utiliza una tasa de señalización de 800
Msímbolos/seg, con símbolos que usan 16 niveles de voltaje. Para producir los símbolos se mezclan los
datos, se protegen con un código LDPC (Verificación de Paridad de Baja Densidad) y se vuelven a
codificar para corrección de errores. A finales de 2007, el IEEE creó un grupo para estandarizar la
Ethernet que opera a 40 Gbps y 100 Gbps. Esta actualización permitirá a Ethernet competir en ambientes
de muy alto rendimiento, incluyendo las conexiones de larga distancia en redes troncales y las
conexiones cortas a través de los planos posteriores de los equipos. El estándar todavía no está
completo, pero ya hay productos propietarios disponibles.