Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Correction TD1 Réseaux Hauts Débits

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 7

Réseaux hauts débits LTIC3

Correction TD 1
Exercice 1 :
1) Citer 2 avantages du relais de trames (Frame Relay).
1. Frame Relay est une solution économique de communication entre
plusieurs sites distants, qui utilise un seul circuit d'accès entre chaque
site et le fournisseur. Le protocole Frame Relay requérant moins
d'équipements et moins de maintenance, les fournisseurs de réseau font
donc des économies.
2. Les clients ne paient que l'utilisation de la boucle locale et la bande
passante achetée au fournisseur de réseau. La distance entre les
nœuds n'a pas d'importance.
2) Quel est un circuit virtuel ? et comment un circuit virtuel peut
s’établir ?
La connexion entre deux ETTD via un réseau Frame Relay est un circuit
virtuel. De tels circuits sont virtuels du fait qu'il n'existe aucune liaison
électrique directe entre leurs extrémités. La connexion est dite logique et
les données circulent d'une extrémité à l'autre sans circuit électrique les
reliant directement. Avec les circuits virtuels, Frame Relay partage la
bande passante entre plusieurs utilisateurs, et chaque site peut
communiquer avec un des autres sites sans avoir à utiliser plusieurs
lignes physiques dédiées.
 Les circuits virtuels peuvent s'établir de deux manières :
 Circuits virtuels commutés (SVC, Switched Virtual circuits) :
établis de façon dynamique par l'envoi de messages de signal au
réseau (CALL SETUP, DATA TRANSFER, IDLE, CALL
TERMINATION).
 Circuits virtuels permanents (PVC, Permanent Virtual
Circuits) : préconfigurés par l'opérateur, une fois mis en place, ils
ne fonctionnent qu'en mode DATA TRANSFER ou IDLE.
3) Dans la trame Frame Relay, Quels sont les rôles des champs DLCI,
FECN, BECN et DE ?
DLCI : Le DLCI 10 bits est un des champs les plus importants de l'en-
tête Frame Relay. Cette valeur représente la connexion virtuelle entre
l'équipement ETTD et le commutateur. Chaque connexion virtuelle
multiplexée sur le canal physique est représentée par un DLCI unique.
Les identificateurs DLCI n'ont qu'une signification locale. En d'autres
termes, ils ne sont uniques que sur le canal physique sur lequel ils
Réseaux hauts débits LTIC3

résident. Les équipements situés à l'autre extrémité d'une connexion


peuvent donc faire référence à la même connexion virtuelle par des
identificateurs DLCI différents.
Contrôle d'encombrement : composé de trois bits de notification
d'encombrement Frame Relay. Ces trois bits sont appelés FECN
(Forward Explicit Congestion Notification), BECN (Backward Explicit
Congestion Notification) et DE (Discard Eligible).
4) Quelles sont les topologies du réseau Frame Relay ? Donner une
description brève pour chaque topologie.
Topologie en étoile (Hub and Spoke) : Dans une topologie en étoile,
l'emplacement du concentrateur est généralement choisi en fonction du
moindre coût de ligne louée. Avec une topologie en étoile pour Frame
Relay, chaque site distant dispose d'une liaison d'accès au cloud Frame
Relay avec un seul circuit virtuel. Le concentrateur a une liaison d'accès
avec plusieurs circuits virtuels, un pour chaque site distant. Un ou
plusieurs numéros DLCI sont attribués à chaque extrémité de ligne.
Comme les coûts de Frame Relay ne sont pas liés à la distance, il n'est
pas nécessaire que le concentrateur se trouve au centre géographique
du réseau.

Topologie à maillage global : Avec le maillage Frame Relay, le


concepteur du réseau peut concevoir des connexions multiples en
configurant simplement des circuits virtuels supplémentaires sur chaque
liaison existante. Cette mise à niveau logicielle fait évoluer la topologie
en étoile en une topologie à maillage global, sans supplément de coût en
matériel ou lignes dédiées. Comme les circuits virtuels utilisent le
multiplexage statistique, l'emploi de circuits virtuels multiples sur une
liaison d'accès permet en général de mieux exploiter Frame Relay que
l'emploi de circuits virtuels uniques.
Réseaux hauts débits LTIC3

Topologie à maillage partiel : Pour les grands réseaux, la topologie à


maillage global est rarement abordable, car le nombre de liaisons
supplémentaires augmente de façon exponentielle. Il ne s'agit pas d'un
problème de coût en matériel, mais bien de nombre de circuits virtuels
dont la limite théorique est de 1000 par liaison. Dans la pratique, la limite
est inférieure à ce chiffre.
Pour cette raison, les réseaux de grande taille sont en général
configurés dans une topologie à maillage partiel. Dans le maillage
partiel, le nombre d'interconnexions est plus élevé que dans une
disposition en étoile, mais moins élevé que dans un maillage global. La
disposition physique dépend des flux de données prévus.
Exercice 2 :
1) Quelle est la différence entre le protocole ARP et le protocole ARP
inverse ?
Avec le protocole ARP, le périphérique émetteur connaît l'adresse IP de
couche 3 et envoie une diffusion pour découvrir l'adresse MAC de
couche 2 de destination. Avec le protocole ARP inverse, le routeur
connaît l'adresse de couche 2, qui correspond au DLCI local, et envoie
une demande d'adresse IP de couche 3 de destination.

2) Comment se déroule le mappage statique et le mappage dynamique ?


Mappage dynamique :
Le mappage dynamique des adresses s'appuie sur le protocole ARP
inverse pour convertir l'adresse de couche réseau IPv4 du tronçon
suivant en valeur DLCI locale. Le routeur Frame Relay envoie des
demandes d'ARP inverse sur son circuit virtuel permanent pour détecter
l'adresse de protocole du périphérique distant connecté au réseau
Frame Relay. Le routeur utilise les réponses obtenues pour compléter
une table de mappage d'adresse en DLCI sur le routeur Frame Relay ou
sur le serveur d'accès.
Réseaux hauts débits LTIC3

Mappage statique Frame Relay :


Le mappage statique fonctionne de façon similaire au protocole ARP
inverse en associant une adresse IPv4 du tronçon suivant à un DLCI
Frame Relay local.
3) Donner un exemple tel que par obligation il faut faire le mappage
statique ?
Dans le cas d'un réseau Frame Relay Hub and Spoke. Dans ce cas, le
mappage statique s'utilise sur les routeurs situés sur les rayons pour
permettre l'accès de rayon à rayon. Comme il n'y a pas de connectivité
entre les routeurs situés sur les rayons, la résolution d'adresse inverse
ne fonctionnerait pas entre eux. Le protocole de résolution d'adresse
inverse se base sur la présence d'une connexion directe point à point
entre deux extrémités. Dans ce cas, le protocole ARP inverse
dynamique ne fonctionne qu'entre le rayon et le centre, chaque rayon
nécessitant un mappage statique pour pouvoir assurer la connexion
entre rayons.
Exercice 3 :
1) Quelle est la fonction du protocole LMI ? Et quels sont les types
d’interface LMI ?
La LMI est un mécanisme de maintien de connexion qui fournit des
informations d'état sur les connexions Frame Relay entre le routeur
(ETTD) et le commutateur Frame Relay (DCE).
Les types d’interface LMI
• CISCO : l'extension LMI originale
• ANSI : correspond à la norme ANSI T1.617
• Q933A : correspond à la norme UIT Q933
2) Quelles sont les différences entre trame Frame Relay et trame
LMI ?
Les messages d'état Frame Relay sont similaires à la trame
Frame Relay. À la place du champ d'adresse de la trame Frame Relay
utilisé pour la transmission des données se trouve un champ DLCI LMI.
À la suite du champ DLCI viennent les champs Control, Protocol
Discriminator et Call Reference. Ils sont identiques à ceux des trames de
données Frame Relay standard. Le quatrième champ indique le type de
message LMI et comprend un des trois types de messages LMI pris en
charge par Cisco.
Réseaux hauts débits LTIC3

3) Comment se déroule le fonctionnement d’ARP inverse ?


Lorsqu'une interface prenant en charge le protocole ARP inverse devient
active, elle déclenche le protocole ARP inverse et formule une demande
ARP inverse pour le circuit virtuel actif. La demande ARP inverse
comprend le matériel source, l'adresse de protocole source de couche 3
(adresse IP) et l'adresse matérielle cible (DLCI) connue. Elle remplit
ensuite le champ d'adresse du protocole de couche 3 (@IP) avec des
zéros. Elle encapsule le paquet pour le réseau spécifique et l'envoie
directement au périphérique de destination via le circuit virtuel.
À réception de la demande ARP inverse, le périphérique de destination
utilise l'adresse du périphérique source pour créer son propre mappage
DLCI/@IP. Il envoie ensuite une réponse ARP inverse qui comprend les
informations d'adresse de couche 3. Lorsque le périphérique source
reçoit la réponse ARP inverse, il complète le mappage DLCI/couche 3 à
l'aide des informations fournies.
Exercice 4 :
1) Quelle est la différence entre le débit d’accès et le débit de données
garanti CIR ?
Débit d'accès : fait référence à la vitesse du port. Du point de vue du
client, le fournisseur de services propose une connexion série ou une
liaison d'accès au réseau Frame Relay via une ligne louée. Le débit
d'accès est le débit auquel vos circuits d'accès se connectent au réseau
Frame Relay. Il peut être de 56 kbit/s, 1,544 Mbit/s (T1) ou une fraction
de T1 (multiple de 56 kbit/s ou 64 kbit/s). Le débit d'accès est mesuré sur
le commutateur Frame Relay. Il n'est pas possible d'envoyer des
données à un débit supérieur au débit d'accès.
Débit de données garanti (CIR, Committed Information Rate) : les clients
négocient les débits de données garantis avec le fournisseur de services
pour chaque circuit virtuel permanent. Le débit de données garanti est la
quantité de données que le réseau reçoit du circuit d'accès. Le
fournisseur de services garantit que le client peut envoyer des données
Réseaux hauts débits LTIC3

au débit de données garanti. Toutes les trames reçues au débit de


données garanti ou en dessous sont acceptées.

2) Donner une description brève sur les rafales de données. Quels sont
les termes pour décrire les débit de rafales.
Comme les circuits physiques du réseau Frame Relay sont partagés
entre abonnés, il reste souvent de la bande passante disponible. Frame
Relay permet aux clients d'accéder de façon dynamique à cette bande
passante et d'augmenter leur débit de données garanti gratuitement par
rafales.
Ces rafales permettent aux périphériques qui ont par moment besoin de
plus de bande passante d'en emprunter gratuitement auprès d'autres
périphériques qui ne l'utilisent pas.
Bc est un débit négocié au-delà du débit garanti, que le client peut
utiliser pour transmettre des rafales de données. Il s'agit du volume de
trafic maximal autorisé dans des conditions de fonctionnement normales.
Il permet d'augmenter le débit du trafic lorsque la bande passante du
réseau le permet. Il ne peut cependant pas dépasser le débit d'accès de
la liaison. Un périphérique peut transmettre en rafale jusqu'au débit Bc et
être certain que les données seront transmises.

Be décrit la bande passante disponible au-delà du débit de données


garanti, dans la limite du débit d'accès de la liaison. À l'inverse du Bc, il
n'est pas négocié. Il se peut que les trames soient transmises, mais il est
plus probable qu'elles soient abandonnées.

3) Frame Relay intègre une fonction de contrôle de flux, comment


fonctionne ce mécanisme ?
Frame Relay réduit la surcharge réseau à l'aide de mécanismes de
notification d'encombrement simples plutôt qu'explicites, pour contrôler le
flux sur chaque circuit virtuel. Ces mécanismes de notification
d'encombrement sont le FECN (Forward Explicit Congestion Notification)
et le BECN (Backward Explicit Congestion Notification).
Les notifications explicites d'encombrement à la source ou au
destinataire sont contrôlées par un seul bit dans l'en-tête de trame. Le
routeur peut ainsi détecter un encombrement et arrêter la transmission
jusqu'à ce que la situation normale soit rétablie. Lorsque le DCE définit le
bit BECN à 1, il avertit les périphériques en direction de la source (en
Réseaux hauts débits LTIC3

amont) que le réseau est encombré. Lorsque le DCE définit le bit FECN
à 1, il avertit les périphériques en direction de la destination (en aval)
que le réseau est encombré.
L'en-tête de trame contient également le bit DE, qui identifie le trafic de
moindre importance qui peut être abandonné en cas d'encombrement.
Les périphériques ETTD peuvent fixer la valeur du bit DE à 1 pour
indiquer qu'une trame a moins d'importance que les autres trames.
Lorsque le réseau est encombré, les périphériques ETCD commencent
par abandonner les trames dont le bit DE vaut 1. Ceci réduit le risque
que des données critiques soient perdues lors des périodes
d'encombrement.
En période d'encombrement, le commutateur Frame Relay du
fournisseur de services applique les règles suivantes à chaque trame
entrante, selon que le débit de données garanti est dépassé ou non :
• Si la trame entrante ne dépasse pas le CIR, elle est transmise.
• Si la trame entrante dépasse le CIR, elle est marquée comme DE.
• Si la trame entrante dépasse le Bc et le Be, elle est rejetée.

Vous aimerez peut-être aussi