CCNA1
CCNA1
CCNA1
1
2.2.4 Limitations
2.2.5 Débit
2.2.6 Calcul du taux de transfert des données
2.2.7 Numérique et analogique
2.3 Modèles de réseau
2.3.1 Utilisation des couches pour analyser les problèmes de flux
2.3.2 Utilisation de couches pour décrire la communication des données
2.3.3 Modèle OSI
2.3.4 Couches OSI
2.3.5 Communications d’égal à égal
2.3.6 Modèle TCP/IP
2.3.7 Processus d’encapsulation détaillé
2
Module 4: Test des câbles
4.1 Test des câbles basé sur la fréquence
4.1.1 Ondes
4.1.2 Ondes sinusoïdales et ondes carrées
4.1.3 Exposants et logarithmes
4.1.4 Décibels
4.1.5 Temps et fréquence des signaux
4.1.6 Signaux analogiques et numériques
4.1.7 Bruit dans le temps et la fréquence
4.1.8 Bande passante
4.2 Signaux et bruits
4.2.1 Signaux transitant par des câbles en cuivre et à fibre optique
4.2.2 Atténuation et affaiblissement d’insertion sur un média en cuivre
4.2.3 Sources de bruit sur les médias en cuivre
4.2.4 Types de diaphonies
4.2.5 Normes de test des câbles
4.2.6 Autres paramètres de tests
4.2.7 Paramètres basés sur le temps
4.2.8 Test des médias à fibre optique
4.2.9 Nouvelle norme
4
8.1.1 Pontage au niveau de la couche 2
8.1.2 Commutation au niveau de la couche 2
8.1.3 Fonctionnement d'un commutateur
8.1.4 Latence
8.1.5 Modes de commutation
8.1.6 Protocole STP (Spanning-Tree Protocol)
8.2 Domaines de collision et de broadcast
8.2.1 Environnements de médias partagés
8.2.2 Les domaines de collision
8.2.3 Segmentation
8.2.4 Broadcast au niveau de la couche 2
8.2.5 Les domaines de broadcast
8.2.6 Présentation du flux des données
8.2.7 Qu’est-ce qu’un segment de réseau?
5
10.1.1 Protocole routé et protocole routable
10.1.2 IP comme protocole routé
10.1.3 Propagation d'un paquet et commutation au sein d'un routeur
10.1.4 Transmission orientée connexion et transmission non orientée connexion
10.1.5 Anatomie d'un paquet IP
10.2 Protocoles de routage IP
10.2.1 Vue d'ensemble du routage
10.2.2 Routage et commutation
10.2.3 Protocole routé et protocole de routage
10.2.4 Détermination du chemin
10.2.5 Tables de routage
10.2.6 Algorithmes et métriques de routage
10.2.7 Protocoles IGP et EGP
10.2.8 État de liens et vecteur de distance
10.2.9 Protocoles de routage
10.3 Mécanisme de découpage en sous-réseaux
10.3.1 Classes d'adresses réseau IP
10.3.2 Introduction au découpage en sous-réseaux
10.3.3 Détermination de l'adresse d'un masque de sous-réseau
10.3.4 Application du masque de sous-réseau
10.3.5 Découpage de réseaux de classe A et B en sous-réseaux
10.3.6 Calcul du sous-réseau via l'opération AND
6
7
Module 1: Présentation des réseaux
Module Vue d'ensemble
1.2.7 Représentation de nombres binaires à 32 bits par une notation décimale à quatre octets
avec points de séparation
Le premier élément implique de relier une carte d’interface de PC – modem ou carte réseau – à un réseau. La
connexion physique assure le transfert des signaux entre les PC d’un réseau LAN et les équipements
distants du réseau Internet.
La connexion logique, quant à elle, utilise des normes, plus précisément appelées protocoles. Un protocole
correspond à un ensemble formel de règles et de conventions régissant le mode de communication des
unités réseau entre elles. Les connexions à Internet font appel à plusieurs protocoles, parmi lesquels les
protocoles TCP/IP (Transmission Control Protocol/Internet Protocol) sont les plus largement utilisés. Formant
un ensemble, ces protocoles assurent conjointement la transmission des données ou des informations.
La connexion à Internet inclut enfin les applications, ou programmes logiciels, servant à interpréter les
données et à les afficher sous une forme compréhensible. Ces applications utilisent les protocoles pour
envoyer des données sur le réseau Internet et recevoir celles qui en émanent. Pour afficher le code HTML
sous forme de page Web, un navigateur Internet, tel que Internet Explorer ou Netscape, est nécessaire. Le
protocole FTP (File Transfer Protocol) permet, lui, de télécharger des fichiers et des programmes à partir
d’Internet. Ajoutons enfin que les navigateurs Internet peuvent utiliser des modules d’extension pour afficher
certains types de données comme les films ou les animations Flash.
Cette première présentation d’Internet peut laisser croire à une technologie et des processus exagérément
simples. Au fur et à mesure qu’ils étudieront le sujet, les étudiants constateront cependant que la
transmission de données via Internet est une opération complexe.
Apparus au début des années 1960, les modems servaient à connecter des terminaux passifs à un ordinateur
central. De nombreuses entreprises recouraient alors à la location de services de traitement informatique car
le coût à payer pour posséder un système sur site était trop élevé. La connexion par modem atteignait une
vitesse de 300 bits par seconde (bits/s) seulement, ce qui correspond à environ 30 caractères par seconde.
Dans les années 1970, le prix des PC est devenu plus abordable et les systèmes BBS (Bulletin Board
System) sont apparus. Ces systèmes offraient des services informatisés d’échange d’informations, auxquels
les utilisateurs pouvaient se connecter notamment pour afficher des messages et y répondre. La vitesse de
300 bits/s était acceptable puisqu’elle était supérieure à la capacité de lecture à l’écran ou de frappe au
clavier des utilisateurs. Au début des années 1980, l’utilisation des BBS a connu un développement
exponentiel et la vitesse de 300 bits/s s’est rapidement avérée insuffisante pour le transfert de fichiers et de
graphiques volumineux. Dans les années 1990, le débit des modems est passée à 9 600 bits/s. En 1998, la
vitesse standard actuelle de 56 000 bits/s, ou 56 Kbits/s, a été atteinte. Les services à haut débit utilisés dans
les environnements d’entreprise, tels que la technologie DSL (Digital Subscriber Line) et les connexions par
modem câble, sont ensuite devenus accessibles aux particuliers. Ces services ne requièrent plus
d’équipement coûteux ni de ligne téléphonique supplémentaire. Toujours actifs, ils offrent un accès instantané
à Internet et ne requièrent pas d’établir une nouvelle connexion à chaque session. Ces avancées
technologiques, garantes d’une fiabilité et d’une flexibilité accrues, ont simplifié la mise en place de
connexions partagées à Internet dans les réseaux domestiques ou de petites entreprises.
La page suivante décrit l’un des principaux ensembles de protocoles réseau
1.1.6 TCP/IP: Description et configuration
Cette page présente le standard TCP/IP (Transmission Control Protocol/Internet Protocol).
TCP/IP désigne un ensemble de protocoles et de règles mis au point pour permettre aux ordinateurs de
partager les ressources d’un réseau. Pour configurer cet ensemble de protocoles sur une station de travail, il
convient d’utiliser les outils du système d’exploitation. Le processus de configuration diffère très peu d’un
système d’exploitation Windows à un système d’exploitation Macintosh.
0 x 21 = 0
0 x 22 = 0
0 x 23 = 0
1 x 24 = 16
1 x 25 = 32
1 x 26 = 64
+ 0 x 27= 0
______________________
_
11111111.00000000.00000000.00000000
00001010.00000000.00000000.00000000
Après conversion en notation entière avec points de séparation, cette adresse devient 10.0.0.0 et représente
la partie réseau de l’adresse IP lorsque le masque 255.0.0.0 est utilisé.
L’opération booléenne ET appliquée à l’adresse IP 10.34.23.134 et au masque de sous-réseau 255.255.0.0
permet d’obtenir l’adresse du réseau dont fait partie l’hôte:
00001010.00100010.00010111.10000110
11111111.11111111.00000000.00000000
00001010.00100010.00000000.00000000
Après conversion en notation entière avec points de séparation, cette adresse devient 10.34.0.0 et
représente la partie réseau de l’adresse IP lorsque le masque 255.255.0.0 est utilisé.
Ce sont les applications d’entreprise écrites pour les micro-ordinateurs qui ont conduit au développement des
réseaux de données. Les micro-ordinateurs n’étant pas interconnectés, il n’existait alors aucun moyen efficace de
partager les données. Pour les entreprises, il n’était ni efficace ni rentable d’utiliser des disquettes pour partager
des données. Le «réseau disquettes» multipliait les copies des données. Chaque fois qu’un fichier était modifié, il
fallait le partager à nouveau avec toutes les autres personnes qui en avaient besoin. Si deux personnes
modifiaient le fichier puis essayaient de le partager, l’un des ensembles de modifications était perdu. Il fallait aux
entreprises une solution qui apporte des réponses aux trois problèmes suivants:
Comment éviter la duplication de l’équipement et des ressources
Comment communiquer de manière efficace
Comment mettre en place et gérer un réseau
Les entreprises ont vite réalisé que la mise en réseau des ordinateurs pouvait augmenter leur productivité et leur
faire économiser de l’argent. Les réseaux furent implantés partout, favorisés par l’éclosion rapide de nouvelles
technologies et de nouveaux produits de réseau. À ses débuts, le développement des réseaux était quelque peu
désorganisé. Les technologies de réseau créées au milieu des années 80 étaient basées sur des
Les équipements de réseau sont utilisés pour étendre les connexions de câbles, concentrer les connexions,
convertir les formats de données et gérer les transferts de données. Les répéteurs, concentrateurs, ponts,
commutateurs et routeurs sont des exemples d’équipements qui assurent ces fonctions. Tous les équipements de
réseau mentionnés ici sont traités de façon approfondie plus loin dans ce cours. Pour le moment, voici un bref
descriptif de chacun de ces équipements.
Un répéteur est un équipement réseau qui sert à régénérer un signal. Les répéteurs régénèrent les signaux
analogiques ou numériques qui sont déformés par la perte de transmission due à l’atténuation. Contrairement à
un routeur, un répéteur n’effectue pas un routage intelligent.
Les concentrateurs concentrent des connexions. En d’autres termes, ils rassemblent un groupe d’hôtes et
permettent au réseau de les voir comme une seule unité. Cela est effectué de façon passive, sans aucun autre
effet sur la transmission des données. Les concentrateurs actifs concentrent les hôtes et régénèrent également
les signaux.
Les ponts convertissent les formats des données réseau et effectuent une gestion élémentaire de la transmission
des données.
Les ponts assurent les connexions entre les différents réseaux locaux. Ils contrôlent également les données afin
de déterminer si elles peuvent les traverser. Chaque partie du réseau est ainsi plus efficace.
Les commutateurs de groupe de travail apportent de l’intelligence à la gestion du transfert des données.
Une topologie de bus fait appel à un câble de backbone unique qui est terminé aux deux extrémités.
Tous les hôtes se connectent directement à ce backbone.
Dans une topologie en anneau, chaque hôte est connecté à son voisin. Le dernier hôte se connecte au
premier. Cette topologie crée un anneau physique de câble.
Dans une topologie en étoile, tous les câbles sont raccordés à un point central.
Une topologie en étoile étendue relie des étoiles individuelles en connectant les concentrateurs ou les
commutateurs. Cette topologie peut étendre la portée et la couverture du réseau.
illustre de nombreuses topologies différentes raccordées par des équipements de réseau. Il représente un
réseau de complexité moyenne, comme celui qu'on retrouve habituellement dans une école ou une petite
entreprise. Le schéma comporte de nombreux symboles et concepts de réseau dont l’apprentissage peut prendre
du temps.
2.1 Terminologie de réseau
2.1.5 Protocoles de réseau
Cette page décrit les protocoles réseau et explique leur importance.
Les suites de protocoles sont des ensembles de protocoles qui permettent à des hôtes de communiquer sur un
réseau. Un protocole est une description formelle d’un ensemble de règles et de conventions qui régissent un
aspect particulier de la façon dont les équipements communiquent sur un réseau. Les protocoles déterminent le
format, la chronologie, le séquençage et le contrôle d’erreur dans la communication de données. Sans protocole,
Les réseaux étendus interconnectent des réseaux locaux, qui, à leur tour, donnent accès aux ordinateurs ou aux
serveurs de fichiers situés en d'autres lieux. Comme les réseaux étendus relient des réseaux utilisateurs
géographiquement dispersés, ils permettent aux entreprises de communiquer entre elles sur de grandes
distances. Les réseaux étendus permettent le partage d’ordinateurs, imprimantes et autres équipements
raccordés à un LAN situé sur un lieu distant. Les réseaux étendus fournissent des communications instantanées
à l’intérieur de grandes zones géographiques.
Les logiciels de collaboration fournissent l’accès à des informations et des ressources en temps réel et
permettent de tenir des réunions à distance. Les réseaux étendus ont contribué à créer une nouvelle catégorie de
travailleurs appelés télétravailleurs. Ces personnes ont la possibilité de travailler sans quitter leur domicile.
Les réseaux WAN sont conçus pour effectuer les tâches suivantes:
Fonctionner dans des zones étendues ou géographiquement dispersées
En général, on fait appel à un fournisseur de services pour connecter au moins deux sites de réseau local au
moyen de lignes de communication privées ou de services optiques. Les technologies de pont sans fil qui
envoient des signaux à l’intérieur de zones publiques peuvent également être utilisées pour créer un réseau
MAN.
2.1.9 Réseaux SAN
Un réseau de stockage (SAN) est un réseau à haute performance dédié qui permet de transférer des données
entre des serveurs et des ressources de stockage. Du fait qu’il s’agit d’un réseau dédié distinct, il évite tout conflit
de trafic entre les clients et les serveurs.
Via Internet, il est possible de construire un tunnel sécurisé entre le PC du télétravailleur et un routeur VPN
installé au quartier général de la société.
2.1.11 Avantages des réseaux privés virtuels
Les produits Cisco prennent en charge les dernières technologies VPN. Un réseau privé virtuel est un service qui
offre une connectivité sécurisée et fiable sur une infrastructure de réseau public partagée telle qu’Internet.
La bande passante est finie.Quel que soit le média qui est utilisé pour construire un réseau, il y a des limites à la
capacité du réseau à transporter des informations. La bande passante est limitée par les lois de la physique et
aussi par les technologies utilisées pour placer des informations sur le média. Par exemple, la bande passante
d’un modem conventionnel est limitée à environ 56 kbits/s, à la fois par les propriétés physiques des fils
téléphoniques à paires torsadées et par la technologie du modem. La technologie DSL utilise les mêmes fils
téléphoniques à paires torsadées. Cependant, elle délivre bien plus de bande passante que les modems
conventionnels. Ainsi, même les limites imposées par les lois de la physique sont quelques fois difficiles à définir.
La fibre optique possède le potentiel physique pour fournir une bande passante pratiquement illimitée. Malgré
cela, la bande passante de la fibre optique ne pourra être pleinement exploitée avant que des technologies ne
soient développées pour tirer pleinement parti de son potentiel.
La bande passante n’est pas gratuite.Il est possible d’acquérir des équipements pour un réseau local qui
fourniront une bande passante quasiment illimitée sur une longue période. Pour les connexions WAN, il est
généralement nécessaire d’acquérir de la bande passante auprès d’un fournisseur de services. Dans un cas
comme dans l’autre, l’utilisateur individuel ou l’entreprise pourra faire des économies significatives en comprenant
bien la notion de bande passante et l’évolution de la demande avec le temps. L’administrateur doit prendre les
bonnes décisions sur les types d’équipement et de services à acheter.
La bande passante est un facteur important qui est indispensable pour analyser les performances du réseau,
concevoir de nouveaux réseaux et comprendre Internet.Un professionnel des réseaux doit comprendre l’impact
considérable de la bande passante et du débit sur la performance et la conception du réseau. Les informations
circulent sous forme de chaîne de bits d’un ordinateur à l’autre à travers le monde. Ces bits constituent des
quantités énormes d’informations qui transitent d’un bout à l’autre de la planète en quelques secondes à peine.
Un réseau de canalisations apporte de l’eau potable à des foyers et à des entreprises et évacue les eaux usées.
Ce réseau d’eau est constitué de tuyaux de différents diamètres. Le diamètre des principales canalisations d’une
ville peut atteindre 2 mètres, tandis que 2 cm suffisent pour le tuyau d’un robinet de cuisine. La largeur du tuyau
détermine sa capacité de transport en eau. Par conséquent, l’eau peut être comparée aux données, et la largeur
du tuyau à la bande passante. Les experts réseau vous diront qu’il faut installer de plus gros tuyaux pour disposer
d’une capacité de transport des informations supérieure.
La bande passante peut être comparée au nombre de voies d’une autoroute.
Bien que les termes bande passante et vitesse soient souvent utilisés indifféremment, ils ne se rapportent pas
exactement au même concept. On pourrait dire, par exemple, qu’une connexion T3 à 45 Mbits/s est plus rapide
qu’une connexion T1 à 1,544 Mbits/s. Cependant, si une partie minime de leur capacité de transport de données
est utilisée, chacune de ces connexions transportera les données à approximativement la même vitesse. De la
même manière, un petit filet d’eau s’écoulera à la même vitesse dans un gros comme dans un petit tuyau. Il est
donc plus précis de dire qu’une connexion T3 a une bande passante supérieure à celle d’une connexion T1. Cela
vient de la capacité de la connexion T3 à transporter davantage d’informations en un temps donné, et non pas de
sa vitesse supérieure.
2.2.4 Limitations
La bande passante varie en fonction du type de média ainsi que des technologies LAN et WAN utilisées. La
caractéristique physique du média entre en compte dans la différence. Les signaux peuvent circuler sur du fil de
cuivre à paires torsadées, sur du câble coaxial, de la fibre optique ou par voie hertzienne. De ces différences
physiques découlent des limitations fondamentales dans la capacité de transport des informations d’un média
donné. Cependant, la bande passante proprement dite d’un réseau résulte d’une combinaison des médias
physiques et des technologies choisis pour la signalisation et la détection des signaux du réseau.
Par exemple, les spécifications actuelles sur la physique du câble à paires torsadées non blindées (UTP) placent
la limite théorique de la bande passante au-delà de 1 Gbit/s. Cependant, dans la pratique, la bande passante
dépend de l’utilisation de 10BaseT, 100BaseTX ou 1000BaseTX Ethernet. La bande passante effective est
déterminée par les méthodes de signalisation, les cartes réseau, ainsi que par les autres équipements de réseau
choisis. Par conséquent, elle ne dépend pas uniquement des limitations du média.
La figure illustre certains types de médias de réseau ainsi que leurs limites en termes de distance et de bande
passante.
2 Notions de base sur les réseaux_22C917.doc
15/30
La figure présente un récapitulatif des services de réseau étendu courants et de la bande passante associée à
chacun d’eux.
2.2.5 Débit
La bande passante est la mesure de la quantité d’informations pouvant transiter sur le réseau en un temps
donné. Par conséquent, la quantité de bande passante disponible est un paramètre essentiel de la spécification
du réseau. On peut construire un réseau local pour fournir 100 Mbits/s à chaque station de travail, mais cela ne
La bande passante théorique d’un réseau est un facteur essentiel dans sa conception, du fait que la bande
passante du réseau ne dépassera jamais les limites imposées par le média et par les technologies choisis.
Cependant, il est tout aussi important pour un concepteur et un administrateur réseau de tenir compte des
facteurs pouvant affecter le débit proprement dit. En mesurant régulièrement le débit, l’administrateur réseau
pourra suivre les variations de performance du réseau ainsi que l’évolution des besoins de ses utilisateurs. Il
paramètrera le réseau en conséquence.
2.2.6 Calcul du taux de transfert des données
Les concepteurs et administrateurs réseau sont souvent amenés à prendre des décisions à propos de la bande
passante. Il peut s’agir par exemple de savoir s’il faut augmenter la taille de la connexion WAN afin de prendre en
charge une nouvelle base de données, ou encore de déterminer si le backbone actuel du réseau local a une
bande passante suffisante pour un programme de vidéo en continu. Il n’est pas toujours facile de trouver la
réponse à des problèmes tels que ceux-ci, mais un simple calcul du taux de transfert des données est un
excellent point de départ.
L’utilisation de la formule délai de transfert = taille de fichier / bande passante (D=T/BP) permet à l’administrateur
du réseau d’évaluer plusieurs facteurs déterminants de la performance du réseau. Si l’on connaît la taille de
fichier type pour une application donnée, il suffit de diviser la taille de fichier par la bande passante réseau pour
obtenir une estimation du délai de temps de transfert le plus court pour le fichier.
Une conversation entre deux personnes constitue un champ idéal pour tester l’approche en couches afin
d’analyser des flux d’informations. Lors d’une conversation, chaque personne qui souhaite communiquer
commence par avoir une idée. Elle prend ensuite une décision sur la façon de communiquer cette idée
correctement. Par exemple, une personne pourra choisir de parler, chanter ou crier dans une langue donnée.
Enfin l’idée est exprimée. La personne émet le son qui transporte le message.
Ce processus peut être décomposé en couches distinctes applicables à toutes les conversations. La couche
supérieure correspond à l’idée qui sera communiquée. La couche du milieu à la décision, ou à la façon dont l’idée
doit être communiquée. La couche inférieure correspond à la création de sons pour transporter la communication.
La même méthode de subdivision en couches nous permet de définir comment un réseau informatique distribue
des informations entre une source et une destination. Lorsque des ordinateurs envoient des informations sur un
réseau, toutes les communications doivent provenir d’une source et se diriger vers une destination.
On appelle généralement données, ou paquet, les informations qui transitent sur un réseau. Un paquet est
constitué d’une unité d’informations groupées de manière logique qui circule entre des ordinateurs. Lorsque les
données traversent les couches, chaque couche ajoute des informations supplémentaires qui permettent une
communication efficace avec la couche correspondante de l’autre ordinateur.
Les modèles OSI et TCP/IP comportent des couches qui spécifient comment les données doivent être
communiquées d’un ordinateur à l’autre. Les modèles différent en fonction du nombre et de la fonction des
couches. Cependant, chaque modèle peut être utilisé pour décrire et préciser le flux d’informations entre une
source et une destination.
2.3.2 Utilisation de couches pour décrire la communication des données
Pour que des paquets de données puissent se rendre d’un ordinateur source à un ordinateur de destination sur
un réseau, il est important que toutes les unités du réseau communiquent selon la même langue ou dans le
même protocole. Un protocole consiste en un ensemble de règles qui augmentent l’efficacité des communications
au sein d’un réseau. Par exemple, lorsqu’ils pilotent un avion, les pilotes obéissent à des règles très précises
pour communiquer d’un appareil à l’autre ou d’un appareil à la tour de contrôle.
Les règles et conventions utilisées pour cette couche sont appelées protocole de couche 4. Il est important de se
souvenir que les protocoles préparent les données de façon linéaire. Un protocole d’une couche effectue un
certain nombre d’opérations sur les données lorsqu’il les prépare pour les envoyer sur le réseau. Les données
sont ensuite transmises à la couche suivante, où un autre protocole effectue une série d’opérations différentes.
Une fois que le paquet a été envoyé vers sa destination, les protocoles annulent la constitution du paquet qui a
été effectuée côté source. L’opération est effectuée à rebours. Les protocoles de chaque couche de destination
rétablissent la forme originale des informations, pour que l’application puisse lire correctement les données.
2.3.3 Modèle OSI
À ses débuts, le développement des réseaux était désorganisé à de nombreux égards. Le début des ann��es
1980 a été marqué par une croissance exceptionnelle du nombre et de la taille des réseaux. Pour profiter des
avantages de l’utilisation de la technologie réseau, les sociétés se mirent à installer et à étendre des réseaux, à
un rythme presque aussi rapide que l’introduction des nouvelles technologies.
Vers le milieu des années 80, ces sociétés commencèrent à rencontrer des problèmes, justement en raison de
cette extension rapide. Tout comme il est difficile pour les gens qui ne parlent pas la même langue de
communiquer, il devenait difficile pour des réseaux qui utilisent des spécifications et des implémentations
différentes d’échanger des informations. Les sociétés qui développaient des solutions de réseau privé ou
propriétaire furent confrontées au même problème. Le terme « propriétaire » signifie ici qu’une entreprise ou un
petit groupe d’entreprises contrôle entièrement l’utilisation de la technologie. Les technologies réseau qui
suivaient strictement des règles propriétaires ne pouvaient pas communiquer avec des technologies qui
respectaient des règles propriétaires différentes.
Pour résoudre le problème de l’incompatibilité des réseaux, l’OSI (International Organization for Standardization)
examina les modèles réseau tels que DECnet (Digital Equipment Corporation net), SNA (Systems Network
Architecture) et TCP/IP afin de trouver un ensemble de règles applicable de façon générale à tous les réseaux.
Sur la base de ces recherches, l’ISO a mis au point un modèle de réseau pour aider les fournisseurs à créer des
réseaux compatibles avec d’autres réseaux.
Le modèle de référence OSI (Open System Interconnection) publié en 1984 fut le modèle descriptif de réseau
créé par l’ISO. Ce modèle propose aux fournisseurs un ensemble de normes assurant une compatibilité et une
interopérabilité accrues entre divers types de technologies réseau produites par de nombreuses entreprises à
travers le monde.
Le Modèle OSI
7 - Application
6 - Présentation
5 – Session
4 - Transport
3 – Réseau
2 – Liaison de Données
1 - Physique
Dans un réseau, les paquets de données proviennent d’une source et sont acheminés vers une destination.
Chaque couche dépend de la fonction de service de la couche OSI sous-jacente. Pour fournir ce service, la
couche inférieure utilise l’encapsulation pour placer les PDU de la couche supérieure dans son champ de
données. Elle ajoute ensuite les en-têtes et les en-queues de PDU nécessaires à l’exécution de sa fonction. Par
la suite, à mesure que les données traversent les couches du modèle OSI, d’autres en-têtes et en-queues sont
ajoutés. Dès que les couches 7, 6 et 5 ont ajouté leurs informations, la couche 4 en ajoute d’autres. Ce
regroupement des données, ou unité de données de protocole de couche 4, est appelé segment.
La figure présente certains protocoles communs spécifiés par les couches du modèle de référence TCP/IP.
Certains des protocoles de couche application les plus courants sont:
FTP (File Transfer Protocol)
2 Notions de base sur les réseaux_22C917.doc
25/30
HTTP (HyperText Transfer Protocol)
SMTP (Simple Mail Transfer Protocol)
DNS (Domain Name System)
TFTP (Trivial File Transfer Protocol)
Les protocoles les plus courants de la couche transport sont notamment:
TCP (Transport Control Protocol)
UDP (User Datagram Protocol)
Le protocole principal de la couche Internet est:
IP (Internet Protocol)
La couche d’accès réseau se rapporte à toute technologie particulière utilisée sur un réseau spécifique.
Quels que soient les services d’application réseau fournis et les protocoles de transport utilisés, il n’y a qu’un
protocole Internet : IP. Il s’agit là d’un choix délibéré dans la conception. IP est un protocole universel qui permet
à tout ordinateur de communiquer en tout temps et en tout lieu.
En comparant le modèle OSI au modèle TCP/IP, vous remarquerez des similitudes et des différences.
Pour comprendre comment se déroule l’encapsulation, examinons la manière dont les données traversent les
couches, comme l’illustre la figure. Les données qui sont envoyées par l’ordinateur source traversent la couche
application et les autres couches. Comme vous pouvez le constater, la présentation et le flux des données
échangées subissent des changements au fur et à mesure que les réseaux fournissent leurs services aux
utilisateurs finaux.
Les réseaux informatiques ont été développés en réponse à des besoins informatiques, commerciaux et
gouvernementaux. L’application de normes aux fonctions du réseau a donné lieu à un ensemble de directives afin
de créer des logiciels et des matériels pour le réseau, et a assuré la compatibilité entre les équipements de
différentes sociétés. Les informations pouvaient ainsi circuler au sein de la société et d’une entreprise à l’autre.
Son nombre atomique est 2, ce qui signifie qu'il est composé de deux protons et de deux électrons. Son poids
atomique est 4. Si vous soustrayez de son poids son nombre atomique 2, vous obtenez le nombre de neutrons
contenus dans l'hélium, soit deux neutrons.
Le physicien danois Niels Bohr a élaboré un modèle simplifié pour représenter un atome. La figure suivante
illustre un atome d'hélium. Si les protons et les neutrons de cet atome avaient la taille d’un ballon de football,
les électrons seraient les seuls éléments plus petits que le ballon au milieu du terrain de football. Ils auraient la
taille de cerises et graviteraient autour du stade près des sièges les plus éloignés du terrain. Le volume total de
cet atome correspondrait à peu près à la taille du terrain et le noyau aurait la taille du ballon.
Selon la loi de Coulomb sur la force électrique, si des particules de charges opposées sont attirées l'une vers
l'autre, des particules de charges identiques génèrent une force dite répulsive. Que les charges soient
Les électrons libérés qui ne se déplacent pas et comportent une charge négative forment l'électricité
statique. Si ces électrons statiques entrent en contact avec un conducteur, ils génèrent une décharge
électrostatique. Les conducteurs sont traités dans la suite de ce module.
Si les décharges électrostatiques sont généralement inoffensives pour les êtres humains, elles peuvent
endommager gravement les équipements électroniques sensibles, tels que les puces d'un ordinateur et, le cas
échéant, les données qu'il contient. Les circuits logiques des puces d'un ordinateur sont extrêmement sensibles
aux décharges électrostatiques. Les étudiants devront prendre les précautions nécessaires avant d'intervenir à
l'intérieur des ordinateurs, des routeurs et des équipements similaires.
Les atomes, ou groupes d'atomes (appelés molécules), constituent des matériaux. Les matériaux sont classés
en trois groupes, selon la résistance qu'ils offrent aux électrons libres.
La façon dont les isolants, les conducteurs et les semi-conducteurs interagissent et contrôlent le flux d'électrons
constitue la base de tout équipement électronique.
3.1.2 Tension
Le tableau périodique classe en colonnes certains groupes d'atomes. Les atomes de chaque colonne
appartiennent à une famille chimique donnée. Même si leur nombre de protons, de neutrons et d'électrons est
différent, les électrons les plus éloignés du noyau ont des orbites et des interactions semblables à celles des
autres atomes et molécules. Les meilleurs conducteurs sont les métaux tels que le cuivre (Cu), l'argent (Ag) et
l'or (Au). Les électrons de ces métaux se libèrent facilement. La brasure tendre (mélange de plomb (Pb) et
10Base5 indique une vitesse de transmission de 10 Mbits/s. La transmission est du type à bande de base ou
interprétée numériquement. Le chiffre 5 indique qu'un signal peut parcourir environ 500 mètres avant que
l'atténuation ne puisse empêcher le récepteur d'interpréter le signal. La spécification 10Base5 est souvent
appelée ThickNet. ThickNet est un type de réseau et 10Base5 est le câble utilisé dans ce réseau.
10Base2 indique une vitesse de transmission de 10 Mbits/s. La transmission est du type à bande de base
ou interprétée numériquement. Le chiffre 2 indique qu'une longueur de segment maximale de 200 mètres
peut être parcourue avant que l'atténuation ne puisse empêcher le récepteur d'interpréter correctement le
signal reçu. La longueur de segment maximale est en fait de 185 mètres. La spécification 10Base2 est
souvent appelée ThinNet. ThinNet est un type de réseau et 10Base2 est le câble utilisé dans ce réseau
3.1.7 Câble coaxial
Un câble coaxial se compose d'un conducteur de cuivre entouré d'une couche de matériau isolant flexible.
Le conducteur central peut également être un câble d'aluminium recouvert de fer-blanc dans les installations
bon marché. Sur ce matériau isolant, un revêtement de cuivre tressé ou un film métallique constitue le second
fil du circuit et protège le conducteur intérieur. Cette seconde couche, ou blindage, réduit également les
interférences électromagnétiques externes. La gaine du câble enveloppe ce blindage.
Chaque paire de fils est enveloppée dans une feuille métallique et les deux paires sont enveloppées ensemble
dans un revêtement tressé ou un film métallique. Il s'agit généralement d'un câble de 150 ohms. Comme
l'indiquent les instructions d'installation de réseau Token Ring, les paires torsadées blindées réduisent le bruit
électrique à l'intérieur du câble (couplage paire à paire ou diaphonie), ainsi qu'à l'extérieur du câble
(interférences électromagnétiques et radio). Le câble à paires torsadées blindées (STP) présente plusieurs
avantages et inconvénients communs au câble à paires torsadées non blindées (UTP). Le câble STP assure
Comme le câble UTP, le câble ScTP est un câble de 100 ohms. Un grand nombre d'installateurs et de
fabricants de câbles utilisent le terme STP pour désigner les câbles ScTP. Il est important de retenir que le
terme STP désigne en fait un câble à quatre paires torsadées blindées et que le véritable câble STP est
rarement utilisé dans les installations actuelles.
Le matériau de protection métallique des paires torsadées blindées doit être mis à la terre aux deux
extrémités. Si la mise à la terre est incorrecte ou s'il existe des discontinuités sur la longueur du matériau
de protection, les paires torsadées blindées risquent de provoquer des problèmes de bruit importants, car le
film protecteur se comporte comme une antenne qui attire des signaux indésirables. Toutefois, cet effet
fonctionne dans les deux sens : le film protecteur empêche les ondes électromagnétiques entrantes de
provoquer du bruit sur les fils de données et réduit les ondes électromagnétiques sortantes susceptibles de
produire du bruit dans les autres équipements. Un câble à paires torsadées blindées ne peut pas être aussi
long que les autres médias réseau tels que le câble coaxial ou à fibre optique, sans que le signal soit
répété. L'isolation et le blindage augmentent considérablement la taille, le poids et le coût du câble. De
plus, les terminaisons sont plus difficiles à réaliser. Cependant, le câble à paires torsadées blindées est
toujours utilisé, particulièrement en Europe et dans des installations où les interférences
électromagnétiques et radio sont fréquentes.
3.1.9 Câble à paires torsadées non blindées (UTP)
Sa taille constitue un réel avantage. Grâce à son diamètre de petite taille, il est possible de loger dans un
conduit plus de câbles à paires torsadées non blindées que d'autres types de câble. Cet avantage est
particulièrement important lors de l'installation d'un réseau dans un immeuble ancien. De plus, un câble UTP
muni d'un connecteur RJ-45 réduit considérablement les sources de bruit potentielles, ce qui améliore la fiabilité
de la connexion.
Cependant, un câble à paires torsadées non blindées présente aussi des inconvénients. Il est plus sensible au
bruit électrique et aux interférences que les autres types de média réseau, et l'écart entre les amplifications du
signal est plus court sur un câble UTP que sur un câble coaxial ou à fibre optique.
Auparavant, la transmission des données sur un câble à paires torsadées était plus lente que sur les autres
types de câble, mais ce n'est plus vrai actuellement. Aujourd'hui, le câble à paires torsadées est considéré
comme le média de cuivre le plus rapide.
Pour que la communication s'établisse, le signal transmis par la source doit être compris par la destination,
aussi bien du point de vue logiciel que physique. Le signal transmis doit être réceptionné correctement par la
connexion de circuit destinée à recevoir des signaux. La broche d'envoi de données de la source doit enfin se
connecter à la broche de réception de la destination. Les types de connexion câblée suivants sont utilisés entre
des équipements interréseau.
La figure représente deux commutateurs connectés entre eux. Le câble reliant un port de commutateur à
l'autre est un câble croisé.
Dans la figure, le câble reliant l'adaptateur RJ-45 du port COM de l'ordinateur au port console du routeur ou du
commutateur est un câble console ou un câble à paires inversées.
Un rayon lumineux ne peut pénétrer dans le coeur que si son angle est compris dans l'ouverture numérique de
la fibre. De même, une fois dans le coeur de la fibre, un rayon lumineux ne peut suivre qu'un nombre limité de
Chaque câble à fibre optique utilisé dans les réseaux comprend deux fibres de verre logées dans des
enveloppes distinctes. Une fibre transporte les données transmises depuis l'équipement A vers l'équipement B,
et l'autre depuis l'équipement B vers l'équipement A.
Les fibres sont similaires à deux rues en sens unique dont la direction est opposée. Elles assurent ainsi une
liaison de communication full duplex. Les médias de cuivre à paires torsadées utilisent une paire de fils pour la
transmission et une autre paire pour la réception. Les circuits à fibre optique utilisent un brin de fibre pour la
transmission et un autre pour la réception. En général, ces deux fibres sont enveloppées ensemble par une
gaine externe jusqu'au point auquel elles sont reliées aux connecteurs.
Le coeur constitue l'élément de transmission de la lumière au centre de la fibre optique. Tous les signaux
lumineux circulent dans le coeur. Il est généralement fabriqué dans un type de verre alliant l'oxyde de silicium et
d'autres éléments. Le coeur des fibres multimodes est fabriqué dans un verre à gradient d'indice qui offre un
indice de réfraction faible vers le bord externe du coeur. Par conséquent, le bord externe du coeur étant
optiquement moins dense que le centre, la lumière circule plus vite dans cette partie externe. Ce principe de
conception est nécessaire car un rayon lumineux suivant un mode qui l'achemine directement au centre du
cœur n'a pas à parcourir une distance aussi longue que s'il suivait un mode qui le fasse rebondir en périphérie
du cœur dans la fibre. Tous les rayons doivent parvenir ensemble à l'extrémité de la fibre et le récepteur situé à
l'extrémité reçoit un flash de lumière intense au lieu d'une impulsion longue et faible.
L'enveloppe qui entoure le coeur contient également de l'oxyde de silicium mais son indice de réfraction est
moins élevé que celui du coeur. Les rayons lumineux gravitant autour du coeur de la fibre se réfléchissent sur
l'intervalle compris entre le coeur et l'enveloppe lorsqu'ils circulent dans la fibre par réflexion interne totale. Le
câble à fibre optique multimode standard est le type de câble optique le plus utilisé dans les réseaux locaux. Il
utilise une fibre optique avec un coeur d'un diamètre de 62,5 ou 50 microns et une enveloppe d'un diamètre de
La plupart des câbles à fibre optique utilisés dans les réseaux locaux sont des câbles à gaine intermédiaire
serrée. Celle-ci est en contact direct avec l'enveloppe. La différence entre les deux modèles réside
principalement dans leur utilisation : les modèles à gaine intermédiaire flottante sont surtout utilisés à l'extérieur
des bâtiments, alors que les modèles à gaine intermédiaire serrée sont utilisés à l'intérieur des bâtiments.
Le matériau de résistance entourant la gaine intermédiaire empêche le câble de fibre de s'étirer au cours des
installations. Le matériau utilisé est souvent la fibre aramide (Kevlar), qui sert également à fabriquer les gilets
pare-balles.
La gaine externe est le dernier élément d'un câble à fibre optique. Elle enveloppe la fibre pour la protéger
contre l'abrasion, les solvants et autres contaminants. La couleur de la gaine externe d'une fibre multimode est
généralement orange, mais elle peut être d'une autre couleur.
Les LED (Light Emitting Diodes) ou les lasers VCSEL (Vertical Cavity Surface Emitting Lasers) infrarouges sont
les deux types de source lumineuse généralement utilisés avec la fibre multimode. Vous pouvez utiliser l'un ou
l'autre. Les LED sont moins onéreuses et requièrent moins de précautions d'utilisation que les lasers VCSEL.
Cependant, elles ne transmettent pas la lumière aussi loin que les lasers. Une fibre multimode (62,5/125) peut
transporter des données jusqu'à une distance de 2 000 mètres.
3.2.7 Fibre monomode
La fibre monomode comprend les mêmes composants que la fibre multimode. La gaine externe de la fibre
monomode est généralement de couleur jaune. La principale différence entre la fibre multimode et la fibre
monomode réside dans le fait que cette dernière n'autorise qu'un seul mode de propagation de la lumière à
Une fibre monomode utilise un laser infrarouge comme source lumineuse. Le rayon lumineux qu'il génère
pénètre dans le coeur à un angle de 90 degrés. Par conséquent, les données transportant les impulsions du
rayon lumineux dans une fibre monomode sont essentiellement transmises en ligne droite directement au
centre du coeur, ce qui accroît considérablement la vitesse et la distance de transmission des données.
En raison de sa conception, la fibre monomode prend en charge des débits de données (bande passante) plus
élevés et des distances plus longues que la fibre multimode. La fibre monomode peut transporter des données
jusqu'à 3 000 mètres dans un réseau local. Bien que cette distance soit considérée comme une norme, de
nouvelles technologies (traitées dans un prochain module) l'ont accrue. La fibre multimode ne peut transporter
des données que sur 2 000 mètres maximum. Les fibres monomodes et les lasers sont plus onéreux que les
fibres multimodes et les LED. En raison de toutes ces caractéristiques, la fibre monomode est souvent utilisée
pour assurer la connectivité entre bâtiments.
Avertissement : Le laser utilisé avec la fibre monomode génère une longueur d'onde visible. Le rayon laser est
si puissant qu'il peut provoquer de graves lésions oculaires. Ne regardez jamais l'extrémité libre d'une fibre dont
l'autre extrémité est connectée à un équipement. Ne regardez jamais le port de transmission d'une carte
réseau, d'un commutateur ou d'un routeur. Veillez à conserver le protecteur isolant sur les extrémités du câble
et dans les ports à fibre optique des commutateurs et des routeurs. Procédez avec prudence.
La figure compare les tailles relatives du coeur et de l'enveloppe des deux types de fibre optique sous
différentes coupes. La fibre monomode prend en charge une bande passante plus large et une distance plus
longue que la fibre multimode en raison de son coeur qui est plus petit et plus affiné. Cependant, son coût de
fabrication est plus élevé
3.2.8 Autres équipements optiques
Dans un réseau local, la plupart des données sont envoyées sous la forme de signaux électriques. Comme les
liaisons à fibre optique utilisent la lumière pour envoyer des données, il est nécessaire de convertir l'électricité
en lumière à une extrémité de la fibre et de reconvertir la lumière en électricité à l'autre extrémité. C'est la
raison pour laquelle un émetteur et un récepteur sont nécessaires.
Les répéteurs et les amplificateurs optiques qui reçoivent des impulsions lumineuses s'atténuant sur de longues
distances rétablissent leur forme d'origine, leur puissance et leur synchronisation. Les signaux restaurés
peuvent ensuite être transmis au récepteur qui se trouve à l'autre extrémité de la fibre.
Les panneaux de brassage optiques sont similaires à ceux utilisés avec les câbles en cuivre. Ils améliorent la
souplesse d'un réseau optique car ils permettent de modifier rapidement la connexion des équipements
(commutateurs, routeurs, etc.)
3.2.9 Signaux et bruit dans les médias à fibre optique
Cette page décrit certains facteurs qui contribuent à réduire la puissance des signaux dans un média optique.
Les câbles à fibre optique ne sont pas affectés par les mêmes sources de bruit externe qui engendrent des
problèmes sur les médias de cuivre, car la lumière externe ne peut pas pénétrer dans la fibre, excepté à
l'extrémité où se trouve l'émetteur. L'enveloppe de la fibre est protégée par une gaine intermédiaire et une
gaine externe qui empêchent la lumière de pénétrer dans le câble ou de s'en échapper.
En outre, la transmission de la lumière dans une fibre d'un câble ne génère aucune interférence susceptible de
perturber la transmission dans une autre fibre du câble. Autrement dit, les problèmes de diaphonie présents
dans les câbles de cuivre n'existent pas dans les câbles optiques. La qualité des liaisons optiques est telle que
les dernières normes Gigabit Ethernet et 10 Gibabit Ethernet spécifient des distances de transmission
nettement supérieures aux deux kilomètres traditionnels de la norme Ethernet initiale. La transmission via un
média optique permet d'utiliser le protocole Ethernet sur des réseaux métropolitains et longue distance.
Si la fibre est considérée comme le média de transmission le meilleur pour transporter de grandes quantités de
données sur de longues distances, elle présente néanmoins quelques problèmes. Lorsque la lumière circule
dans la fibre, elle perd de son énergie. Plus la distance à parcourir est longue, plus la puissance du signal
diminue. Cette atténuation est due à plusieurs facteurs inhérents à la fibre, dont le plus important est la
dispersion. La dispersion de la lumière dans une fibre est provoquée par des inégalités microscopiques
(distorsions) qui réfléchissent et dispersent l'énergie lumineuse.
L'absorption est une autre cause de perte d'énergie. Lorsqu'un rayon lumineux entre en contact avec certaines
impuretés dans une fibre, celles-ci absorbent une partie de l'énergie qui est convertie en une petite quantité
d'énergie thermique, ce qui affaiblit le signal lumineux.
Les rugosités ou les défauts de fabrication présents entre le coeur et l'enveloppe d'une fibre constituent un
autre facteur d'atténuation des signaux lumineux. Ces derniers perdent de leur puissance en raison de la
réflexion interne totale qui se dégrade dans cette zone. Toute imperfection microscopique au niveau de
l'épaisseur ou de la symétrie de la fibre diminue la réflexion interne totale et entraîne l'absorption d'une partie
de l'énergie lumineuse par l'enveloppe.
La fibre multimode à gradient d'indice est conçue pour compenser les différentes distances que doivent
parcourir les différents modes dans le diamètre large du coeur. Même si ce problème n'existe pas avec la fibre
monomode, la dispersion chromatique est néanmoins une caractéristique des fibres multimodes et
monomodes. La circulation de longueurs d'onde à des vitesses différentes dans le verre engendre la dispersion
chromatique. C'est pourquoi les longueurs d'onde sont séparées par un prisme. Idéalement, si une diode
électroluminescente ou un laser émettait la lumière d'une seule fréquence, la dispersion chromatique ne
poserait aucun problème.
Cependant, comme les lasers, et particulièrement les diodes électroluminescentes génèrent une plage de
longueurs d'onde, la dispersion chromatique limite la distance de transmission dans une fibre. Si un signal est
transmis trop loin, l'impulsion d'énergie lumineuse initialement intense, se disperse, se sépare et s'affaiblit
lorsque le signal atteint le récepteur, et ce dernier ne parvient plus à distinguer un 1 d'un 0.
3.2.10 Installation, entretien et vérification des câbles à fibre optique
Une installation incorrecte est une des principales causes d'une atténuation excessive dans un câble à fibre
optique. Si la fibre est étirée ou trop courbée, la présence de minuscules craquelures provoquera la dispersion
des rayons lumineux. Une fibre trop coudée peut modifier l'ange incident des rayons lumineux qui entrent en
contact avec la limite coeur-enveloppe. Si cet angle devient inférieur à l'angle critique de la réflexion interne
totale, certains rayons lumineux seront perdus car ils se réfracteront dans l'enveloppe au lieu de se réfléchir
autour de la courbure.
Pour éviter les courbures excessives, la fibre est généralement introduite dans un conduit plus raide que la fibre
elle-même et donc, plus difficile à plier. Ce conduit protège également la fibre contre tout étirement lors d'une
installation et empêche le dépassement du rayon de courbure (limite de courbure) de la fibre.
Une fois la fibre installée, ses extrémités doivent être coupées avec soin de façon à ce qu'elles soient lisses.
Un nœud peut être tout simplement un ordinateur de bureau ou un ordinateur portable. Il est possible de créer
un réseau sur mesure (ad hoc) avec des cartes réseau sans fil, comparable à un réseau câblé d'égal à égal.
Les deux équipements se comportent comme des serveurs et des clients dans cet environnement. Bien que la
connectivité soit assurée, ce type de réseau fournit un niveau de sécurité et un débit médiocres. De plus, il ne
résout pas le problème d'incompatibilité dû au fait que des cartes réseau de constructeurs différents sont
souvent incompatibles.
Pour résoudre le problème d'incompatibilité, un point d'accès est généralement installé pour servir de
concentrateur central dans le mode infrastructure des LAN sans fil. Le point d'accès est relié par câble au
réseau local câblé pour fournir un accès Internet et la connectivité au réseau câblé. Les points d'accès sont
équipés d'antennes et fournissent la connectivité sans fil sur une zone donnée appelée cellule.
La dimension d'une cellule dépend de la structure de l'emplacement dans lequel le point d'accès est installé,
outre la taille et la puissance des antennes. Elle est généralement comprise entre 91,44 et 152,4 mètres. Pour
desservir des zones plus vastes, il est possible d'installer plusieurs points d'accès avec un degré de
chevauchement permettant le «roaming» entre les cellules.
4.1.1 Ondes
4.1.4 Décibels
Module: Résumé
Imaginez ensuite une combinaison de plusieurs ondes sinusoïdales. L’onde créée est alors plus complexe
qu’une onde sinusoïdale simple. Cette onde comprend plusieurs signaux sonores. Un graphique de ces
signaux sonores comprend plusieurs lignes correspondant à la fréquence de chacun d’entre eux.
Pour finir, imaginez un signal complexe tel qu’une voix ou un instrument de musique. Si plusieurs signaux
sonores différents sont émis, le graphique montre un spectre continu de signaux sonores individuels.
4.1.7 Bruit dans le temps et la fréquence
Le bruit est un concept important dans les réseaux tels que les LAN. La notion de bruit fait généralement
référence aux sons. Toutefois, dans les réseaux, il s’agit de signaux parasites. Le bruit peut provenir de
sources naturelles ou technologiques, et vient s’ajouter aux signaux de données des systèmes de
communication.
La bande passante numérique mesure la quantité de données pouvant circuler d’un endroit à un autre pendant
une période donnée. L’unité de mesure de base pour la bande passante numérique est le nombre de bits par
seconde (bits/s). Sur les LAN, les vitesses de transmission atteignant des milliers, voire des millions de bits par
seconde, elles sont exprimées en kilobits par seconde (Kbits/s) ou mégabits par seconde (Mbits/s). La bande
passante est limitée par les médias physiques, les technologies actuelles ainsi que les lois de la physique.
Lors d’un test de câble en cuivre, la bande passante analogique sert à déterminer la bande passante
numérique. Les ondes numériques sont constituées de plusieurs ondes sinusoïdales (ondes analogiques). Les
fréquences analogiques sont émises à une extrémité et reçues à l’autre extrémité du câble. Les deux signaux
sont ensuite comparés et le niveau d’atténuation du signal est calculé. En général, les médias supportant des
Le câble coaxial est un exemple de câble blindé. Il se compose d’un conducteur en cuivre monobrin entouré
d’un matériau isolant et d’un blindage conducteur tressé. Dans les LAN, le blindage tressé est mis à la terre afin
de protéger le conducteur interne du bruit électrique extérieur. Le blindage permet également de confiner le
signal émis à l’intérieur du câble afin de réduire toute perte de signal. Les câbles coaxiaux sont ainsi moins
bruyants que d’autres types de câbles en cuivre, mais ils sont également plus chers. En outre, ils sont plus
difficiles à installer car ils prennent de la place, et il faut mettre le blindage à la terre.
Il existe deux types de câbles à paires torsadées: les câbles à paires torsadées blindées (STP) et les câbles à
paires torsadées non blindées (UTP).
Dans un câble à fibre optique, l’intensité de la lumière augmente ou décroît afin de représenter les 1 et les 0
dans les transmissions de données. Sur une même distance, la puissance d’un signal lumineux ne diminue
pas autant que celle d’un signal électrique. Le bruit électrique n’affecte pas les signaux optiques. De plus, il
n’est pas nécessaire de mettre la fibre optique à la terre, sauf si la gaine contient une substance métallique ou
un élément de puissance métallique. Les câbles à fibre optique sont donc souvent utilisés pour relier des
bâtiments entre eux ou les étages d’un même bâtiment. Les coûts de la fibre optique diminuant et sa vitesse de
transmission augmentant, elle devrait devenir un média plus couramment utilisé pour les LAN.
L’impédance est la résistance opposée par le câble au courant alternatif (AC). Elle se mesure en ohms.
L’impédance normale d’un câble de catégorie 5 est de 100 ohms. Si un connecteur n’est pas correctement
installé sur un câble de catégorie 5, alors la valeur de son impédance sera différente de celle du câble. Cela est
appelé discontinuité d’impédance ou défaut d’adaptation de l’impédance.
Les discontinuités d’impédance provoquent une atténuation car une partie du signal transmis est réfléchie, à la
manière d’un écho, et n’atteint pas le récepteur. Cet effet se trouve accentué si de multiples discontinuités
entraînent la réflexion de portions de signal supplémentaires vers l’émetteur. Lorsque le signal réfléchi
rencontre la première discontinuité, une partie de ce signal repart vers son point de départ, ce qui crée un effet
d’échos multiples. Les échos frappent donc le récepteur à différents intervalles de temps, ce qui lui complique
la tâche pour détecter les valeurs des données. Ce phénomène est appelé « gigue » et provoque des erreurs
dans les données.
La combinaison des effets de l’atténuation du signal et des discontinuités d’impédance sur une liaison de
communication est appelée affaiblissement d’insertion. Le fonctionnement correct d’un réseau dépend d’une
impédance caractéristique constante dans tous les câbles et les connecteurs, et de l’absence de discontinuités
d’impédance à travers tout le système de câblage
4.2.3 Sources de bruit sur les médias en cuivre
Le bruit est toute énergie électrique dans un câble de transmission qui rend difficile, pour le récepteur,
l���interprétation des données venant de l’émetteur. La certification TIA/EIA-568-B exige désormais que les
câbles soient testés pour différents types de bruits.
La diaphonie est la transmission des signaux d’un fil à un autre fil proche. Lorsque les tensions d’un fil
changent, de l’énergie électromagnétique est générée. Cette énergie rayonne à partir du fil, à l’image d’un
signal radio se propageant à partir d’un émetteur. Les fils adjacents dans le câble jouent le rôle d’antennes et
reçoivent cette énergie, qui interfère avec leurs données. La diaphonie peut également être provoquée par des
signaux provenant de câbles proches. Lorsque la diaphonie est provoquée par un signal émis par un autre
câble, elle est appelée paradiaphonie étrangère. La diaphonie est plus néfaste sur des fréquences de
transmission élevées.
Une carte réseau transmet des signaux sur les broches 1 et 2, puis reçoit d’autres signaux sur les broches 3
et 6. Les fils d’un câble UTP doivent être connectés aux broches correspondantes à chaque extrémité d’un
câble.
Le test de schéma de câblage garantit qu’il n’y a aucun circuit ouvert ou court-circuit sur le câble. Un circuit est
ouvert lorsque le fil n’est pas correctement raccordé au connecteur. Un court-circuit se produit lorsque deux fils
sont connectés entre eux.
Le test de schéma de câblage permet également de vérifier que les huit fils sont raccordés aux broches
correspondantes, et ce, aux deux extrémités du câble. Il existe différentes erreurs de câblage que le test de
schéma de câblage est capable de détecter.
La combinaison des effets de l’atténuation du signal et des discontinuités d’impédance sur une liaison de
communication est appelée affaiblissement d’insertion. L’affaiblissement d’insertion est mesuré en décibels à
l’extrémité éloignée du câble. Les normes TIA/EIA stipulent qu’il faut effectuer un test d’affaiblissement
d’insertion sur un câble et ses connecteurs avant d’utiliser le câble en tant que liaison dans un LAN.
La diaphonie se mesure par quatre tests différents. Un testeur de câble mesure la diaphonie locale en
appliquant un signal test à l’une des paires du câble et en mesurant l’amplitude du signal de diaphonie reçu par
les autres paires du câble. La valeur de la diaphonie locale, exprimée en décibels, est calculée selon la
différence d’amplitude entre le signal test et le signal de diaphonie mesurés à la même extrémité de la liaison.
Rappelez-vous que le nombre de décibels indiqués par le testeur est un nombre négatif et que par conséquent,
plus il est élevé, plus la diaphonie de la paire de fils est faible. Comme indiqué précédemment, le test de
diaphonie locale totale se calcule en se basant sur les effets combinés de la diaphonie locale.
Le test de diaphonie distante de niveau égal (ELFEXT) mesure la diaphonie distante (FEXT). La diaphonie
distante de niveau égal de paire à paire est exprimée en décibels. Elle représente la différence entre la
diaphonie distante et l’affaiblissement d’insertion de la paire dont le signal est perturbé par la diaphonie
C’est à partir des mesures de délai de propagation qu’est calculée la longueur des câbles. La norme TIA/EIA-
568-B.1 stipule que la longueur physique d’une liaison doit être calculée sur la paire dont le délai électrique est
le plus court. Les testeurs mesurent la longueur d’un fil selon le délai électrique établi par un test de
réflectométrie (TDR), et non pas selon la longueur physique de la gaine du câble. Les paires à l’intérieur des
câbles étant torsadées, les signaux se propagent en réalité sur une distance supérieure à celle physiquement
parcourue par le câble. Lorsqu’un testeur de câble effectue une mesure de réflectométrie, il envoie un signal
sous forme d’impulsion dans une paire de fils et calcule le temps de retour de l’impulsion sur cette même paire.
Le test de réflectométrie n’est pas seulement utilisé pour déterminer la longueur d’un câble mais aussi pour
évaluer la distance qui sépare un point d’une défaillance (par exemple, un court-circuit, un circuit ouvert, etc.).
Lorsque l’impulsion rencontre un court-circuit, un circuit ouvert ou une mauvaise connexion, tout ou partie de
l’énergie de l’impulsion est réfléchie vers le testeur. Cela permet de calculer la distance approximative à
parcourir pour atteindre la défaillance. Cette distance sert à localiser un point de connexion défaillant sur le
parcours du câble, une prise murale par exemple.
Les délais de propagation des différentes paires dans un câble unique peuvent varier quelque peu en fonction
des différences dans le nombre de torsades et dans les propriétés électriques de chaque paire. La différence
de délai entre les paires est appelée distorsion de délai. La distorsion de délai est un paramètre fondamental
pour des réseaux à haut débit, comme Ethernet 1000BaseT, où les données sont transmises simultanément
par des paires multiples. Si la distorsion de délai entre les paires est trop grande, les bits n’arrivent pas en
même temps et les données ne peuvent pas être correctement reconstituées. Même si une liaison câblée n’est
pas destinée à ce type de transmission de données, le test du délai de distorsion doit faire en sorte que la
liaison puisse supporter des mises à jour à venir pour un réseau à haut débit.
Toutes les liaisons par câble d’un LAN doivent passer tous les tests mentionnés plus haut (spécifiés dans la
norme TIA/EIA-568-B) afin d’être considérées comme conformes aux normes. Un testeur de certification doit
Lorsque la lumière rencontre une discontinuité optique, une partie du signal lumineux est réfléchie dans la
direction opposée et seule une fraction du signal lumineux initial continue à parcourir la fibre jusqu’au récepteur.
Cela débouche sur une réduction de la quantité d’énergie lumineuse parvenant au récepteur et sur des
difficultés de reconnaissance du signal. Tout comme pour les câbles UTP, des connecteurs mal installés sont la
principale cause d’une réflexion de la lumière et d’une perte de puissance du signal dans la fibre optique.
Le bruit ne posant pas de problèmes lors d’une transmission par fibre optique, la préoccupation principale pour
une liaison optique est la puissance du signal lumineux parvenant au récepteur. L’atténuation affaiblissant le
signal lumineux au niveau du récepteur, des erreurs de données peuvent survenir. Tester un câble à fibre
optique implique tout d’abord d’acheminer de la lumière le long du câble et de s’assurer qu’une quantité de
lumière suffisante parvient jusqu’au récepteur.
Sur une liaison à fibre optique, il faut calculer la quantité de perte de puissance d’un signal acceptable, sans
descendre au-dessous du minimum requis par le récepteur. C’est ce que l’on appelle le budget d’une liaison à
fibre optique. Un appareil pour tester les fibres optiques, connu sous le nom de source de lumière et mesureur
de puissance, vérifie si le budget optique d’une liaison est dépassé.
Module: Résumé
Vous pouvez faire appel à plusieurs types de média pour concevoir un réseau informatique. Un média permet
d’acheminer un flux d’informations via un réseau LAN. Les LAN sans fil utilisent l’atmosphère ou l’espace
comme média. Les autres médias réseau confinent les signaux réseau dans des fils, des câbles ou de la fibre
optique. Les médias réseau sont considérés comme des composants de la couche 1 (ou couche physique) des
réseaux LAN.
Chaque type de média présente des avantages et des inconvénients, basés sur les facteurs suivants :
La longueur de câble
Le coût
La facilité d’installation
La sensibilité aux interférences
Les technologies Ethernet peuvent être utilisées de différentes façons dans un réseau de type campus :
Dans le cas d’un câble croisé, certains fils placés aux deux extrémités des connecteurs RJ-45 se raccordent à
des broches différentes à chaque extrémité du câble. La figure montre que les broches 1 et 2 d’un connecteur
se raccordent aux broches 3 et 6 de l’autre.
La figure illustre les directives qui permettent de déterminer le type de câble à utiliser pour relier les
équipements Cisco.
5.1.6 Répéteurs
Les technologies sans fil IR et RF sont les plus répandues dans le domaine des réseaux. La technologie IR
présente toutefois des points faibles. En effet, l’émetteur doit disposer d’une visibilité directe des stations de
travail et des équipements numériques pour fonctionner correctement. L’utilisation d’un réseau de type
infrarouge implique que tous les équipements numériques nécessitant une connectivité réseau se trouvent
dans la même pièce. La technologie réseau IR s’installe rapidement. Cependant, les signaux de données
peuvent être affaiblis ou masqués par les personnes qui traversent la pièce ou par l’humidité ambiante. Les
nouvelles technologies IR seront à même de fonctionner sans visibilité directe.
La technologie RF permet de placer les équipements dans des pièces ou des bâtiments distincts. La plage
limitée de signaux radio restreint l’utilisation de ce type de réseau. Cette technologie peut utiliser une ou
plusieurs fréquences. Une fréquence radio unique est sensible aux interférences externes et aux obstructions
géographiques. Par ailleurs, elle peut facilement être surveillée par des tiers, ce qui nuit à la sécurité des
Ceci entraîne la diminution du trafic sur un LAN donné tout en permettant d’étendre la zone géographique
précédemment prise en charge par un LAN unique. Vous pouvez utiliser des équipements de type ponts,
commutateurs, routeurs et passerelles pour relier les segments du réseau les uns aux autres. Les
commutateurs et les ponts fonctionnent au niveau de la couche liaison de données du modèle OSI. Un pont
doit prendre des décisions intelligentes quant à la transmission ou non des signaux au segment suivant d’un
réseau.
Lorsqu’un pont reçoit une trame sur le réseau, il recherche l’adresse MAC de destination dans une table
spécifique afin de déterminer s’il doit filtrer la trame, la diffuser ou la copier sur un autre segment. Ce processus
de décision s’effectue comme suit:
Bien que ces deux équipements présentent des points communs, un commutateur est plus sophistiqué qu’un
pont. Un pont s’appuie sur l’adresse MAC de destination pour déterminer si la trame doit être transmise à un
autre segment du réseau. Un commutateur possède plusieurs ports auxquels sont reliés plusieurs segments du
réseau. Il sélectionne le port auquel est connecté(e) la station de travail ou l’équipement de destination. Les
commutateurs Ethernet représentent des solutions de connectivité populaires car ils optimisent la vitesse, la
bande passante et les performances du réseau.
Dans un réseau d’égal à égal, chaque utilisateur contrôle ses propres ressources et peut décider de partager
certains fichiers avec des tiers. Les utilisateurs peuvent, toutefois, demander des mots de passe pour autoriser
les tiers à accéder à leurs ressources. Il incombe aux utilisateurs de prendre cette décision car ce type de
réseau ne comporte aucun point de contrôle ou d’administration central. Par ailleurs, chaque utilisateur doit
sauvegarder son propre système pour pouvoir récupérer les données perdues en cas de panne. Lorsqu’un
ordinateur assure la fonction de serveur, son utilisateur peut être confronté à une altération des performances
du fait que la machine répond aux requêtes d’autres systèmes.
Les réseaux d’égal à égal sont relativement simples à installer et à utiliser. Aucun équipement supplémentaire
n’est nécessaire; il suffit que chaque ordinateur soit équipé d’un système d’exploitation approprié. Les
utilisateurs gérant eux-mêmes leurs ressources, aucun administrateur spécialisé ne doit intervenir.
Cependant, l’extension des réseaux accroît la difficulté de coordination des relations d’égal à égal. Ce type de
réseau fonctionne bien avec dix ordinateurs au plus. Étant donné le manque d’évolutivité des réseaux d’égal à
égal, leur efficacité décroît parallèlement à l’augmentation du nombre d’ordinateurs connectés. Par ailleurs,
chaque utilisateur contrôlant l’accès aux ressources de son ordinateur, la sécurité peut être difficile à assurer.
Le modèle de réseau client-serveur permet de passer outre les limites du réseau d’égal à égal.
5.1.13 Environnement client-serveur
Dans un environnement client-serveur, les services réseau tournent sur un ordinateur dédié appelé « serveur ».
Le serveur répond aux requêtes des clients.
Les serveurs sont conçus pour gérer simultanément les requêtes de nombreux clients. Pour qu'un client puisse
accéder aux ressources du serveur, il doit être identifié, puis autorisé à utiliser ces ressources. Chaque client
possède un nom de compte et un mot de passe, vérifié par un service d’authentification. Ce service protège
l’accès au réseau. En centralisant les comptes utilisateurs, la sécurité et le contrôle d’accès, les
environnements client-serveur simplifient l’administration des réseaux de grande taille.
La concentration de ressources réseau, telles que des fichiers, des imprimantes et des applications sur des
serveurs facilite également la sauvegarde et la gestion des données. Les ressources peuvent être stockées sur
des serveurs dédiés spécialisés pour être plus facilement accessibles. La plupart des systèmes client-serveur
offrent également des possibilités d’optimisation du réseau via de nouveaux services destinés à en étendre
l’utilité.
L’aspect centralisé des fonctions d’un réseau client-serveur présente des avantages considérables et quelques
inconvénients. Bien qu’un serveur centralisé optimise la sécurité, la facilité d’accès et le contrôle, il constitue un
point de défaillance unique dans le réseau. En effet, sans un serveur opérationnel, le réseau ne peut plus
fonctionner. Par ailleurs, seul un membre de l’équipe expert et formé peut assurer l’administration et la
maintenance des serveurs. Cela accroît le coût de fonctionnement du réseau. Les systèmes serveurs
nécessitent également du matériel complémentaire et des logiciels spécialisés qui en augmentent le coût.
La technologie RNIS propose l’établissement de connexions à la demande et des services d’appel de secours
par l’infrastructure commutée. Une interface RNIS BRI (Basic Rate Interface) se compose de deux canaux
Bearer (canaux B) de 64 kbits/s pour les données et d’un canal delta (canal D) de 16 kbits/s utilisé pour la
signalisation et d’autres tâches de gestion des liaisons. Le protocole PPP est généralement utilisé pour
transporter des données via les canaux B.
Les connexions DSL et modem câble ont gagné en popularité avec l’accroissement de la demande en services
de connexion haut débit et à large bande résidentielle. Le service DSL résidentiel type peut atteindre les débits
T1/E1 via la ligne téléphonique. Les services modem câble utilisent le câble coaxial de la télévision. Une ligne
en câble coaxial offre une connectivité haut débit égale ou supérieure à une connexion DSL. La connexion DSL
et le service modem câble seront traités plus en détail dans un autre module
5.2.2 Connexions série WAN
Pour les communications longue distance, les réseaux WAN font appel à la transmission série. Ce processus
consiste envoyer des bits de données via un canal unique. Il accroît la fiabilité des communications longue
distance et permet d’utiliser une plage spécifique de fréquences optiques ou électromagnétiques.
Les fréquences se mesurent en cycles par seconde et sont exprimées en hertz (Hz). Les signaux transmis via
les lignes téléphoniques à fréquence vocale utilisent 4 kHz. La taille de la plage de fréquences correspond à la
Pour un routeur Cisco, la connectivité physique sur le site du client est mise en œuvre par le biais d’un ou deux
types de connexions série. Le premier type est un connecteur 60 broches et le second un connecteur « série
intelligent » plus compact. Le connecteur du fournisseur peut varier selon le type d’équipement de service.
Si la connexion s’effectue directement auprès d’un fournisseur de services ou d’un équipement doté d’un signal
de synchronisation tel qu’une unité CSU/DSU (channel service unit/data service unit), le routeur est alors
considéré comme un équipement terminal de traitement de données (ETTD) et utilise un câble série ETTD. Tel
est généralement le cas. Toutefois, dans certains cas, le routeur local doit fournir la fréquence d’horloge et
utilise donc un câble d’équipement de communication de données ou câble ETCD. Dans les TP sur les routeurs
du cursus, l’un des routeurs connectés devra assurer la fonction de synchronisation. La connexion consistera
donc en un câble ETTD et un câble ETCD.
5.2.3 Routeurs et connexions série
Les routeurs sont responsables du routage des paquets de données de la source à la destination au niveau du
LAN, ainsi que de la connectivité au WAN. Dans l’environnement d’un LAN, le routeur stoppe les broadcasts,
fournit les services de résolution d’adresse du type ARP et RARP et peut segmenter le réseau via une structure
de sous-réseaux. Pour proposer ces services, le routeur doit être connecté au LAN et au WAN.
Outre le type de câble, il convient de déterminer les connecteurs à utiliser (ETTD ou ETCD). L’ETTD est le
point d’extrémité de l’équipement d’un utilisateur au niveau de la liaison WAN. L’ETCD est, en général, le point
auquel la responsabilité de la diffusion des données est reportée sur le fournisseur de services.
Lorsque vous vous connectez directement à un fournisseur de services ou à un équipement tel qu’une unité
CSU/DSU qui doit exécuter le signal de synchronisation, le routeur constitue un équipement ETTD et doit être
équipé d’un câble série du même type.
Les routeurs câblés pour une connectivité série peuvent comporter des ports fixes ou modulaires. Le type de
port utilisé détermine, par la suite, la syntaxe utilisée pour la configuration des différentes interfaces.
Sur les routeurs dotés de ports série fixes, la dénomination des interfaces doit spécifier le type et le numéro de
port.
Sur les routeurs équipés de ports série modulaires, la dénomination des interfaces doit indiquer le type de port,
l’emplacement et le numéro de port.
Pour relier le port RNIS BRI à l’équipement de l’opérateur télécom, utilisez un câble droit à paire torsadée non
blindée (UTP) de catégorie 5.
5 Câblage des réseaux LAN et WAN_236FB7.doc 18/
21
ATTENTION:
L’extrémité du câble d’un port RNIS BRI ne doit être reliée qu’à une prise ou à un commutateur RNIS. Les
connexions RNIS BRI utilisent des tensions qui peuvent gravement endommager les équipements non-RNIS.
5.2.5 Routeurs et connexions DSL
Le routeur ADSL Cisco 827 est équipé d’une interface ADSL (Asymmetric Digital Subscriber Line). Pour
raccorder une ligne ADSL au port ADSL d’un routeur, procédez comme suit:
Reliez le cordon du téléphone au port ADSL du routeur.
Reliez l’autre extrémité du cordon à la prise téléphonique.
Pour raccorder un routeur en vue d’un service DSL, utilisez un cordon de téléphone équipé de connecteurs RJ-
11. La technologie DSL fonctionne via les lignes téléphoniques standard, à l’aide des broches 3 et 4 d’un
connecteur RJ-11 standard.
5.2.6 Routeurs et connexions par câble
Le routeur d’accès au câble Cisco uBR905 offre un accès réseau haut débit via la télédiffusion par câble aux
abonnés résidentiels et de petits bureaux/bureaux à domicile (SOHO). Le modèle uBR905 comporte une
interface câble coaxial, ou connecteur F, qui se raccorde directement au système de câblage. Le routeur et le
système de câblage sont reliés par le biais d’un câble coaxial et d’un connecteur BNC.
Pour relier le routeur d’accès au câble Cisco uBR905 au système de câblage, procédez comme suit:
Vérifiez que le routeur n’est pas branché à une prise de courant.
Localisez le câble coaxial RF qui sort de la prise murale de télévision par câble.
Le cas échéant, installez un répartiteur de câble/coupleur directionnel pour séparer les signaux de la
télévision et de l’ordinateur. Si nécessaire, installez également un filtre passe-haut pour éviter toute
interférence entre les signaux de la télévision et de l’ordinateur.
Raccordez le câble coaxial au connecteur F du routeur. Maintenez fermement le connecteur en
veillant à bien l’insérer, puis faites-lui opérer une rotation d’un sixième de tour à l’aide d’une clé.
Veillez à ce que tous les connecteurs du câble coaxial, les répartiteurs intermédiaires, les coupleurs ou
les blocs de mise à la terre soient solidement fixés de la prise au routeur Cisco uBR905.
ATTENTION:
Ne serrez pas le connecteur de façon excessive, sous peine de l’endommager. N’utilisez pas de clé
dynamométrique car vous risqueriez de trop faire tourner le connecteur. Il est recommandé de lui faire faire
un sixième de tour après son insertion.
5.2.7 Configuration des connexions console
Pour la configuration initiale de l’équipement Cisco, une connexion d’administration doit être directement liée à
l’équipement. Pour l’équipement Cisco, cette liaison d’administration est appelée «port console». Le port
console permet de surveiller et de configurer un concentrateur, un commutateur ou un routeur Cisco.
Un câble à paires inversées équipé de connecteurs RJ-45 relie le terminal et le port console. Le câble à paires
inversées, ou câble console, présente une configuration différente de celle des câbles RJ-45 droits ou croisés
que l’on utilise dans le cas d’Ethernet ou de RNIS BRI. Un câble à paires inversées présente la configuration de
broches suivante:
De 1 à 8
De 2 à 7
De 3 à 6
De 4 à 5
De 5 à 4
Le port AUX fournit une gestion hors bande via un modem. Pour pouvoir l’utiliser, vous devez le configurer
par le biais du port console. Le port AUX utilise également les paramètres 9 600 bits/s, 8 bits de données,
sans parité, 1 bit d’arrêt et sans contrôle de flux.
Résumé :
Ethernet, la technologie LAN la plus répandue, peut être mis en œuvre sur tout un éventail de médias. Les
technologies Ethernet offrent des débits variés, de 10 Mbits/s à Gigabit Ethernet, pouvant être appliqués à
différents domaines d’un réseau. Les besoins en matière de médias et de connecteurs diffèrent selon les
implémentations Ethernet.
Le connecteur d’une carte réseau doit correspondre au média. Un connecteur BNC (Bayonet Nut Connector)
est nécessaire pour le raccordement au câble coaxial. Un connecteur pour fibre optique permet le
raccordement au média à fibre optique. Le connecteur RJ-45 utilisé avec un fil à paires torsadées est le type de
connecteur le plus couramment utilisé dans les implémentations LAN Ethernet.
Lorsque vous utilisez un fil à paires torsadées pour relier les équipements, vous devez également déterminer
l’ordre des fils (configuration des broches). Un câble croisé permet de relier deux équipements similaires, tels
que deux PC. Un câble droit sert à relier deux équipements différents, ce qui est le cas des connexions entre
un commutateur et un PC. Un câble à paires inversées permet de connecter un PC au port console d’un
routeur.
Les données qui transitent entre deux stations Ethernet passent souvent par un répéteur. Toutes les stations du
même domaine de collision voient le trafic passant par un répéteur. Un domaine de collision est un domaine
partagé. Les problèmes qui proviennent d’une partie d’un domaine de collision auront en principe un impact sur le
domaine de collision tout entier.
La figure fait correspondre diverses technologies Ethernet avec la partie inférieure de la couche 2 OSI et avec
l’ensemble de la couche 1. Sur la couche 1, Ethernet gère des signaux, des flots de bits qui circulent sur le
média, des composants qui placent les signaux sur le média et diverses topologies. La couche 1 Ethernet joue un
rôle clé dans le cadre des communications entre les équipements. Toutefois, utilisées seules, ces fonctions ne
sont pas suffisantes. La couche 2 traite ces restrictions.
La figure fait correspondre diverses technologies Ethernet avec la partie inférieure de la couche 2 OSI et avec
l’ensemble de la couche 1. Alors qu’il existe d’autres variétés d’Ethernet, celles illustrées sont les plus
largement utilisées.
6.1.4 Attribution de noms
Cette page décrit les adresses MAC qu’utilisent les réseaux Ethernet.
Un système d’adressage est nécessaire pour identifier de façon unique les ordinateurs et les interfaces qui
permettent une distribution locale des trames sur Ethernet.
Ethernet utilise des adresses MAC qui comportent 48 bits et qui sont exprimées à l’aide de douze chiffres
hexadécimaux. Les six premiers chiffres hexadécimaux, qui sont administrés par l’IEEE, identifient le fabricant ou
le fournisseur. Cette partie de l’adresse MAC est appelée identifiant unique d’organisation (OUI). Les six autres
chiffres hexadécimaux forment le numéro de série d’interface ou une autre valeur administrée par le fabricant.
Il existe plusieurs types de trame différents, décrits par diverses normes. Une trame générique comprend des
sections appelées champs. Chaque champ est constitué d’octets.
Cependant, au niveau de la couche physique, presque toutes les versions d’Ethernet sont différentes. À chaque
vitesse est associé un ensemble distinct de règles de conception d’architecture.
Dans la version Ethernet qui a été développée par DIX avant l’adoption de la version IEEE 802.3, le préambule et
le délimiteur de début de trame (SOF) ont été combinés en un champ unique. La configuration binaire était
identique. Le champ de longueur/type comportait uniquement la longueur dans les premières versions d’IEEE et
uniquement le type dans la version DIX. Ces deux utilisations du champ furent officiellement combinées dans la
version IEEE ultérieure puisque les deux utilisations étaient courantes.
Une trame Ethernet 802.3 comprend les champs autorisés ou obligatoires suivants:
Préambule
Délimiteur de début de trame (SOF)
Adresse de destination
Adresse source
Longueur/Type
En-tête et données
Séquence de contrôle de trame (FCS)
Extension
Le préambule est une succession de uns et de zéros permettant de définir la synchronisation dans des
implémentations Ethernet à 10 Mbits/s et moins rapides. Les versions plus rapides d’Ethernet sont synchrones,
aussi ces informations de synchronisation sont-elles inutiles mais conservées à des fins de compatibilité.
Un délimiteur de début de trame (SOF) est constitué d’un champ d’un octet qui marque la fin des informations de
synchronisation et qui contient la séquence de bits 10101011.
L’adresse de destination peut être une adresse d’unicast, une adresse de multicast ou une adresse de broadcast.
Ethernet est une technologie de broadcast à média partagé. La méthode d’accès CSMA/CD utilisée par le réseau
Ethernet remplit les trois fonctions suivantes:
Transmission et réception de trames de données
Décodage des trames de données et vérification de ces trames afin de s’assurer qu’elles ont une adresse
valide avant de les transmettre aux couches supérieures du modèle OSI
Détection d’erreurs à l’intérieur des trames de données ou sur le réseau
Les équipements de réseau détectent qu’une collision s’est produite lorsque l’amplitude du signal augmente sur
le média réseau. Lorsqu’une collision se produit, chaque nœud émetteur continue de transmettre des données
pendant une courte période afin de s’assurer que tous les nœuds détectent la collision. Lorsque tous les nœuds
ont détecté la collision, l’algorithme de réémission temporisée est appelé et la transmission s’arrête. Les nœuds
arrêtent de transmettre pendant une période aléatoire, déterminée par l’algorithme de réémission temporisée. À
l’expiration du délai, chaque nœud peut tenter d’accéder à nouveau au média réseau. Les équipements impliqués
dans la collision ne sont pas prioritaires pour la transmission des données.
6.2.3 Synchronisation Ethernet
Les règles et les spécifications de base liées à un fonctionnement approprié d’Ethernet ne sont pas
particulièrement complexes, bien que certaines des implémentations de couche physique rapides aient tendance
à le devenir. Malgré cette simplicité élémentaire, lorsqu’un problème se produit sur Ethernet, il est souvent
relativement difficile d’en trouver l’origine. En raison de l’architecture de bus commune d’Ethernet, également
décrite comme un point de défaillance unique intégré, l’étendue du problème englobe habituellement tous les
équipements qui se trouvent dans le domaine de collision. Dans les situations où des répéteurs sont utilisés, cela
peut concerner des équipements distants de jusqu’à quatre segments.
Toute station d’un réseau Ethernet qui souhaite transmettre un message " écoute " d’abord pour s’assurer
qu’aucune autre station n’est en cours de transmission. Si le câble est silencieux, elle entame immédiatement la
transmission. Le signal électrique met un certain temps à parcourir le câble (délai), et chaque répéteur suivant
introduit un bref temps de latence lors de la transmission de la trame entre deux ports. En raison du délai et du
Lorsqu'une trame est envoyée, toutes les stations d'un réseau Ethernet 10 Mbits/s doivent attendre au minimum
une durée de 96 bits, soit 9,6 microsecondes, avant qu’une autre station ait le droit de transmettre la trame
suivante. Sur les versions plus rapides d’Ethernet, l’espacement reste le même, à savoir 96 temps de bit, mais le
temps nécessaire pour cet intervalle se réduit de façon proportionnelle. On appelle cet intervalle écart
d’espacement. Cet écart est prévu pour donner le temps aux stations lentes de traiter la trame précédente et de
se préparer pour la suivante.
Un répéteur doit régénérer les 64 bits d’informations de synchronisation, correspondant au préambule et à la
SFD, au début de chaque trame. Cela doit se faire malgré la perte potentielle de certains bits de début de
préambule en raison de la lenteur de la synchronisation. À cause de cette réintroduction forcée de bits de
synchronisation, une certaine réduction minime de l’écart intertrame est non seulement possible mais attendue.
Certains jeux de circuits Ethernet sont sensibles à un raccourcissement de l’espacement intertrame, et risquent
de ne plus pouvoir détecter les trames en cas de réduction de l’écart. En raison de l’augmentation de leur
puissance de traitement, les ordinateurs personnels pourraient très facilement saturer un segment Ethernet de
trafic et commencer à retransmettre avant l’observation du délai d’espacement intertrame.
Lorsque la collision s’est produite et que toutes les stations rendent le câble inactif (en attente de l’espacement
intertrame complet), alors les stations à l’origine de la collision doivent observer un délai supplémentaire et
potentiellement de plus en plus long avant de tenter de retransmettre la trame entrée en collision. Le délai
d’attente est conçu intentionnellement pour être aléatoire afin que les deux stations n’observent pas le même
délai avant de retransmettre, ce qui entraînerait d’autres collisions. Pour cela, on étend l’intervalle qui sert de
base à la sélection du temps de retransmission lors de chaque tentative de retransmission. La période d’attente
est mesurée par incréments de tranche de temps.
La collision est le mécanisme qui permet de résoudre un conflit d’accès au réseau. Lorsqu’elles sont peu
nombreuses, les collisions constituent pour les nœuds de réseau un moyen simple, rapide et léger en terme de
charge administrative, d’arbitrer les conflits d’accès aux ressources réseau. Lorsque le conflit devient trop
important, les collisions peuvent devenir de sérieux obstacles pour le fonctionnement effectif du réseau.
Les collisions entraînent une perte de la bande passante réseau qui est équivalente à la transmission initiale et
au signal de bourrage de collision. Il s’agit d’un délai de consommation qui affecte tous les nœuds de réseau et
qui peut provoquer une réduction significative du débit du réseau.
La grande majorité des collisions se produit au tout début de la trame, souvent avant le délimiteur de début de
trame (SFD). Les collisions qui se produisent avant le SFD ne sont généralement pas signalées aux couches
supérieures, comme si elles n’avaient pas eu lieu. Dès qu’une collision est détectée, les stations émettrices
transmettent un signal de " bourrage " sur 32 bits (jam) qui signale la collision. Cela est effectué afin que toute
donnée transmise soit complètement corrompue et que toutes les stations aient une chance de détecter la
collision.
Pour créer une collision locale sur du câble coaxial (10Base2 et 10Base5), le signal circule sur le câble jusqu’à ce
qu’il rencontre un signal de l’autre station. Les ondes se chevauchent alors, annulant certaines parties du signal
ou dédoublant d’autres parties. Le dédoublement du signal élève le niveau de tension de ce dernier au-delà du
maximum autorisé. Cette condition de surtension est ensuite ressentie par toutes les stations du segment de
câble local comme une collision.
Sur un câble UTP, tel que 10BaseT, 100BaseTX et 1000BaseT, une connexion n’est détectée sur le segment
local que lorsqu’une station détecte un signal sur la paire réceptrice en même temps qu’il envoie sur la paire
émettrice. Puisque les deux signaux sont sur des paires différentes, il n’y a aucune modification caractéristique
du signal. Les collisions ne sont reconnues sur du câble UTP que lorsque la station fonctionne en mode
half duplex. À ce titre, la seule différence fonctionnelle entre le fonctionnement en mode half duplex et en mode
full duplex consiste à savoir s’il est possible ou non d’utiliser de façon simultanée les paires de transmission et de
réception. Si la station n’est pas en train de transmettre, elle ne peut pas détecter une collision locale.
Réciproquement, une défaillance du câble due à une diaphonie excessive peut faire percevoir à une station sa
propre transmission comme une collision locale. Les caractéristiques d’une collision distante sont celles d’une
trame de longueur inférieure à la longueur minimum, dont la somme de contrôle FCS est invalide, mais qui ne
manifeste pas de signe de collision locale tel qu’une surtension ou une activité de réception/transmission
simultanée. Cette sorte de collision résulte habituellement de collisions qui se produisent du côté éloigné d’une
connexion répétée. Un répéteur ne transmettra pas un état de surtension, et ne peut pas être à l’origine de
l’activité simultanée des paires TX et RX de la station. La station doit être en train de transmettre pour que les
deux paires soient actives, ce qui constitue une collision locale. Sur les réseaux UTP, il s’agit d’un type de
collision couramment observable.
Il ne reste aucune possibilité pour une collision normale ou légale après que les 64 premiers octets aient été
transmis par les stations émettrices. Les collisions qui se produisent après les 64 premiers octets sont appelées
"collisions tardives". La différence la plus significative entre les collisions tardives et les collisions qui se
produisent avant les 64 premiers octets réside dans le fait que la carte réseau Ethernet retransmettra
automatiquement une trame entrée en collision de façon normale, mais ne le fera pas pour une trame dont la
collision a été tardive. Au niveau de la carte réseau, tout s’est bien déroulé, et les couches supérieures de la pile
de protocoles doivent déterminer que la trame a été perdue. Hormis la retransmission, une station qui détecte
une collision tardive la traite exactement de la même façon qu’une collision normale.
6.2.7 Erreurs Ethernet
La connaissance des erreurs types est inestimable pour comprendre le fonctionnement et le dépannage des
réseaux Ethernet.
Voici les sources d’erreur types d’Ethernet:
Collision ou rebut(runt) – Transmission simultanée qui se produit avant que la tranche de temps ne se
soit écoulée
Collision tardive – Transmission simultanée qui se produit après que la tranche de temps se soit écoulée
Jabber, trame longue et erreurs de plage – Transmission excessivement ou illégalement longue
Une trame longue est une trame, étiquetée ou non, dont la longueur dépasse la taille légale. Il n’est pas tenu
compte du fait que la trame a une somme de contrôle FCS valide. Cette erreur signifie en général que du jabber a
été détecté sur le réseau.
Une trame courte est une trame qui est plus petite que la taille minimum légale de 64 octets, et dont la séquence
de contrôle de trame est bonne. Certains analyseurs de protocole et moniteurs de réseau appellent ces trames
" runts ". En général, la présence de trames courtes ne veut pas dire que le réseau est défaillant.
Le terme de jargon runt désigne en général quelque chose d’inférieur à la taille de trame légale. Il peut se
rapporter à des trames courtes dont la somme de contrôle FCS est valide, bien qu’il soit plutôt employé pour les
fragments de collision.
Un nombre élevé d’erreurs FCS d’une seule station est habituellement le signe d’une carte réseau défaillante
et/ou de pilotes logiciels défaillants ou corrompus, ou encore d’un mauvais câble reliant cette station au réseau.
Si les erreurs FCS sont associées à de nombreuses stations, elles sont généralement dues à un mauvais
câblage, à une version inappropriée du pilote de la carte réseau, à un port de concentrateur défaillant ou à un
bruit induit dans les systèmes de câbles.
On parle d’erreur d’alignement lorsqu’un message ne se termine pas par une frontière entre octets. Plutôt qu’un
nombre correct de bits binaires formant des groupements d’octets complets, on observe des bits supplémentaires
(moins de huit). Une telle trame est tronquée à la frontière entre octets la plus proche, et une erreur d’alignement
est signalée si la somme de contrôle FCS échoue. Cette erreur est souvent due à des pilotes incorrects ou à une
collision, et elle s’accompagne fréquemment d’une défaillance de la somme de contrôle FCS.
On parle d’erreur de plage lorsque la valeur du champ de longueur d’une trame ne correspond pas au nombre
d’octets réel dénombré dans la trame reçue. Cette erreur apparaît également lorsque la valeur du champ de
longueur est inférieure à la taille minimum légale sans remplissage du champ de données. Une erreur similaire,
Out of Range, est signalée lorsque la valeur du champ de longueur indique une taille de données qui est trop
grande pour être légale.
Fluke Networks a inventé le terme fantôme (ghost) pour désigner l’énergie (bruit) détectée sur le câble qui semble
être une trame, mais à laquelle il manque un SFD valide. Pour être qualifiée de fantôme, la trame doit être d’une
longueur de 72 octets au moins, préambule compris. Sinon, elle entre dans la catégorie des collisions distantes.
En raison de la nature particulière des fantômes, il est important de noter que les résultats des tests dépendent
grandement de l’endroit du segment où la mesure est effectuée.
Les boucles de mise à la terre et d’autres anomalies de câblage sont habituellement à l’origine du ghosting. La
plupart des outils de surveillance du réseau ne détectent pas l’existence des fantômes pour la même raison qu’ils
ne détectent pas les collisions de préambule. Les outils se fient entièrement à ce que le jeu de circuits leur
indique. Les analyseurs de protocole logiciels, de nombreux analyseurs de protocole matériels, les outils de
diagnostics portatifs, ainsi que la plupart des sondes de surveillance à distance (RMON) ne détectent pas ces
événements.
6.2.9 Autonégociation Ethernet
Lorsque Ethernet est passé de 10 à 100, puis à 1000 Mbits/s, il est devenu nécessaire de rendre chaque
technologie interopérable, au point de pouvoir connecter directement les interfaces 10, 100 et 1000. Un
processus appelé autonégociation des vitesses en half duplex ou full duplex a été développé. Plus
particulièrement, au moment où Fast Ethernet a été introduite, la norme incluait une méthode permettant de
configurer de façon automatique une interface donnée afin de l’adapter à la vitesse et aux capacités du partenaire
de liaison. Ce processus indique comment deux partenaires de liaison peuvent négocier automatiquement une
L’autonégociation est effectuée en transmettant une rafale d’impulsions de liaison 10BaseT émise par chacun
des deux partenaires de liaison. La rafale communique les capacités de la station émettrice à son partenaire de
liaison. Après avoir interprété ce que lui propose son partenaire, chaque station bascule sur la configuration
commune la plus performante et établit une liaison à cette vitesse. Si un incident quelconque interrompt les
communications et que la liaison est perdue, les deux partenaires de liaison tentent en premier lieu d’établir une
nouvelle fois la liaison à la vitesse qu’ils avaient négociée en dernier. Si cette tentative échoue, ou si la liaison a
été perdue depuis trop longtemps, le processus d’autonégociation recommence. La liaison peut être perdue en
raison de facteurs externes, telles qu’une défaillance de câble ou une réinitialisation émise par l’un des
partenaires de liaison.
Pour le cas où les partenaires de liaison ont la possibilité de partager plus d’une technologie, reportez-vous à la
liste de la figure. Cette liste sert à déterminer quelle technologie doit être choisie parmi les configurations
proposées.
Les implémentations Ethernet à fibre optique ne figurent pas dans cette liste de résolution prioritaire car
l’électronique et l’optique de l’interface ne se prêtent pas à une reconfiguration facile entre implémentations. Il est
supposé que la configuration de l'interface est fixe. Si les deux interfaces sont en mesure d’autonégocier, c’est
qu’elles utilisent déjà les mêmes implémentations Ethernet. Cependant, il reste quelques choix de configuration à
Résumé :
Ethernet n’est pas une technologie réseau unique, mais une famille de technologies de réseau local qui incluent
l’existant, Fast Ethernet et Gigabit Ethernet. Lorsque Ethernet doit être étendu pour ajouter un nouveau média ou
une nouvelle capacité, l’IEEE publie un nouveau supplément à la norme 802.3. Les nouveaux suppléments
reçoivent une désignation d’une ou deux lettres (p. ex. 802.3u). Ethernet repose sur la signalisation de bande de
base, qui utilise la totalité de la bande passante du média de transmission. Ethernet fonctionne sur deux couches
du modèle OSI, à savoir la moitié inférieure de la couche liaison de données, que l’on appelle sous-couche MAC,
et la couche physique. Sur la couche 1, Ethernet comprend l’interfaçage avec les médias, les signaux, les trains
binaires se déplaçant sur les médias, les composants qui envoient des signaux sur les médias, ainsi que diverses
topologies. Les bits de couche 1 ont besoin d’une structure pour que les trames de la couche 2 OSI puissent être
utilisées. La sous-couche MAC de la couche 2 détermine le type de trame approprié pour le média physique.
L’une des points communs à toute les formes d’Ethernet est la structure de trame. C’est ce qui permet aux
différents types d’Ethernet de fonctionner ensemble.
Voici plusieurs des champs autorisés ou obligatoires d’une trame Ethernet 802.3:
Préambule
Délimiteur de début de trame
Adresse de destination
Adresse source
Longueur/Type
Données et remplissage
Séquence de contrôle de trame
Dans les versions 10 Mbits/s et plus lentes d’Ethernet, le préambule fournit les informations de synchronisation
dont le nœud récepteur a besoin pour interpréter les signaux électriques qu’il reçoit. Le délimiteur de début de
trame marque la fin des informations de synchronisation. Les versions à 10 Mbits/s et plus lentes d’Ethernet sont
asynchrones, c’est-à-dire qu’elles utilisent les informations de synchronisation du préambule pour synchroniser le
circuit de réception avec les données entrantes. Les implémentations à 100 Mbits/s et plus rapides d’Ethernet
sont synchrones. Synchrone signifie que les informations de synchronisation ne sont pas nécessaires, mais pour
des raisons de compatibilité, le préambule et le délimiteur de début de trame (SFD) sont quand même présents.
La figure présente les paramètres d'Ethernet 10 Mbits/s. Ethernet 10 Mbits/s et les versions plus lentes sont
asynchrones. Chaque station de réception utilise huit octets d'informations sur la synchronisation afin de
synchroniser son circuit de réception avec les données entrantes. Les technologies 10BASE5, 10BASE2 et
10BASE-T disposent toutes des mêmes paramètres de synchronisation. Exemple : durée d'un bit à 10 Mbits/s
= 100 nanosecondes (ns) = 0,1 microseconde = un dix millionième de seconde. Cela signifie que sur un réseau
Ethernet de 10 Mbits/s, le transfert d'un bit au niveau de la sous-couche MAC dure 100 ns.
Pour toutes les vitesses de transmission Ethernet de 1 000 Mbits/s ou plus lentes, la transmission ne peut pas
dépasser la durée définie. Cette durée est supérieure au temps théoriquement nécessaire pour aller d'une
extrémité à l'autre du domaine de collision Ethernet traditionnel le plus important, entrer en collision avec une
autre transmission au tout dernier instant et renvoyer les fragments de collision à la station émettrice afin d'être
détectés.
Les normes 10BASE5, 10BASE2 et 10BASE-T présentent aussi le même format de trame.
Le processus de transmission de la version Ethernet initiale est identique jusqu'à la partie inférieure de la
couche physique OSI. Lorsque la trame passe de la sous-couche MAC à la couche physique, d'autres
Le codage Manchester utilise la transition au milieu de la fenêtre de synchronisation pour déterminer la valeur
binaire de cette période de bits. Pour le premier exemple de la figure, la valeur du signal transite vers une
valeur inférieure et est alors interprétée en tant que zéro binaire. Pour le deuxième exemple, la valeur du signal
transite vers une valeur plus élevée et est interprétée en tant que 1 binaire. Le troisième exemple présente une
séquence binaire en alternance. Lorsque les données binaires alternent, il n'est pas nécessaire de revenir au
voltage précédent avant la période de bits suivante. Les ondes du graphique indiquent que les valeurs de bits
binaires sont déterminées d'après le sens de la modification dans une période de bits. Les niveaux de voltage
au début et à la fin d'une période de bits ne sont pas utilisés pour déterminer les valeurs binaires.
Les caractéristiques de l'architecture des technologies Ethernet initiales présentent plusieurs points communs.
Les réseaux comportent généralement plusieurs types de médias. La norme permet de garantir
l'interopérabilité. La conception générale de l'architecture est plus importante dans les réseaux de médias
7.1.2 10BASE5
Cette page présente le produit Ethernet d'origine, développé en 1980: 10BASE5. Ce produit transmettait
10 Mbits/s sur un bus à câble coaxial unique.
Son intérêt réside dans le fait qu'il a été le premier support utilisé pour Ethernet. Il a également été inclus dans
la norme 802.3 d'origine. Le principal avantage du câble 10BASE5 était sa longueur. On le trouve encore dans
les anciennes installations. Il n'est pas recommandé pour les nouvelles installations. Les systèmes 10BASE5
sont peu onéreux et ne nécessitent aucune configuration. Ils présentent toutefois deux inconvénients : les
composants de base tels que les cartes réseau sont très difficiles à trouver et ils sont sensibles à la réflexion
des signaux sur le câble. Les systèmes 10BASE5 constituent également un point de défaillance unique.
Ils utilisent le codage Manchester et comportent un conducteur central rigide. Chaque segment de câble coaxial
épais peut avoir une longueur de 500 m. Le câble est large, lourd et difficile à installer. Cependant, les
limitations sur la distance d’utilisation étaient favorables et cela a prolongé son utilisation dans certaines
applications.
Lorsque le support est un câble coaxial unique, une seule station à la fois peut effectuer un transfert, afin
d'éviter tout risque de collision. Par conséquent, les systèmes 10BASE5 fonctionnent uniquement en mode half-
duplex avec un débit maximum de 10 Mbits/s.
La figure illustre une configuration d'un domaine de collision de bout en bout avec le nombre maximum de
segments et de répéteurs. N'oubliez pas que seuls trois segments peuvent être connectés à des stations. Les
deux autres segments répétés sont utilisés pour étendre le réseau.
7.1.3 10BASE2
7.1.4 10BASE-T
La technologie 10BASE-T utilisait plutôt des câbles en cuivre UTP de catégorie 3 et non des câbles coaxiaux.
Ce type de câble était en effet moins onéreux et plus facile à installer. Le câble était relié à une unité de
connexion centrale qui contenait le bus partagé. Cette unité était un concentrateur. Ce dernier était au centre
d'un ensemble de câbles reliés aux ordinateurs, tels les rayons d'une roue. C’est ce qu’on appelle la topologie
en étoile. Avec l'ajout d'ordinateurs et l'augmentation des distances, la topologie en étoile étendue est apparue.
À l'origine, le système 10BASE-T était un protocole half-duplex, mais des fonctionnalités full duplex ont été
ajoutées ultérieurement. La forte popularité qu'ont connue les réseaux Ethernet entre le milieu et la fin des
années 1990 a eu lieu lorsqu'Ethernet a supplanté la technologie LAN.
Les systèmes 10BASE-T utilisent également le codage Manchester. Un câble UTP 10BASE-T comporte un
conducteur rigide pour chaque fil. La longueur maximale de câble est de 90 m. Le câble UTP utilise des
connecteurs RJ-45 à huit broches. Bien que le câble de catégorie 3 soit adapté aux réseaux 10BASE-T, les
La figure illustre la configuration de broches d'une connexion 10BASE-T. La paire qui transmet des données sur
une unité est connectée à celle qui reçoit des données sur l'autre unité.
Le choix du mode half-duplex ou full duplex dépend de la configuration. La technologie 10BASE-T prend en
charge un trafic de 10 Mbits/s en mode half-duplex et de 20 Mbits/s en mode full duplex.
La technologie Fast Ethernet est dix fois plus rapide que la technologie 10BASE-T. Les bits envoyés ont une
durée plus courte et leur fréquence est plus élevée. Ces signaux risquent donc plus de générer du bruit. Pour
pallier ces problèmes, deux étapes de codage distinctes sont utilisées par les systèmes Ethernet 100 Mbits/s.
La première partie du codage emploie une technique appelée «4B/5B», et la deuxième correspond au codage
de ligne réel propre au câble en cuivre ou à fibre optique.
La figure présente quatre ondes différentes. L'onde de la partie supérieure ne comporte aucune transition au
centre de la fenêtre de synchronisation. L'absence de transition correspond à un zéro binaire. La deuxième
onde comporte une transition au centre de la fenêtre de synchronisation. Cela indique un 1 binaire. La troisième
onde présente une séquence binaire en alternance. La quatrième onde permet de constater que le changement
de signal correspond aux 1 et les lignes horizontales aux 0.
La figure illustre la configuration de broches d'une connexion 100BASE-TX. Vous remarquerez la présence des
deux chemins de réception-transmission distincts. Cette configuration est identique à celle des systèmes
10BASE-T.
La technologie 100BASE-TX prend en charge le trafic 100 Mbits/s en mode half-duplex. Avec ce mode, les
systèmes 100BASE-TX peuvent échanger des données à un débit de 200 Mbits/s. Le mode full duplex va
prendre de plus en plus d'importance au fur et à mesure que de l'augmentation de la vitesse de la technologie
Ethernet.
Dans la figure, l'onde située dans la partie supérieure ne comporte aucune transition, ce qui correspond à un 0
binaire. Dans la deuxième onde, la transition au centre de la fenêtre de synchronisation indique un 1 binaire. La
troisième onde présente une séquence binaire en alternance. Dans les troisième et quatrième ondes, il apparaît
plus clairement que l'absence de transition correspond à un 0 binaire et que la présence d'une transition
indique un 1 binaire.
La figure illustre une configuration de broches et une liaison 100BASE-FX. Une paire en fibre optique associée
à des connecteurs ST ou SC est le plus souvent utilisée.
Les chemins de transmission (TX) et de réception (Rx) de la technologie 100BASE-FX à fibre optique
permettent chacun des transmissions à 200 Mbits/s.
7.1.9 Architecture Fast Ethernet
Les liaisons Fast Ethernet se composent généralement d'une connexion entre une station et un concentrateur
ou un commutateur. Les concentrateurs sont des répéteurs multiports et les commutateurs correspondent à
des ponts multiports. Ils sont soumis aux restrictions de distance des médias UTP, à savoir 100 m.
La figure illustre les longueurs de câbles nécessaires pour l'architecture. La longueur maximale sans répéteur
des liaisons 100BASE-TX peut atteindre 100 m. Avec les commutateurs, cette restriction est devenue moins
importante. La plupart des réseaux Fast Ethernet sont commutés.
7.2 Gigabit et 10 Gigabit Ethernet
7.2.1 Ethernet 1 000 Mbits/s
Cette page décrit les normes Ethernet 1 000 Mbits/s ou Gigabit. Ces normes peuvent utiliser des médias à fibre
optique ou en cuivre pour la transmission des données.
La norme 1000BASE-T (IEEE 802.3ab) utilise un câblage en cuivre équilibré de catégorie 5 ou supérieure. La
norme 1000BASE-X (IEEE 802.3z) définit un débit de 1 Gbit/s en mode full duplex, avec fibre optique.
7.2.2 1000BASE-T
Lorsque la norme Fast Ethernet a été installée pour augmenter la bande passante des stations de travail, des
goulots d'étranglement sont apparus en amont du réseau. La norme 1000BASE-T (IEEE 802.3ab) a été
Avec ce nombre important d'états et les effets de bruit, le signal semble plus analogique que numérique. À
l'instar des signaux analogiques, le système risque plus de générer du bruit en raison du câble et des
problèmes de raccordement.
Les données de la station expéditrice sont soigneusement réparties en quatre courants parallèles, puis codées,
transmises et détectées en parallèle. Enfin, elles sont de nouveau assemblées en un train binaire de réception.
7.2.3 1000BASE-SX et LX
Cette page décrit les systèmes à fibre optique monomodes et multimodes.
La norme IEEE 802.3 recommande d'utiliser la norme Gigabit Ethernet sur des fibres optiques pour le
backbone.
La synchronisation, le format de trame et la transmission sont communs à toutes les versions à 1 000 Mbits/s.
Deux systèmes de codage des signaux sont définis au niveau physique.
Le système 8B/10B est utilisé pour les médias à fibre optique et en cuivre blindés, tandis que la modulation
d'impulsions en amplitude PAM5 (pulse amplitude modulation 5) l'est pour les câbles UTP.
Récapitulons les points communs et les différences entre la norme 10 Gigabit Ethernet et les autres versions de
la technologie Ethernet:
Le format de trame est identique, offrant ainsi une interopérabilité entre toutes les versions initiales,
Fast, Gigabit et 10 Gigabit, sans redéfinir la trame ni convertir les protocoles.
La figure illustre le cas particulier de l'utilisation de quatre sources laser, dont les longueurs d'onde sont
légèrement différentes. Lorsque le flux du signal optique atteint le support, il est démultiplexé en quatre flux de
signaux optiques distincts. Ces flux sont ensuite convertis en quatre trains de bits électroniques lorsqu'ils
effectuent pratiquement le chemin inverse via les sous-couches de la couche MAC.
Actuellement, la plupart des produits 10 Gigabits Ethernet existent sous forme de modules, ou de cartes
d'interface, qui sont ajoutés aux commutateurs et aux routeurs haut de gamme. Au fil de l'évolution des
technologies 10 Gigabit Ethernet, la diversité des composants de signalisation sera plus grande. De même, tout
au long de l'évolution des technologies optiques, des émetteurs et des récepteurs améliorés vont être intégrés
à ces produits, qui bénéficieront davantage de la modularité. Toutes les versions de la norme 10 Gigabit
Ethernet reposent sur l'utilisation de médias à fibre optique. Les types de fibre sont les fibres monomodes de
10 µ et les fibres multimodes de 50 et 62,5 µ. Plusieurs caractéristiques de dispersion et d'atténuation des
fibres sont prises en charge, mais les distances d'utilisation sont limitées.
Bien que cette prise en charge ne concerne que le média à fibre optique, certaines longueurs de câble
maximales sont étonnamment courtes.
Alors que la norme 1 Gigabit Ethernet est désormais largement commercialisée et que les produits 10 Gigabit
deviennent plus disponibles, l'IEEE et l'alliance 10 Gigabit Ethernet travaillent sur les normes 40, 100 et même
160 Gbits/s. Les technologies adoptées vont dépendre de plusieurs facteurs, notamment du niveau de
maturation des technologies et des normes, ou encore du taux d'implantation sur les marchés et du coût.
Des propositions pour des modèles d'arbitrage d'Ethernet autres que CSMA/CD ont été émises. Le problème
des collisions avec les topologies de bus physique des concentrateurs 10BASE5/10BASE2 et 10BASE-
T/100BASE-TX se rencontre de moins en moins fréquemment. L'utilisation de câblages UTP et à fibre optique
avec des chemins Tx et Rx distincts, ainsi que la diminution des coûts des commutateurs limitent l'importance
des connexions pour médias partagés uniques ou half-duplex.
L'avenir des médias réseau peut se décomposer en trois phases:
La phase cuivre (jusqu'à 1 000 Mbits/s, voire plus).
La phase sans fil (approchant les 100 Mbits/s, voire plus).
La phase fibre optique (actuellement à 10 000 Mbits/s, devrait bientôt dépasser ce seuil).
Les médias en cuivre et sans fil présentent des limites physiques et pratiques au niveau des signaux à haute
fréquence émis. Cela ne sera pas le cas pour la fibre optique. Les capacités de la bande passante sur fibre
optique sont vastes et aucun problème de restriction ne s'est encore posé. Dans les systèmes à fibre optique,
ce sont essentiellement les processus de fabrication des fibres et la technologie électronique (telle que les
émetteurs et les détecteurs) qui limitent la vitesse. À l'avenir, l'utilisation de sources lumineuses laser et de la
fibre optique monomode prévaudra fortement dans l'évolution d'Ethernet.
Résumé :
Ethernet est une technologie dont la vitesse a été multipliée par 1 000, de 10 à 10 000 Mbits/s, en moins d'une
décennie. Toutes les versions d'Ethernet présentent une structure de trame similaire, permettant une excellente
interopérabilité. La plupart des connexions en cuivre Ethernet sont désormais en mode full duplex commuté, et
la technologie Ethernet avec câblage en cuivre la plus rapide est 1000BASE-T, ou Gigabit Ethernet. La
technologie 10 Gigabit Ethernet et les versions plus rapides utilisent essentiellement des fibres optiques.
Les technologies Ethernet 10BASE5, 10BASE2 et 10BASE-T sont considérées comme les versions initiales
d'Ethernet. Elles ont en commun quatre caractéristiques, à savoir les paramètres de synchronisation, le format
de la trame, le processus de transmission et la règle de conception de base.
Elles codent les données sur un signal électrique. La forme de codage utilisée dans les systèmes de 10 Mbits/s
est appelée « codage Manchester ». Ce type de codage repose sur les changements de tension pour
représenter les nombres binaires 0 et 1. Une hausse ou une baisse de la tension pendant une certaine durée
(période de bits) détermine la valeur binaire du bit.
Outre une période de bits standard, les normes Ethernet définissent des limites pour les tranches de temps et
l'espacement intertrame. La durée des transmissions est fonction du type de média utilisé et des normes de
synchronisation garantissent l'interopérabilité. La fenêtre temporelle de la technologie Ethernet de 10 Mbits/s se
caractérise par un ensemble pouvant comprendre jusqu'à cinq segments séparés par un maximum de quatre
répéteurs.
Le câble coaxial fin unique a été le premier support des systèmes Ethernet. La norme 10BASE2, qui utilise un
câble coaxiale plus fin, a été introduite en 1985. La norme 10BASE-T (fil en cuivre à paires torsadées) est
apparue en 1990. Cette dernière, qui comptait plusieurs fils, permit une signalisation en mode full duplex. La
technologie 10BASE-T prend en charge un trafic de 10 Mbits/s en mode half-duplex et de 20 Mbits/s en mode
full duplex.
Un commutateur est en fait un pont multiport très rapide qui peut contenir des douzaines de ports. Chaque
port crée son propre domaine de collision. Lorsqu'un réseau comporte 20 nœuds, 20 domaines de collision
doivent exister si chaque nœud est connecté à son propre port de commutation. Dans le cas où un port
uplink est installé, un commutateur crée 21 domaines de collision (nœuds uniques). Un commutateur crée
et gère de façon dynamique une table de mémoire associative (CAM, Content Addressable Memory), qui
contient toutes les informations MAC nécessaires aux ports.
8.1.3 Fonctionnement d'un commutateur
Une nouvelle fonction devient disponible lorsque seulement deux nœuds sont connectés. Dans le cadre
d'un réseau basé sur des câbles à paires torsadées, l'une des paires est utilisée pour transmettre le signal
d'un nœud à l'autre. L'autre paire permet de recevoir le signal. Les signaux peuvent transiter dans les deux
paires simultanément. Une liaison dont les données sont transmises dans les deux sens et simultanément
est en mode «full duplex».
La plupart des commutateurs prennent en charge ce mode full duplex, de même que la plupart des cartes
réseau. En mode full duplex, aucun conflit ne se produit au niveau du média. Les domaines de collision
n'existent plus. Normalement, l'activation du mode full duplex a pour effet de doubler le volume de la bande
passante.
Outre l'apparition de microprocesseurs et de mémoires plus performants, deux autres progrès
techniques ont rendu possible le développement des commutateurs. La mémoire CAM effectue
l'opération inverse des mémoires traditionnelles. Un contenu est fourni à la mémoire et l'adresse
correspondante est récupérée. Cette mémoire permet à un commutateur de rechercher un port associé
à une adresse MAC sans algorithme de recherche. Un circuit intégré à application spécifique (ASIC)
est un circuit intégré doté de fonctionnalités personnalisées pour un usage particulier (matériel ou
projet) et non un usage générique. Un ASIC permet à des fonctions logicielles d’être effectuées de
Cependant, la vérification des erreurs n'est pas effectuée. Un commutateur peut également attendre de
recevoir la trame entière avant de la transférer vers le port de destination. Cela permet au logiciel de
commutation de vérifier la séquence de contrôle de trame (FCS, Frame Check Sequence). Si la trame n'est
Une solution intermédiaire de commutation des paquets est le mode «Fragment-Free». Ce mode lit les
64 premiers octets, incluant l'en-tête de la trame, puis il commence à transmettre le paquet avant même
d'avoir terminé la lecture du champ de données et de la somme de contrôle. Ce mode vérifie la fiabilité des
adresses et des informations relatives au protocole LLC afin de garantir que les données sont correctement
traitées et qu'elles sont acheminées vers la destination appropriée.
Avec le mode de commutation «Cut-through», les débits des ports source et de destination doivent être
identiques pour ne pas endommager la trame. On parle alors de commutation symétrique. Lorsque les
débits sont différents, la trame utilise un certain débit pour la réception et un autre pour l'émission. C'est ce
qu'on appelle une commutation asymétrique. Le mode «Store-and-Forward» doit être utilisé dans le cadre
d'une commutation asymétrique.
Cette dernière fournit des connexions commutées entre les ports ayant une bande passante différente. La
commutation asymétrique est particulièrement adaptée aux flux de trafic client-serveur où plusieurs clients
communiquent avec un serveur simultanément. Une bande passante plus large doit être allouée au port du
serveur afin d'éviter qu'un goulot d'étranglement ne se produise au niveau de ce port.
Chaque port d'un commutateur utilisant le protocole STP a pour état l'un des cinq suivants:
Blocage
Écoute
Apprentissage
Acheminement
Désactivation
Un port change d'état comme suit:
De l'initialisation au blocage.
Du blocage à l'écoute ou à la désactivation.
De l'écoute à l'apprentissage ou à la désactivation.
De l'apprentissage à l'acheminement ou à la désactivation.
De l'acheminement à la désactivation.
Le protocole STP permet de créer une arborescence hiérarchique logique sans boucle. Cependant, des
chemins de remplacement sont toujours disponibles, si nécessaire.
8.2 Domaines de collision et de broadcast
Ces équipements sont des équipements de couche OSI 1, 2 ou 3. Les équipements de couche 2 et 3
segmentent les domaines de collision. Ce processus est d'ailleurs appelé «segmentation».
Les équipements de couche 1, notamment les répéteurs et les concentrateurs, sont principalement utilisés
pour étendre les segments de câble Ethernet.
Pour qu'un réseau 10BASE-T faisant appel à des répéteurs fonctionne correctement, le calcul du délai
entre deux hôtes est soumis à des conditions. Ainsi, toutes les stations de travail détectent l'ensemble des
collisions qui se produisent sur le réseau. La latence des répéteurs, le délai de propagation et la latence
des cartes réseau participent à la règle des quatre répéteurs.
Un domaine de collision est créé lorsque plusieurs ordinateurs sont connectés à un même média partagé
qui n'est pas relié aux autres équipements du réseau. Cette situation limite le nombre des ordinateurs qui
peuvent utiliser le segment. Les équipements de couche 1 permettent d'étendre les domaines de collision,
mais pas de les contrôler.
Les équipements de couche 2 segmentent ou divisent les domaines de collision.
Ces domaines de taille réduite contiennent moins d'hôtes et le trafic est moins dense que dans le domaine
d'origine.
Moins il y a d'hôtes dans un domaine de collision, plus la disponibilité du média est élevée. Ce type de
réseau fonctionne parfaitement si le trafic entre les segments reliés par des ponts n'est pas trop chargé.
Sinon, l'équipement de couche 2 devient un goulot d’étranglement, ce qui ralentit la vitesse de
communication.
Les équipements de couche 2 et 3 ne transmettent pas les collisions. Les équipements de couche 3
subdivisent les domaines de collision en domaines plus petits.
Lorsqu'un nœud doit communiquer avec tous les hôtes du réseau, il envoie une trame de broadcast avec
une adresse MAC de destination 0xFFFFFFFFFFFF. La carte réseau de chaque hôte doit alors envoyer
une réponse à cette adresse.
Les équipements de couche 2 doivent diffuser la totalité du trafic de broadcasts et de multicast.
L'accumulation du trafic de broadcasts et de multicast de chaque équipement du réseau s'appelle le
rayonnement de diffusion (broadcast radiation). Il arrive alors que le réseau soit saturé au point que les
données d'application ne disposent plus d'une bande passante suffisante. Lorsque cela se produit, il est
impossible d'établir de nouvelles connexions, et certaines connexions en cours sont interrompues. Cette
situation est connue sous le nom de tempête de broadcasts. Plus le réseau commuté prend de l'importance
et plus le risque de tempête de broadcasts devient fort.
Une carte réseau dépend du processeur pour traiter chaque groupe de broadcasts ou de multicasts auquel
elle appartient. Par conséquent, le rayonnement de diffusion influe sur les performances des hôtes du
réseau.
Bien que les valeurs indiquées dans la figure puissent paraître relativement faibles, elles représentent un
réseau IP classique, relativement bien conçu. Lorsqu'un pic de broadcasts ou de multicasts se produit en
raison d'une tempête, la diminution des performances du processeur peut être beaucoup plus importante
que la normale. Les tempêtes de broadcasts peuvent provenir d'un équipement qui demande des
informations à un réseau devenu trop important. Le nombre impressionnant de réponses envoyées à la
requête d'origine empêche l'équipement de les traiter, ou la première requête déclenche des requêtes
similaires sur les autres équipements, bloquant ainsi le trafic normal du réseau.
Par exemple, la commande telnet mumble.com traduit un nom en une adresse IP lorsque vous utilisez
le système DNS. Une requête ARP est diffusée pour localiser l'adresse MAC. En général, les stations de
travail IP peuvent conserver de 10 à 100 adresses dans le cache ARP pendant environ 2 heures. Dans une
station de travail standard, le débit du protocole ARP est d'environ 50 adresses toutes les 2 heures (soit
0,007 adresse par seconde). Par conséquent, 2 000 stations d'extrémité IP fourniront environ 14 adresses
par seconde.
Les protocoles de routage qui sont configurés sur un réseau peuvent augmenter de manière significative le
trafic de broadcasts. Certains administrateurs configurent la totalité des stations de travail de sorte qu'elles
utilisent le protocole RIP (Routing Information Protocol) comme garantie d'accessibilité et de redondance.
Toutes les 30 secondes, le protocole RIPv1 utilise les broadcasts pour transmettre la table de routage RIP
complète vers d'autres routeurs RIP. Si 2 000 stations de travail sont configurées pour exécuter le protocole
RIP, ces stations génèrent 3 333 broadcasts par seconde sachant qu'une moyenne de 50 paquets est
requise pour transmettre la table de routage. La plupart des administrateurs réseau configurent le protocole
RIP sur cinq à dix routeurs uniquement. Pour une table de routage comprenant 50 paquets, 10
routeurs RIP génèrent environ 16 broadcasts par seconde.
Les applications de multicast IP peuvent nuire aux performances des réseaux commutés personnalisés de
grande taille. La diffusion multicast est un moyen efficace d'envoyer un flux de données multimédias à
plusieurs utilisateurs d'un concentrateur à média partagé. Toutefois, ce mode de diffusion n'est pas adapté
Lorsqu'un réseau LAN est subdivisé en plusieurs domaines de collision, chaque hôte du réseau peut
accéder plus facilement au média. Les risques de collision sont réduits et la bande passante disponible
pour chaque hôte est plus importante. Les broadcasts sont transmis par les équipements de couche 2. Un
trop grand nombre de broadcasts peut nuire aux performances du réseau LAN tout entier. Les broadcasts
doivent être contrôlés au niveau de la couche 3, car les équipements de couche 1 et 2 ne sont pas
capables d'effectuer cette opération. Un domaine de broadcast comprend la totalité des domaines de
collision qui traitent une même trame de broadcast. Ainsi, les nœuds appartenant au segment du réseau
relié par un équipement de couche 3 font également partie du domaine de broadcast. Les domaines de
broadcast sont contrôlés au niveau de la couche 3, car les routeurs n'acheminent pas les broadcasts. Les
routeurs opèrent au niveau des couches 1, 2 et 3. À l'instar de tous les équipements de couche 1, les
routeurs disposent d'une connexion physique et transmettent les données sur le média. En outre, les
routeurs procèdent à l'encapsulation de couche 2 sur toutes les interfaces et effectuent les mêmes
opérations que les autres équipements de couche 2. La couche 3 permet aux routeurs de segmenter les
domaines de broadcast.
Pour qu'un paquet puisse être envoyé via un routeur, celui-ci doit déjà avoir été traité par un équipement de
couche 2 et les informations relatives à la trame doivent avoir été éliminées. La transmission de couche 3
est fonction de l'adresse IP de destination et non de l'adresse MAC. Pour qu'un paquet soit envoyé, celui-ci
doit contenir une adresse IP qui n'appartienne pas à la plage d'adresses affectées au réseau LAN et le
routeur doit disposer de la destination du paquet dans sa table de routage.
Voici la règle expliquant la différence: un équipement de couche 1 transmettra toujours une trame, alors
qu’un équipement de couche 2 essayera toujours de la transmettre. En d’autres mots, l'équipement de
couche 2 transmet toujours les trames à moins qu'un événement ne l'en empêche. Un équipement de
couche 3 ne transmet pas de trame à moins d'y être obligé. L’utilisation de cette règle permet d’identifier
comment les données sont acheminées sur un réseau.
Les équipements de couche 1 n'effectuent pas de filtrage. Par conséquent, la totalité des données reçues
est transmise au segment suivant. La trame est simplement régénérée et resynchronisée afin de retrouver
sa qualité de transmission initiale. Tous les segments reliés par des équipements de couche 1
appartiennent au même domaine (collision et broadcast).
Les équipements de couche 2 filtrent les trames de données en fonction des adresses MAC de destination.
Une trame est transmise s'il s'agit d'une adresse inconnue qui se trouve en dehors du domaine de collision.
La trame est également transmise s'il s'agit d'une adresse de broadcast, de multicast ou d'unicast devant
être acheminée en dehors du domaine de collision local. La non-transmission d'une trame se produit
uniquement dans le cas où un équipement de couche 2 détecte que l'hôte émetteur et l'hôte récepteur se
trouvent dans le même domaine de collision. Un équipement de couche 2, tel qu'un pont, crée plusieurs
domaines de collision, mais ne gère qu'un seul domaine de broadcast.
Les équipements de couche 3 filtrent les paquets de données en fonction des adresses IP de destination.
Un paquet sera transmis uniquement si son adresse IP de destination est en dehors du domaine de
broadcast et que le routeur a identifié l'adresse à laquelle envoyer le paquet. Un équipement de couche 3
crée plusieurs domaines de collision et de broadcast.
Le flux des données transitant sur un réseau de routage IP implique le passage des données par des
équipements de gestion du trafic au niveau des couches 1, 2 et 3 du modèle OSI. La couche 1 sert à la
transmission des données sur le média physique, la couche 2 à la gestion du domaine de collision et la
couche 3 à la gestion du domaine de broadcast.
8.2.7 Qu’est-ce qu’un segment de réseau?
Dans le domaine des échanges informatiques, la définition d'un segment est la suivante:
Section d’un réseau reliée par des ponts, des routeurs ou des commutateurs.
Dans un réseau local à topologie de bus, un segment est un circuit électrique continu souvent
connecté à d’autres segments de même type par des répéteurs.
C’est aussi un terme utilisé dans la spécification TCP pour décrire une unité d’information de la
couche de transport. Les termes datagramme, trame, message et paquets sont aussi utilisés pour
décrire des regroupements logiques de données au niveau de différentes couches du modèle de
référence OSI dans divers cercles technologiques.
Pour que ce terme soit correctement défini, il doit être présenté dans son contexte. Si un segment est utilisé
dans le contexte du protocole TCP, celui-ci est défini comme un élément de données séparé. Si un
segment est utilisé dans le contexte d'un média réseau physique basé sur des routeurs, il est considéré
comme étant l'une des parties, ou sections, du réseau complet.
Résumé :
La technologie Ethernet constitue un média partagé à bande de base, ce qui signifie qu'un seul nœud à la
fois peut transmettre des données. L'augmentation du nombre de nœuds sur un segment unique entraîne
une augmentation des besoins en bande passante, entraînant à son tour une augmentation des risques de
collision. L'une des solutions consiste à fragmenter le segment réseau principal en plusieurs parties et à le
subdiviser en domaines de collision distincts. Les ponts et les commutateurs ont été créés pour segmenter
les réseaux en plusieurs domaines de collision.
Examinez les couches du modèle TCP/IP par rapport à l'objectif initial d'Internet afin d'éclaircir la situation. Les
quatre couches du modèle TCP/IP sont les suivantes: la couche application, la couche transport, la couche
Internet et la couche d'accès au réseau. Certaines couches du modèle TCP/IP portent le même nom que celles
du modèle OSI. Il est essentiel de ne pas confondre les fonctions des couches, car ces dernières jouent des rôles
différents dans chaque modèle. La version actuelle du protocole TCP/IP a été normalisée en septembre 1981.
9.1.2 La couche application
La couche application gère les protocoles de niveau supérieur, les représentations, le code et le contrôle du
dialogue. La pile de protocoles TCP/IP regroupe en une seule couche la totalité des aspects liés aux applications
et vérifie que les données sont préparées de manière adéquate pour la couche suivante. Le protocole TCP/IP
contient des spécifications relatives aux couches transport et Internet, notamment IP et TCP, et d'autres relatives
aux applications courantes. Outre la prise en charge du transfert de fichiers, du courrier électronique et de la
connexion à distance, le modèle TCP/IP possède des protocoles prenant en charge les services suivants:
Le protocole FTP (File Transfer Protocol): ce protocole est un service fiable orienté connexion qui utilise
le protocole TCP pour transférer des fichiers entre des systèmes qui le prennent en charge. Il gère les
transferts bidirectionnels des fichiers binaires et ASCII.
Le protocole TFTP (Trivial File Transfer Protocol): ce protocole est un service non orienté connexion qui
utilise le protocole de datagramme utilisateur UDP (User Datagram Protocol). Il est utilisé sur le routeur
pour transférer des fichiers de configuration et des images de la plate-forme logicielle IOS Cisco, ainsi
que pour transférer des fichiers entre des systèmes qui le prennent en charge. Il est utile dans certains
LAN, car il s'exécute plus rapidement que le protocole FTP dans un environnement stable.
Le protocole NFS (Network File System): ce protocole est un ensemble de protocoles pour systèmes de
fichiers distribués, développé par Sun Microsystems, permettant un accès aux fichiers d'un équipement
de stockage distant, tel qu'un disque dur, dans un réseau.
Le protocole SMTP (Simple Mail Transfer Protocol): ce protocole régit la transmission du courrier
électronique sur les réseaux informatiques. Il ne permet pas de transmettre des données autres que du
texte en clair.
Telnet: ce protocole permet d'accéder à distance à un autre ordinateur. Cela permet à un utilisateur
d’ouvrir une session sur un hôte Internet et d’exécuter diverses commandes. Un client Telnet est qualifié
d'hôte local. Un serveur Telnet est qualifié d'hôte distant.
Les protocoles de transport segmentent et rassemblent les données envoyées par des applications de couche
supérieure en un même flux de données, ou connexion logique, entre les deux points d'extrémité.
Internet est souvent représenté par un nuage. La couche transport envoie des paquets de données d'une source
à une destination à travers ce nuage.
Le rôle principal de la couche transport est d'assurer une fiabilité et un contrôle de bout en bout lors du transfert
des données à travers ce nuage. Les fenêtres glissantes, les numéros de séquençage et les accusés de
réception permettent d'obtenir ce résultat. La couche transport définit également une connectivité de bout en bout
entre les applications hôtes. Les protocoles de la couche transport incluent les protocoles TCP et UDP.
Les pilotes d'application, les cartes modem et les autres équipements s'exécutent au niveau de la couche d'accès
au réseau. Cette dernière définit les procédures utilisées pour communiquer avec le matériel réseau et accéder
au média de transmission. Les protocoles de modem, à savoir les protocoles SLIP (Serial Line Internet Protocol)
et PPP (Point-to-Point Protocol) sont utilisés pour accéder au réseau par modem. Plusieurs protocoles sont
nécessaires pour déterminer les caractéristiques matérielles, logicielles et de transmission au niveau de cette
couche. Cela peut entraîner une certaine confusion dans l'esprit des utilisateurs. La plupart des protocoles
facilement reconnaissables s'exécutent au niveau des couches Internet et transport du protocole TCP/IP.
En outre, les protocoles de la couche d'accès au réseau mappent les adresses IP avec les adresses matérielles
physiques et encapsulent les paquets IP dans des trames. La couche d'accès au réseau définit la connexion au
média physique en fonction de l'interface réseau et du type de matériel utilisés.
Voici un exemple de configuration de la couche d'accès au réseau faisant appel à une installation système
Windows et à une carte réseau tierce. Certaines versions de Windows détectent automatiquement la carte réseau
et installent ensuite les pilotes appropriés. Avec des versions plus anciennes de Windows, l'utilisateur doit
La figure présente brièvement la connexion d'un réseau physique à un autre par l'intermédiaire d'un ordinateur
spécifique appelé «routeur». Ces réseaux sont directement connectés au routeur. Les routeurs servent à prendre
les décisions d'acheminement nécessaires à la communication entre deux réseaux. Plusieurs routeurs sont
requis pour traiter un volume important de transmissions sur le réseau.
La figure illustre trois réseaux physiques connectés par l'intermédiaire de deux routeurs. Ceux-ci prennent des
décisions complexes afin de permettre aux utilisateurs de tous les réseaux de communiquer avec chacun d'entre
eux. Les réseaux ne sont pas tous directement connectés entre eux. Par conséquent, les routeurs doivent définir
une méthode pour gérer cette situation.
L'une des solutions consiste pour le routeur à établir une liste répertoriant tous les ordinateurs et leur chemin
d'accès. Le routeur sélectionne ensuite la méthode d'envoi des paquets de données en fonction de cette table de
référence. Les paquets sont alors envoyés en fonction de l'adresse IP de l'ordinateur de destination. Néanmoins,
plus le nombre d'utilisateurs connectés au réseau augmente, plus cette solution s'avère compliquée. La notion
d'évolutivité apparaît lorsque le routeur détient une liste de tous les réseaux, mais qu'il laisse la responsabilité de
La figure présente la transparence du système requise par les utilisateurs. Néanmoins, les structures physiques
et logiques qui composent le nuage Internet peuvent se révéler particulièrement complexes, comme l'illustre la
figure . Internet a évolué rapidement, acceptant de plus en plus d'utilisateurs. Sa capacité d'évolution (plus de
90 000 routes principales et 300 000 000 utilisateurs finaux) traduit l'efficacité de son architecture.
Deux ordinateurs placés à deux endroits différents de la planète peuvent communiquer de façon fiable si tant est
qu'ils respectent certaines exigences en matière de protocole et de configuration matérielle et logicielle. Internet a
été rendu possible grâce à la normalisation des techniques de transmission des données sur les réseaux
9.2 Les adresses Internet
9.2.1 L'adressage IP
Un ordinateur peut être connecté à plusieurs réseaux. Si tel est le cas, le système doit recevoir plusieurs
adresses. Chaque adresse identifie la connexion d'un ordinateur à un réseau différent. Chaque point de
connexion, ou interface, d'un équipement dispose d'une adresse associée à un réseau. Cela permet à d'autres
ordinateurs de localiser cet équipement sur un réseau spécifique. La combinaison d'une adresse réseau et d'une
adresse hôte crée une adresse unique pour chaque équipement du réseau. Tout ordinateur appartenant à un
réseau TCP/IP doit disposer d'un identificateur unique, ou adresse IP. Cette adresse, qui intervient au niveau de
la couche 3, permet à un ordinateur de localiser un autre ordinateur sur le réseau. Tous les ordinateurs
possèdent également une adresse physique unique, également appelée «adresse MAC». Celle-ci est attribuée
par le fabricant de la carte réseau. Les adresses MAC opèrent au niveau de la couche 2 du modèle OSI.
Une adresse IP est une séquence de 32 bits composée de 1 et de 0. La figure donne un exemple de
nombre 32 bits. Afin de faciliter leur lecture, les adresses IP sont généralement exprimées sous la forme de
quatre nombres décimaux séparés par des points. Voici, par exemple, l'adresse IP d'un ordinateur : 192.168.1.2.
Un autre ordinateur disposera de l'adresse : 128.10.2.1. Il s'agit de la notation entière avec des points de
séparation. Chaque élément d'une adresse s'appelle un octet (toutes les adresses se composent de huit chiffres
binaires). Par exemple, l'adresse IP 192.168.1.8 correspond à la valeur 11000000.10101000.00000001.00001000
en notation binaire. La notation entière avec des points de séparation est plus simple à comprendre que la
méthode des 1 et des 0 binaires. En outre, elle permet d'éviter un grand nombre d'erreurs de transposition liées à
l'utilisation des nombres binaires.
Lors de la conversion d'un nombre décimal en nombre binaire, vous devez rechercher la puissance de deux la
plus proche possible du nombre décimal à convertir, sans dépasser celui-ci. Dans le cadre d'un processus
informatisé, il est plus logique de commencer par les valeurs les plus élevées pouvant être contenues dans un ou
deux octets. Comme nous l'avons vu précédemment, le regroupement standard est de huit bits, soit un octet.
Cependant, il arrive que la valeur la plus élevée pouvant être contenue dans un octet ne soit pas suffisante par
rapport aux valeurs requises. Pour pallier à ce problème, les octets sont regroupés. Au lieu d'avoir deux nombres
de huit bits chacun, un seul nombre de 16 bits est créé. Au lieu d'avoir trois nombres de huit bits chacun, un seul
nombre de 24 bits est créé. La même règle que celle des nombres de huit bits s'applique. Vous devez ensuite
multiplier la valeur de la position précédente par deux pour obtenir la valeur de la colonne actuelle.
Cette méthode est valable pour tous les nombres décimaux. Prenons l'exemple du nombre décimal un million.
Sachant qu'un million est supérieur à la valeur maximale pouvant être contenue dans deux octets (soit 65 535),
au moins trois octets sont nécessaires. En procédant à des multiplications par deux jusqu'à ce que vous
atteigniez 24 bits (soit trois octets), vous obtenez la valeur 8 388 608. Autrement dit, la valeur la plus élevée
pouvant être contenue dans 24 bits est 16 777 215. Ainsi, en prenant la valeur 24 bits comme point de départ,
suivez ce processus jusqu'à atteindre la valeur zéro. En effectuant la procédure décrite, un million (valeur
décimale) correspond à 00001111 01000010 01000000 (valeur binaire).
La figure comprend des exercices de conversion de nombres décimaux en nombres binaires.
Pour convertir un nombre binaire en nombre décimal, il suffit d’effectuer l’opération en sens inverse. Placez la
valeur binaire dans le tableau. Si un 1 est situé dans une position de colonne, ajoutez cette valeur au total.
Convertissez le nombre 00000100 00011101 en représentation décimale. La bonne réponse est: 1 053.
Un routeur fait appel à une adresse IP pour transmettre des paquets du réseau d'origine vers le réseau de
destination. Les paquets doivent comporter un identificateur pour les réseaux source et de destination. Un routeur
utilise l'adresse IP du réseau de destination afin de remettre le paquet au réseau approprié. Lorsque le paquet
Chaque adresse IP comporte également deux parties. La première partie identifie le réseau auquel le système
est connecté et la seconde partie identifie le système. Comme l'illustre la figure, chaque octet représente une
valeur comprise entre 0 et 255. Chacun des octets est subdivisé en 256 groupes, qui se divisent à leur tour
en 256 sous-groupes avec 256 adresses chacun. Lorsque vous faites référence à l'adresse d'un groupe
directement au-dessus d'un autre groupe de la hiérarchie, tous les groupes qui en dérivent peuvent être
référencés en tant qu'une seule et même unité.
On parle dans ce cas de système d'adressage hiérarchique, car il contient plusieurs niveaux. Chaque adresse IP
regroupe ces deux identificateurs en un seul nombre. Ce nombre doit être unique, faute de quoi l'acheminement
échoue. La première partie identifie l'adresse réseau du système. La seconde, appelée «partie hôte», identifie la
machine sur le réseau.
Les adresses IP sont réparties en classes afin de définir des réseaux de grande taille, de taille moyenne et de
petite taille. Les adresses IP de classe A sont affectées aux réseaux de grande taille. Les adresses de classe B
sont utilisées pour les réseaux de taille moyenne et les adresses IP de classe C pour les réseaux de petite taille.
Les étudiants peuvent utiliser l'activité de média interactive pour mieux appréhender les différentes classes
d'adresses.
La page suivante fournit des informations supplémentaires sur les adresses IP de classe A, B, C, D et E.
9.2.4 Adresses IP de classe A, B, C, D et E
Les adresses IP sont regroupées en classes afin de permettre l'adaptation à des réseaux de différentes tailles et
de faciliter leur classification. Cette opération est connue sous le nom d'adressage par classes. Chaque
adresse IP complète de 32 bits est fractionnée en une partie réseau et une partie hôte.
L'adresse de classe A est réservée aux réseaux de très grande taille, avec plus de 16 millions d'adresses hôte
disponibles. Les adresses IP de classe A utilisent uniquement le premier octet pour indiquer l'adresse réseau. Les
trois octets suivants sont utilisés pour définir les adresses hôte.
Le premier bit d'une adresse de classe A est toujours 0. Par conséquent, le nombre le plus faible pouvant être
représenté est 00000000 (0 en décimal) et le plus élevé est 01111111 (127 en décimal). Les valeurs 0 et 127
sont réservées et ne peuvent pas être utilisées comme adresses réseau. Toute adresse commençant par une
valeur comprise entre 1 et 126 dans le premier octet est une adresse de classe A.
Le réseau 127.0.0.0 est réservé pour les tests en bouclage. Les routeurs ou les ordinateurs locaux peuvent
utiliser cette adresse pour s'envoyer des paquets. Par conséquent, ce nombre ne peut pas être attribué à un
réseau.
Les deux premiers bits du premier octet d'une adresse de classe B sont toujours 10. Les six bits suivants peuvent
être des 1 ou des 0. Par conséquent, dans une classe B, le nombre le plus faible pouvant être représenté est
10000000 (128 en décimal) et le plus élevé est 10111111 (191 en décimal). Toute adresse commençant par une
valeur comprise entre 128 et 191 dans le premier octet est une adresse de classe B.
La classe C constitue l'espace le plus utilisé des classes d'adresses initiales. Cet espace d'adressage est réservé
aux réseaux de petite taille (254 hôtes maximum).
Une adresse de classe C commence par la valeur binaire 110. Par conséquent, le nombre le plus faible pouvant
être représenté est 11000000 (192 en décimal) et le plus élevé est 11011111 (223 en décimal). Toute adresse
contenant un nombre compris entre 192 et 223 dans le premier octet est une adresse de classe C.
L'adresse de classe D est réservée à la diffusion multicast d'une adresse IP. Une adresse de multicast est une
adresse réseau unique qui achemine les paquets associés à une adresse de destination vers des groupes
prédéfinis d'adresses IP. Ainsi, une station peut transmettre simultanément un même flux de données vers
plusieurs destinataires.
L'espace d'adressage de classe D, tout comme les autres espaces, est lié à des contraintes mathématiques. Les
quatre premiers bits d'une adresse de classe D doivent correspondre à 1110. Par conséquent, le premier octet
d'une adresse de classe D est compris entre 1100000 et 11101111 (soit 224 et 239 en décimal). Toute
adresse IP commençant par une valeur comprise entre 224 et 239 dans le premier octet est une adresse de
classe D.
Une adresse de classe E a été définie. Toutefois, le groupe IETF (Internet Engineering Task Force) utilise ces
adresses à des fins expérimentales. Aucune adresse de classe E n'est disponible sur Internet. Les quatre
La figure indique la plage d'adresses IP du premier octet (sous forme binaire et décimale) de chaque classe
d'adresse IP.
Certaines adresses hôte sont réservées et ne peuvent pas être affectées aux équipements du réseau. Les
adresses hôte réservées se composent des éléments suivants:
Dans la figure, la section identifiée par la zone supérieure représente le réseau 198.150.11.0. Les données
envoyées à un hôte de ce réseau, de 198.150.11.1 à 198.150.11.254, seront visibles en dehors du réseau local
Une adresse de broadcast – pour diffuser des paquets vers tous les équipements d'un réseau.
Dans la figure, la section identifiée par la zone supérieure représente l'adresse de broadcast 198.150.11.255. Les
données envoyées à l'adresse de broadcast seront lues par tous les hôtes du réseau, de 198.150.11.1 à
198.150.11.254. Le LAN inclus dans la zone inférieure est traité de la même façon que le LAN supérieur, mais
son adresse de broadcast est 198.150.12.255.
Une adresse IP dont tous les bits hôte sont occupés par des 0 binaires est réservée pour l'adresse réseau. Dans
un réseau de classe A, 113.0.0.0 est l’adresse IP du réseau (également connue sous le nom d'ID réseau)
comprenant l’hôte 113.1.2.3. Un routeur utilise l’adresse IP du réseau pour acheminer des données sur Internet.
Dans un réseau de classe B, l'adresse 176.10.0.0 est une adresse réseau, comme l'illustre la figure
Une adresse de broadcast est requise afin de pouvoir envoyer les données à tous les équipements d'un réseau.
On parle de broadcast lorsqu'une source envoie des données à tous les équipements d'un réseau. Pour vérifier
Dans l'exemple 176.10.0.0, les 16 derniers bits forment le champ hôte (ou partie hôte) de l'adresse. Le broadcast
envoyé à tous les équipements du réseau comporterait l'adresse de destination 176.10.255.255, sachant que 255
correspond à la valeur décimale d'un octet contenant 11111111.
Il fallait donc trouver un moyen de veiller à cela. À l'origine, un organisme portant le nom d'InterNIC (Internet
Network Information Center) était chargé de cette vérification. Celui-ci n'existe plus et a été remplacé par l'IANA
(Internet Assigned Numbers Authority). L'IANA gère scrupuleusement les adresses IP disponibles afin de garantir
qu'une même adresse publique n'est pas utilisée deux fois. En cas de doublons d'adresses, Internet devient
instable et ses capacités à transmettre des datagrammes sur le réseau sont compromises.
Chaque adresse IP publique étant unique, deux ordinateurs connectés à un réseau public ne peuvent pas avoir la
même adresse IP publique. Les adresses IP publiques sont mondiales et normalisées. Tous les ordinateurs
connectés à Internet se conforment au système. Les adresses IP publiques doivent être obtenues auprès d'un
fournisseur d'accès Internet (FAI) ou d'un registre moyennant une participation.
Avec la croissance rapide d'Internet est apparu le problème de pénurie d'adresses IP publiques. Pour résoudre
ce problème, de nouveaux systèmes d'adressage, notamment le routage CIDR (Classless interdomain routing) et
la norme IPv6, ont été développés. Ces systèmes seront traités ultérieurement dans le cours.
Les adresses IP privées constituent une solution de rechange au problème de pénurie des adresses IP
publiques. Comme précédemment indiqué, les hôtes d'un réseau public doivent disposer d'une adresse IP
unique. Néanmoins, les réseaux privés qui ne sont pas connectés à Internet peuvent utiliser n'importe quelle
adresse hôte, dès lors que chacun des hôtes du réseau privé est unique. Un grand nombre de réseaux privés
coexistent avec les réseaux publics. Cependant, il est vivement déconseillé d'avoir recours à un réseau privé
utilisant une adresse quelconque, car ce réseau peut être connecté à Internet. La spécification RFC 1918 réserve
trois blocs d'adresses IP pour une utilisation privée et interne. Ceux-ci se composent d'une classe A, d'une plage
d'adresses de classe B et d'une plage d'adresses de classe C. Les adresses contenues dans ces plages ne sont
pas acheminées sur les routeurs du backbone d'Internet. Ces routeurs Internet les rejettent immédiatement. Dans
le cadre de l'adressage d'un intranet non public, d'un TP ou d'un réseau domestique, ces adresses privées
peuvent être utilisées à la place d'adresses uniques mondiales. Les adresses IP privées peuvent être mélangées
aux adresses publiques, comme indiqué dans le graphique. Ainsi, le nombre d'adresses utilisées pour les
connexions internes sera le même.
Le découpage en sous-réseaux constitue l'une des solutions de gestion des adresses IP. Cette méthode, basée
sur la fragmentation de classes d'adresses réseau entières en composants plus petits, a permis d'éviter la
pénurie d'adresses IP. Il est impossible de traiter du protocole TCP/IP sans aborder la question des sous-
réseaux. En tant qu'administrateur système, il est primordial d'appréhender la notion de découpage en sous-
réseaux afin de pouvoir subdiviser un LAN et y identifier les différents réseaux. Dans le cas de réseaux de petite
taille, il n'est pas toujours utile de créer des sous-réseaux. En revanche, dans le cadre des réseaux de grande à
très grande taille, cette opération s'impose. Le découpage d'un réseau en sous-réseaux implique l'utilisation du
masque de sous-réseau afin de fragmenter un réseau de grande taille en segments (ou sous-réseaux) plus petits,
plus faciles à gérer et plus efficaces. On pourrait établir une comparaison avec le système téléphonique
américain qui se compose d'un indicatif régional, d'un indicatif de central et de numéros locaux.
L'administrateur système doit réfléchir aux problèmes suivants lors de l'évolution d'un réseau: il est essentiel de
définir le nombre de sous-réseaux ou de réseaux requis, ainsi que le nombre d'hôtes requis par réseau. En
utilisant des sous-réseaux, le réseau n'est pas limité aux masques de réseau de classe A, B ou C par défaut. En
outre, la conception du réseau est plus flexible.
Pour créer une adresse de sous-réseau, l’administrateur réseau emprunte des bits au champ d’hôte et les
désigne comme champ de sous-réseau. Le nombre minimal de bits pouvant être empruntés est deux. Lors de la
création d'un sous-réseau pour lequel un seul bit a été emprunté, le numéro de réseau est .0, tandis que le
numéro de broadcast est le réseau .255. Le nombre maximal de bits pouvant être empruntés est égal à tout
nombre laissant au moins deux bits disponibles pour le numéro d’hôte.
Lors de son adoption dans les années 80, le protocole TCP/IP s'appuyait sur un système d'adressage à deux
niveaux. Ses possibilités d'évolution étaient alors parfaitement adaptées. Malheureusement, ses concepteurs ne
pouvaient pas prévoir qu'il allait soutenir un réseau mondial dédié à l'information, aux échanges commerciaux et
au divertissement. Dans les années 80, la stratégie d'adressage proposée par la version IPv4 s'avérait
relativement évolutive. Néanmoins, elle ne réussit pas à satisfaire les exigences liées à l'attribution des adresses.
Les adresses de classe A et B représentent 75% de l'espace d'adresses IPv4. Toutefois, moins de 17 000
organisations peuvent recevoir un numéro de réseau de classe A ou B. Le nombre d'adresses réseau de
Malheureusement, seuls 254 hôtes utilisables sont disponibles sur un réseau de classe C. Ce nombre ne permet
pas de satisfaire les besoins des organisations plus importantes qui ne peuvent pas obtenir d'adresses de
classe A ou B. S'il existait davantage d'adresses de classe A, B et C, un nombre trop élevé d'adresses réseau
risquerait de provoquer l'arrêt des routeurs, du fait du volume trop important des tables de routage requises pour
stocker les routes permettant d'atteindre les différents réseaux.
Dès 1992, le groupe IETF (Internet Engineering Task Force) a identifié deux problèmes :
La diminution inquiétante des adresses réseau IPv4 disponibles. À l'époque, l'espace d'adresses de
classe B était sur le point d'être saturé.
La hausse importante et rapide du volume des tables de routage d'Internet en raison de l'augmentation
du nombre de connexions des réseaux de classe C. Ce déferlement de nouvelles informations réseau
constituait une menace pour le bon fonctionnement des routeurs Internet.
Au cours des deux dernières décennies, plusieurs extensions de la norme IPv4 ont été développées. Celles-ci
étaient spécifiquement con��ues pour optimiser l'espace des adresses 32 bits. Deux des plus significatives, à
savoir les masques de sous-réseau et le routage CIDR (Classless interdomain routing), feront l'objet d'une étude
plus approfondie dans les leçons suivantes.
Entre-temps, une version encore plus flexible et évolutive de la norme IP (IPv6) a fait son apparition. IPv6 encode
les adresses sur 128 bits au lieu de 32 (en utilisant des nombres hexadécimaux), ce qui porte le nombre
d'adresses possibles à 340 x 1036. Cette version devrait ainsi couvrir l'intégralité des besoins en communication
pour les années à venir.
Après des années de planification et de développement, IPv6 s'implante doucement sur les réseaux et devrait
progressivement supplanter le protocole IPv4.
9.3 Obtention d'une adresse IP
9.3.1 Obtention d'une adresse Internet
Un hôte réseau doit se procurer une adresse unique mondialement afin de se connecter à Internet. L'adresse
physique ou MAC d'un hôte n'est significative que localement, car elle identifie l'hôte sur le réseau local. Cette
adresse opérant au niveau de la couche 2, le routeur ne l'utilise pas pour transmettre des données au-delà du
réseau local.
Les administrateurs réseau font appel à deux méthodes différentes pour affecter les adresses IP. Il s'agit des
méthodes statique et dynamique. L'adressage statique ainsi que trois variantes d'adressage dynamique seront
abordés ultérieurement dans cette leçon. Quelle que soit la méthode choisie, deux interfaces ne peuvent jamais
avoir la même adresse IP. Lorsque deux hôtes utilisent la même adresse IP, ils risquent de ne pas fonctionner
correctement en raison d'un conflit d'adresses. Comme l'illustre la figure, les hôtes sont dotés d'une adresse
physique par le biais de la carte réseau qui permet d'accéder au média physique.
L'attribution statique convient particulièrement aux réseaux de petite taille qui subissent peu de changements.
L'administrateur système effectue manuellement les opérations d'affectation et de suivi des adresses IP pour
chaque ordinateur, imprimante ou serveur de l'intranet. La tenue d'archives est essentielle pour prévenir les
conflits d'adresses IP. Toutefois, cette technique n'est possible que dans le cas où peu d'équipements sont
connectés au réseau.
Les serveurs doivent recevoir une adresse IP statique de sorte que les stations de travail et les autres
équipements puissent toujours accéder aux services requis. Imaginez combien il serait complexe d'appeler une
entreprise qui change quotidiennement de numéro de téléphone.
Les autres équipements nécessitant des adresses IP statiques sont les imprimantes réseau, les serveurs
d'applications et les routeurs.
9.3.3 Attribution d'une adresse IP à l'aide du protocole RARP
Examinons l'exemple d'un équipement source qui souhaite envoyer des données à un autre équipement.
L'équipement source connaît sa propre adresse MAC, mais il ne trouve pas son adresse IP dans la table ARP.
Pour que l'équipement de destination puisse récupérer les données, les transférer aux couches supérieures du
modèle OSI et répondre à l'équipement source, ce dernier doit indiquer son adresse MAC et son adresse IP.
L'équipement source lance alors un processus appelé «requête RARP». Cette requête permet d'aider le matériel
source à détecter sa propre adresse IP. Les requêtes RARP sont diffusées sur le LAN et c'est le serveur RARP,
habituellement un routeur, qui y répond.
Le protocole de résolution inverse d'adresses utilise le même format de paquet que le protocole ARP. Cependant,
dans une requête RARP, les en-têtes MAC et le code de fonctionnement sont différents de ceux d'une
requête ARP. La structure du paquet RARP contient des champs pour les adresses MAC des équipements
d'origine et de destination. Le champ de l’adresse IP d'origine est vide. Le message de broadcast est envoyé à
tous les équipements du réseau. Les figures illustrent l'adresse MAC de destination sous la forme
FF:FF:FF:FF:FF:FF. Les stations de travail exécutant le protocole de résolution inverse d'adresses comportent
des codes en mémoire ROM qui déclenchent le processus RARP. Les figures ndiquent avec précision le
processus RARP.
Le protocole BOOTP fonctionne dans un environnement client-serveur et ne requiert qu'un seul échange de
paquet pour obtenir des informations sur le protocole IP. Contrairement au protocole RARP, les paquets BOOTP
peuvent contenir l'adresse IP, l'adresse du routeur, l'adresse du serveur ainsi que des informations spécifiques du
fournisseur.
L'un des problèmes du protocole BOOTP est de ne pas avoir été conçu pour l'attribution dynamique d'adresses. Il
permet à un administrateur réseau de créer un fichier de configuration qui définit les paramètres de chaque
équipement. L'administrateur doit ajouter les hôtes et tenir à jour la base de données BOOTP. Bien que les
adresses soient attribuées de manière dynamique, il existe une relation biunivoque entre le nombre d'adresses IP
et le nombre d'hôtes. Autrement dit, à chaque hôte du réseau doit correspondre un profil BOOTP comportant une
adresse IP. Deux profils ne peuvent pas partager une même adresse IP. Ces profils pourraient être utilisés
simultanément, ce qui signifierait que deux hôtes disposent d'une même adresse IP.
Un équipement utilise le protocole BOOTP au démarrage pour obtenir une adresse IP. BOOTP utilise la couche
UDP pour transporter les messages. Le message UDP est encapsulé dans un paquet IP. Un ordinateur utilise le
protocole BOOTP pour envoyer un paquet IP de broadcast en utilisant une adresse IP de destination constituée
de tous les 1 binaires (255.255.255.255 en notation décimale séparée par des points). Un serveur BOOTP reçoit
le message de broadcast, puis en envoie un à son tour. Le client reçoit une trame et vérifie l’adresse MAC. Si le
Le protocole DHCP a été proposé pour succéder au protocole BOOTP. Contrairement au protocole BOOTP, le
protocole DHCP permet à un hôte d'obtenir une adresse IP de manière dynamique sans que l'administrateur
réseau ait à définir un profil pour chaque équipement. Avec le protocole DHCP, il suffit qu’une plage d’adresses
IP soit définie sur un serveur DHCP. Lorsque les ordinateurs se connectent, ils communiquent avec le serveur
DHCP et demandent une adresse. Le serveur DHCP choisit une adresse et l’affecte à l'ordinateur hôte. Grâce au
protocole DHCP, la configuration réseau tout entière d'un ordinateur peut être obtenue dans un seul
message.Cela comprend les données fournies par le message BOOTP, plus une adresse IP allouée et un
masque de sous-réseau.
Le protocole DHCP dispose d'un avantage majeur sur le protocole BOOTP, car il permet aux utilisateurs d'être
mobiles. Les utilisateurs peuvent changer de connexion réseau d'un emplacement à l'autre, et ce en toute liberté.
Il n'est plus nécessaire d'utiliser un profil fixe pour chaque équipement relié au réseau, comme cela était le cas
avec le système BOOTP. Cette évolution revêt une importance particulière dans la mesure où le protocole DHCP
peut octroyer une adresse IP à un équipement, puis utiliser cette même adresse pour un autre utilisateur lorsque
le premier ne s'en sert plus. Autrement dit, le protocole DHCP offre une relation «un à plusieurs» pour les
adresses IP. De plus, une adresse est disponible pour quiconque se connectant au réseau. Les figures indiquent
avec précision le processus DHCP.
9.3.6 Problèmes liés à la résolution d'adresses
L'une des principales difficultés liées au réseau est d'arriver à communiquer avec les autres équipements du
réseau. Lors des échanges TCP/IP, un datagramme appartenant à un réseau local doit comporter une
adresse MAC et une adresse IP de destination. Ces adresses doivent être valides et elles doivent correspondre
aux adresses MAC et IP de destination de l'équipement hôte. Si elles ne correspondent pas, le datagramme est
rejeté par l'hôte de destination. Pour échanger des données dans un segment LAN, deux adresses sont requises.
Une solution de mappage automatique des adresses IP avec des adresses MAC est également requise. Le
mappage manuel de ces adresses se révélerait beaucoup trop long. La pile de protocoles TCP/IP comprend un
protocole appelé «ARP» (Address Resolution Protocol) qui peut obtenir automatiquement les adresses MAC pour
la transmission locale. Plusieurs problèmes apparaissent lors de l'envoi des données à l'extérieur du réseau local.
Pour échanger des données entre deux segments LAN, un élément supplémentaire est requis. Les adresses IP
et MAC sont nécessaires à l'hôte de destination et à l'équipement de routage intermédiaire. Proxy ARP est une
variante du protocole ARP qui fournit l'adresse MAC d'un équipement intermédiaire pour la transmission de
données vers un autre segment du réseau en dehors du LAN.
Dans un réseau TCP/IP, un paquet de données doit contenir une adresse MAC de destination et une adresse IP
de destination. Si l'une ou l'autre est manquante, les données qui se trouvent au niveau de la couche 3 ne sont
Certains tiennent à jour des tables contenant les adresses MAC et IP des autres équipements connectés au
même réseau local. Ces tables sont appelées «tables ARP». Elles sont stockées dans la mémoire RAM, où les
informations en mémoire cache sont mises à jour automatiquement dans chaque équipement. Il est très rare
qu'un utilisateur ait à entrer manuellement des informations dans une table ARP. Tout équipement du réseau met
à jour sa propre table ARP. Si un équipement cherche à envoyer des données sur le réseau, il utilise les
informations contenues dans la table ARP.
Lorsqu’une source détermine l’adresse IP d’une destination, elle consulte la table ARP pour trouver
l’adresse MAC de destination. Une fois l'entrée recherchée trouvée dans sa table (adresse IP de destination
correspondant à l’adresse MAC de destination), elle associe l’adresse IP à l’adresse MAC et l’utilise pour
encapsuler les données. Le paquet de données est alors envoyé à l'équipement de destination via le média
réseau.
Les équipements disposent de deux méthodes pour obtenir les adresses MAC à ajouter aux données
encapsulées. L'une d'elles consiste à surveiller le trafic existant sur le segment du réseau local. Toutes les
stations du réseau Ethernet analysent le trafic afin de déterminer si la transmission leur est destinée. Une partie
de ce processus consiste à enregistrer les adresses source IP et MAC du datagramme dans une table ARP.
Ainsi, les paires d'adresses sont intégrées à la table ARP lors de l'envoi des données sur le réseau. L'autre
solution qui permet d'obtenir une paire d'adresses pour la transmission des données consiste à diffuser une
requête ARP.
L'ordinateur qui a besoin d'une paire d'adresses IP et MAC diffuse une requête ARP. Tous les autres
équipements du réseau local analysent ensuite cette requête. Si l'un des équipements correspond à l'adresse IP
de la requête, il renvoie une réponse ARP avec sa paire d'adresses IP/MAC. Si l'adresse IP appartient au réseau
local, mais que l'ordinateur est introuvable ou hors tension, aucune réponse n'est faite à la requête ARP. Dans ce
cas, l'équipement source génère une erreur. Si la requête appartient à un réseau IP différent, un autre processus
doit être utilisé.
Les routeurs ne transmettent pas les paquets de broadcast. Lorsque la fonction est activée, le routeur exécute
une requête via Proxy ARP. Proxy ARP est une variante du protocole ARP. Dans cette variante, un routeur
envoie une réponse ARP, qui contient l'adresse MAC de l'interface qui a reçu la requête, à l'hôte demandeur. Le
routeur répond avec ses adresses MAC aux requêtes dont l'adresse IP n'appartient pas à la plage d'adresses du
sous-réseau local.
Une autre solution pour envoyer des données à l’adresse d’un équipement situé sur un autre segment du réseau,
consiste à configurer une passerelle par défaut. Une passerelle par défaut est une option « host » dans laquelle
l'adresse IP de l'interface du routeur est enregistrée dans la configuration réseau de l'hôte. L’hôte source
compare l’adresse IP de destination à sa propre adresse IP afin de déterminer si les deux adresses sont situées
sur le même segment. Si l’hôte de destination ne se trouve pas sur le même segment, l’hôte d’origine envoie les
Si la passerelle par défaut de l'hôte ou la fonction Proxy ARP du routeur n'est pas configurée, aucune donnée ne
peut quitter le réseau local. L'une ou l'autre est nécessaire pour établir une connexion avec une machine située à
l'extérieur du réseau local.
Résumé
Le modèle de référence TCP/IP développé par le ministère américain de la défense (DoD) comporte quatre
couches : la couche application, la couche transport, la couche Internet et la couche d'accès au réseau. La
couche application gère les protocoles de haut niveau, les questions de représentation, le code et le contrôle du
dialogue. La couche transport offre des services de transport de l'hôte à la destination. Le rôle de la couche
Internet consiste à sélectionner le meilleur chemin pour transmettre les paquets sur le réseau. La couche d'accès
au réseau est responsable de l'établissement d'une liaison physique à un support réseau.
Bien que certaines couches du modèle de référence TCP/IP correspondent aux sept couches du modèle OSI,
des différences existent. Le modèle TCP/IP intègre la couche présentation et la couche session dans sa couche
application. Le modèle TCP/IP regroupe les couches physique et liaison de données du modèle OSI dans sa
couche d'accès au réseau.
Les routeurs utilisent l’adresse IP pour acheminer les paquets de données d’un réseau à un autre. Les
adresses IP ont une longueur de trente deux bits (dans la version 4 du protocole IP) et sont divisées en quatre
octets de huit bits. Ils fonctionnent au niveau de la couche réseau (couche 3) du modèle OSI, qui est la couche
Internet du modèle TCP/IP.
L’adresse IP d’un hôte est une « adresse logique », ce qui signifie qu’elle peut être modifiée. L'adresse MAC
(Media Access Control) de la station de travail est une adresse physique de 48 bits. Elle est généralement inscrite
de manière indélébile sur la carte réseau. La seule façon de la modifier est de remplacer la carte réseau. Afin de
transmettre des données TCP/IP dans un segment LAN, une adresse IP de destination et une adresse MAC de
destination sont requises. Bien que l'adresse IP soit unique et routable sur Internet, elle doit pouvoir être mappée
avec une adresse MAC lors de la réception d'un paquet sur le réseau de destination. La pile de protocoles
TCP/IP comprend un protocole appelé «ARP» (Address Resolution Protocol) qui peut obtenir automatiquement
les adresses MAC pour la transmission locale. Une variante du protocole ARP, appelée « Proxy ARP », fournit
l'adresse MAC d'un équipement intermédiaire pour la transmission de données à un autre segment du réseau.
Il existe cinq classes d'adresses IP (de A à E). Seules les trois premières classes sont utilisées commercialement.
En fonction de la classe, les parties réseau et hôte de l’adresse occupent un nombre différent de bits. Les
adresses de classe D sont utilisées pour les groupes de multicast. Les adresses de classe E sont utilisées à des
fins expérimentales.
Une adresse IP dont tous les bits hôte sont occupés par des 0 binaires est utilisée pour identifier le réseau lui-
même. Une adresse dont tous les bits hôte sont occupés par des 1 correspond à une adresse de broadcast. Elle
est utilisée pour diffuser des paquets vers tous les équipements d'un réseau.
Le découpage en sous-réseaux représente une solution de rechange pour subdiviser un LAN et y identifier des
réseaux distincts. La subdivision d'un réseau en sous-réseaux implique l'utilisation du masque de sous-réseau
afin de fragmenter un réseau de grande taille en segments (ou sous-réseaux) plus petits, plus faciles à gérer et
plus efficaces. Les adresses de sous-réseau contiennent une partie réseau, plus un champ de sous-réseau et un
champ d’hôte. Le champ de sous-réseau et le champ d'hôte sont créés à partir de la partie hôte d'origine pour
l'ensemble du réseau.
Une version encore plus flexible et évolutive de la norme IP (IPv6) a fait son apparition. Il s'agit d'IPv6 qui encode
les adresses sur 128 bits au lieu de 32 (en utilisant des nombres hexadécimaux). Le protocole IPv6 s'implante sur
certains réseaux et devrait finir par supplanter le protocole IPv4.
L'objectif du masque de réseau est de permettre à des groupes d'adresses IP séquentielles d'être traités en
tant qu'une seule et même unité. Sans ce regroupement, chaque hôte devrait être mappé individuellement
IP est le système d'adressage hiérarchique des réseaux le plus largement utilisé. ��C'est un protocole
non orienté connexion, peu fiable et axé sur l'acheminement au mieux (best-effort delivery). Le terme «non
orienté connexion» signifie qu'aucune connexion à un circuit dédié n'est établie avant la transmission. Le
protocole IP détermine le meilleur chemin pour les données en fonction du protocole de routage. Les
termes «peu fiable» et «au mieux» ne signifient pas que le système n'est pas fiable et qu'il fonctionne mal,
mais plutôt que le protocole IP ne s'assure pas de la bonne livraison des données envoyées sur le réseau.
Si cette vérification est nécessaire, elle est effectuée par les protocoles de couche supérieure.
Au cours de l'acheminement d'un paquet sur un interréseau jusqu'à sa destination finale, les en-queues et
les en-têtes de trame de la couche 2 sont retirés et remplacés au niveau de chacune des unités de
couche 3. Cela s'explique par le fait que les unités de données de la couche 2, ou trames, sont destinées à
l'adressage local, tandis que les unités de données de la couche 3, ou paquets, sont destinées à
l'adressage de bout en bout.
La plupart des services réseau utilisent un système de livraison non orienté connexion. Les paquets
peuvent emprunter différentes routes pour circuler sur le réseau. Ils sont ensuite rassemblés à leur arrivée.
Dans un système non orienté connexion, la destination n’est pas contactée avant l’envoi d’un paquet. Le
système postal constitue une bonne analogie, puisque le destinataire du courrier n'est pas contacté pour
savoir s'il acceptera la lettre avant son envoi. De même, l'expéditeur ne sait pas si sa lettre est arrivée à
bon port.
Dans les systèmes orientés connexion, une connexion est établie entre l'émetteur et le récepteur avant le
transfert des données. Le système téléphonique est un exemple de système orienté connexion. L'appelant
initie l'appel, une connexion s'établit, puis la communication a lieu.
Les processus réseau sans connexion sont souvent appelés processus à commutation de paquets. Au
cours de leur acheminement, les paquets peuvent emprunter différents chemins et arriver de manière
désordonnée. Le chemin emprunté par chaque paquet est déterminé par divers critères. Certains de ces
critères, tels que la bande passante disponible, peuvent varier d’un paquet à l’autre.
Les processus réseau orientés connexion sont souvent appelés processus à commutation de circuits. Une
connexion avec le destinataire est établie avant que le transfert des données ne commence. Tous les
paquets circulent de manière séquentielle sur le même circuit virtuel ou physique.
Internet est un réseau sans connexion gigantesque, dans lequel la majorité des transmissions de paquets
sont traitées par le protocole IP. Le protocole TCP ajoute les services orientés connexion et fiables de la
couche 4 au protocole IP.
Les paquets IP comprennent les données des couches supérieures et un en-tête IP. Cette page présente le
contenu de cet en-tête:
Version: indique le format de l'en-tête du paquet IP. Le champ Version (4 bits) contient le numéro 4
s'il s'agit d'un paquet IPv4 ou le numéro 6 s'il s'agit d'un paquet IPv6. Ce champ n'est toutefois pas
utilisé pour faire la distinction entre des paquets IPv4 et IPv6. C'est le rôle du champ relatif au type
de protocole présent dans l'enveloppe de couche 2.
Longueur d'en-tête IP (HLEN): indique la longueur de l'en-tête du datagramme en mots de 32 bits.
Ce champ représente la longueur totale des informations d'en-tête et inclut les deux champs d'en-
tête de longueur variable.
Type de service (ToS): ce champ codé sur 8 bits indique le niveau d'importance attribué par un
protocole de couche supérieure particulier.
Longueur totale (16 bits): ce champ spécifie la taille totale du paquet en octets, données et en-tête
inclus. Pour obtenir la taille des données proprement dites, soustrayez la longueur de l'en-tête IP
de cette longueur totale.
Identification (16 bits): identifie le datagramme actuel. Ce champ comporte le numéro de séquence.
Drapeaux (3 bits): champ dans lequel les deux bits de poids faible contrôlent la fragmentation. Un
bit indique si le paquet peut être fragmenté ou non, et l'autre si le paquet est le dernier fragment
d'une série de paquets fragmentés.
Décalage de fragment (13 bits): champ permettant de rassembler les fragments du datagramme. Il
permet au champ précédent de se terminer sur une frontière de 16 bits.
Durée de vie (TTL): champ indiquant le nombre de sauts par lesquels un paquet peut passer. Ce
nombre est décrémenté à chaque passage du paquet dans un routeur. Lorsque le compteur atteint
zéro, le paquet est éliminé. Cela empêche les paquets de circuler indéfiniment en boucle.
Protocole (8 bits): indique quel protocole de couche supérieure, tel que TCP ou UDP, reçoit les
paquets entrants une fois les processus IP terminés.
Somme de contrôle de l'en-tête (16 bits): champ qui aide à garantir l'intégrité de l'en-tête IP.
Adresse source (32 bits): : champ indiquant l'adresse IP du nœud à partir duquel a été envoyé le
paquet.
Le routage est une fonction de la couche 3 du modèle OSI. C'est un système d'organisation hiérarchique
qui permet de regrouper des adresses individuelles. Ces dernières sont traitées comme un tout jusqu'à ce
que l'adresse de destination soit requise pour la livraison finale des données.
Un routeur est une unité de couche réseau qui utilise une ou plusieurs métriques pour déterminer le chemin
optimal par lequel acheminer le trafic réseau. Les métriques de routage sont les valeurs qui permettent de
définir le meilleur chemin. Les protocoles de routage utilisent diverses combinaisons de ces métriques pour
établir la meilleure route possible des données.
La relation existant entre la commutation et le routage peut être comparée aux appels téléphoniques locaux
et longue distance. Lorsqu'un appel est passé à un numéro comportant le même indicatif régional, il est
traité par un commutateur local. Ce dernier ne peut effectuer le suivi que des numéros locaux. Il ne peut
pas gérer l'ensemble des numéros de téléphone du monde entier. Lorsque le commutateur reçoit une
demande pour un appel hors de sa zone, il transfère cet appel vers un commutateur de niveau supérieur à
même de reconnaître les indicatifs régionaux. Celui-ci commute ensuite l'appel de sorte qu'il atteigne le
commutateur local correspondant à son indicatif.
Les algorithmes de routage utilisent différentes métriques pour déterminer la meilleure route. Chacun d'eux
interprète à sa façon ce qui est le mieux. L'algorithme génère un nombre, appelé valeur métrique, pour
chaque chemin traversant le réseau. Les algorithmes de routage perfectionnés effectuent la sélection du
chemin en fonction de plusieurs métriques combinées en une valeur composite. Généralement, les valeurs
métriques faibles indiquent le meilleur chemin.
Les métriques peuvent être calculées sur la base d'une seule caractéristique de chemin, comme elles
peuvent l'être sur la base de plusieurs. Les métriques les plus communément utilisées par les protocoles de
routage sont les suivantes:
Bande passante: la bande passante représente la capacité de débit d'une liaison. Une liaison
Ethernet de 10 Mbits/s est généralement préférable à une ligne louée de 64 Kbits/s.
Délai: le délai est le temps nécessaire à l'acheminement d'un paquet, pour chaque liaison, de la
source à la destination. Il dépend de la bande passante des liaisons intermédiaires, de la quantité
de données pouvant être temporairement stockées sur chaque routeur, de la congestion du réseau
et de la distance physique.
Les protocoles IGP acheminent les données au sein d'un système autonome. Il s'agit:
Des protocoles RIP et RIPv2.
Du protocole IGRP.
Du protocole EIGRP.
Du protocole OSPF.
Du protocole IS-IS (Intermediate System-to-Intermediate System).
Les protocoles EGP acheminent les données entre les systèmes autonomes. Le protocole BGP est un
exemple de ce type de protocole.
La méthode de routage à vecteur de distance détermine la direction (vecteur) et la distance vers n’importe
quelle liaison de l’interréseau. La distance peut être représentée par le nombre de sauts vers cette liaison.
Les routeurs faisant appel aux algorithmes de vecteur de distance envoient périodiquement l'intégralité ou
Les adresses de sous-réseau contiennent une partie réseau de classe A, B ou C, plus un champ de sous-
réseau et un champ d’hôte. Le champ de sous-réseau et le champ d'hôte sont créés à partir de la partie
hôte d'origine de l'adresse IP principale. Cette opération s'effectue en réattribuant des bits de la partie hôte
à la partie réseau d'origine de l'adresse. Le fait de pouvoir diviser la partie hôte d'origine de l'adresse en
nouveaux champs de sous-réseau et d'hôte permet à l'administrateur réseau de gagner en flexibilité au
niveau de l'adressage.
Quelle que soit la classe d'adresse IP, les deux derniers bits du dernier octet ne doivent jamais être
attribués au sous-réseau. Ces bits constituent les deux derniers bits significatifs. Si vous utilisez tous les
bits disponibles, à l'exception de ces deux derniers, pour créer des sous-réseaux, les sous-réseaux créés
ne comporteront que deux hôtes utilisables. Il s'agit d'une méthode de conservation d'adresses pratique
pour l'adressage des liaisons de routeur série. Toutefois, pour un réseau LAN effectif, cela impliquerait des
coûts en équipement dépassant l'entendement.
Pour savoir combien de bits doivent être utilisés, le concepteur du réseau doit d'abord calculer le nombre
d'hôtes nécessaires à son sous-réseau le plus vaste ainsi que le nombre de sous-réseaux requis.
Supposons que le réseau requiert 30 hôtes et cinq sous-réseaux. La méthode la plus simple pour
déterminer le nombre de bits à réattribuer est de se reporter au tableau de découpage en sous-réseaux. Si
vous consultez la ligne intitulée « Hôtes utilisables », vous constatez que trois bits sont nécessaires pour
30 hôtes. Le tableau vous informe également que six sous-réseaux utilisables sont en même temps créés,
ce qui répond tout à fait à vos besoins actuels. Il existe une différence entre les hôtes utilisables et le
nombre total d'hôtes qui tient à l'utilisation de deux adresses spécifiques pour chaque sous-réseau : l'ID du
réseau (représenté par la première adresse disponible) et l'adresse de broadcast (représentée par la
dernière adresse disponible). Savoir emprunter le nombre de bits appropriés nécessaires aux sous-réseaux
et aux hôtes de chacun des sous-réseaux constitue un exercice périlleux qui peut être à l'origine d'un
certain nombre d'adresses hôtes inutilisées dans les divers sous-réseaux. Le routage par classes ne
permet pas de limiter la perte de ces adresses. En revanche, le routage sans classe (qui sera abordé un
peu plus loin dans ce cours) peut vous aider à récupérer un bon nombre de ces adresses perdues.
(23) –2=6
Nombre d'hôtes utilisables = deux à la puissance des bits restants, moins deux (pour les adresses
réservées que sont l'adresse du sous-réseau et l'adresse de broadcast du sous-réseau).
(2 nombre de bits hôtes restants) – 2 = hôtes utilisables
(25) – 2 = 30
10.3.4 Application du masque de sous-réseau
Une fois le masque de sous-réseau défini, vous pouvez l'utiliser pour établir le mod��le de sous-réseau.
Le tableau de la figure donne un exemple du nombre de sous-réseaux et d'adresses qui peuvent être
créés en attribuant trois bits au champ de sous-réseau. Cela permet en fait de créer huit sous-réseaux
comportant chacun 32 hôtes. La numérotation des sous-réseaux commence à zéro (0), et le premier sous-
réseau est donc toujours le sous-réseau zéro.
L'attribution de 20 bits d'une adresse de classe A au champ de sous-réseau crée le masque de sous-
réseau 255.255.255.240 ou /28. L'ensemble des huit bits des deuxième et troisième octets sont affectés au
champ de sous-réseau, ainsi que quatre bits du quatrième octet.
Ici, il apparaît clairement que les masques de sous-réseau des adresses de classes A et B sont identiques.
À moins d'associer le masque à une adresse réseau, il est impossible de savoir combien de bits ont été
affectés au sous-réseau.
Quelle que soit la classe sur laquelle porte la subdivision, les règles sont les mêmes:
Nombre total de sous-réseaux = 2nombre de bits empruntés
Le découpage en sous-réseaux est une opération qui s'apprend. Il vous faudra vous exercer de
nombreuses heures avant de pouvoir développer des systèmes flexibles et exploitables. Vous pouvez
trouver de nombreux outils de calcul de sous-réseaux sur le Web. Un administrateur réseau se doit
cependant de savoir créer manuellement ces sous-réseaux afin de pouvoir élaborer de manière efficace le
système de réseaux adéquat et de pouvoir vérifier la validité des résultats d'un outil de calcul. Ce dernier se
contente en effet de fournir le système d'adressage final, sans indiquer le système initial. En outre,
l'utilisation d'outils de calcul, quels qu'ils soient, est interdite pendant l'examen de certification.
Résumé
Le protocole IP est dit protocole non orienté connexion parce qu'aucune connexion à un circuit dédié n'est
établie entre la source et la destination avant la transmission. Il est considéré comme non fiable car il ne
vérifie pas la bonne livraison des données. S’il est nécessaire de vérifier la bonne livraison des données, il
faut combiner le protocole IP à un protocole de transport orienté connexion, tel que TCP. S'il n'est pas
nécessaire de vérifier l'intégrité des données à la livraison, IP peut être utilisé avec un protocole sans
connexion, tel que UDP. Les processus réseau sans connexion sont souvent appelés processus à
commutation de paquets, tandis que les processus réseau orientés connexion sont dits processus à
commutation de circuits.
Les protocoles ajoutent des informations de contrôle aux données au niveau de chaque couche du modèle
OSI tout au long de leur transmission sur le réseau. Ces informations étant ajoutées au début et à la fin des
données, on parle d'encapsulation des données. La couche 3 ajoute des informations d'adresse réseau ou
logique aux données et la couche 2 des informations d'adresse locale ou physique.
Le routage de la couche 3 et la commutation de la couche 2 permettent d'acheminer et de livrer les
données sur le réseau. Au départ, le routeur reçoit une trame de couche 2 avec un paquet de couche 3
encapsulé en son sein. Il doit retirer la trame de couche 2 et examiner le paquet de couche 3. Si ce dernier
est destiné à une adresse locale, le routeur doit l'encapsuler dans une nouvelle trame dotée de la bonne
adresse MAC locale de destination. Si les données doivent être transmises vers un autre domaine de
broadcast, le routeur encapsule le paquet de couche 3 dans une nouvelle trame de couche 2 contenant
l'adresse MAC de l'unité d'interconnexion de réseaux suivante. La trame est ainsi transférée sur le réseau
de domaine de broadcast en domaine de broadcast jusqu'à sa livraison finale à l'hôte approprié.
Pour mieux comprendre les concepts de fiabilité et de contrôle de flux, imaginez une personne qui apprend une
langue étrangère pendant un an avant de se rendre dans le pays en question. Au cours d'une conversion,
certains mots seront répétés pour assurer la fiabilité de la compréhension. Les interlocuteurs doivent par
ailleurs parler lentement afin de se faire comprendre, ce qui peut être associé au contrôle de flux.
Lorsque la couche transport envoie des segments de données, elle cherche à s'assurer que les données
ne se perdent pas. Des données peuvent en effet être perdues si un hôte n'est pas capable de les traiter
suffisamment vite au fur et à mesure qu'il les reçoit. Il est alors obligé de les rejeter. Le contrôle de flux
permet d'éviter le dépassement de capacité des mémoires tampons d'un hôte de destination. Pour ce faire,
Un des rôles de la couche transport est d'établir une session orientée connexion entre des unités identiques de
la couche application. Pour que le transfert de données puisse débuter, les applications source et de
destination doivent informer leur système d'exploitation qu'une connexion va être initiée. Un des nœuds initie la
connexion qui doit obligatoirement être acceptée par l'autre. Les modules logiciels de protocole des deux
systèmes d’exploitation communiquent en envoyant des messages sur le réseau pour vérifier si le transfert est
autorisé et si les deux ordinateurs sont prêts.
La connexion est établie et le transfert des données peut commencer après synchronisation. Pendant le
transfert, les deux ordinateurs continuent de communiquer au moyen de leur logiciel de protocole pour vérifier
si les données sont bien reçues.
La figure montre une connexion type établie entre deux systèmes. La première étape du protocole d’échange
bidirectionnel demande la synchronisation. Le deuxième échange accuse réception de la demande de
synchronisation initiale et synchronise les paramètres de connexion dans la direction opposée. Le troisième
segment d’échange est un accusé de réception indiquant à la destination que la connexion peut être établie des
deux côtés. Une fois la connexion établie, le transfert des données commence.
1. L'hôte émetteur (A) initie une connexion en envoyant un paquet SYN à l'hôte récepteur (B) indiquant
que son numéro de séquence initial ISN = X:
A —> B SYN, séq. de A = X
2. B reçoit le paquet, enregistre que la séq. de A = X, répond par un accusé de réception de X + 1 et
indique que son numéro de séquence ISN = Y. L'accusé X + 1 signifie que l'hôte B a reçu tous les
octets jusqu'à X inclus et qu'il attend l'arrivée de X + 1:
B —> A ACK, séq. de A = X, SYN séq. de B = Y, ACK = X + 1
3. L'hôte A reçoit le paquet de B, apprend que la séquence de B est Y et répond par un accusé de Y + 1,
qui met fin au processus de connexion:
A —> B ACK, séq. de B = Y, ACK = Y + 1
Cet échange est un échange en trois étapes.
Toutefois, si l'émetteur devait attendre un accusé de réception après l'envoi de chaque paquet, le débit serait
particulièrement lent. C'est pourquoi la plupart des protocoles orientés connexion fiables permettent l'envoi de
plusieurs paquets avant qu'un accusé ACK ne soit effectivement reçu. L'émetteur utilise l'intervalle de temps qui
s'écoule entre le moment où il envoie un paquet et celui où il traite l'accusé de réception pour transmettre
d'autres données. Le nombre de paquets de données pouvant ainsi être transmis avant réception d'un accusé
de réception est connu sous le nom de taille de fenêtre ou fenêtre.
TCP utilise des accusés de réception prévisionnels. Cela signifie que le numéro de l'accusé indique le paquet
suivant attendu.
Le fenêtrage fait référence au fait que la taille de la fenêtre est négociée de manière dynamique pendant la
session TCP. Il constitue un mécanisme de contrôle de flux. Après qu'une certaine quantité de données a été
transmise, la machine source doit recevoir un accusé de l'hôte de destination. Ce dernier signale une taille de
fenêtre à l'hôte source. Cette fenêtre indique le nombre de paquets que l'hôte de destination est prêt à recevoir,
le premier d'entre eux étant l'accusé de réception.
Dans la figure , l'émetteur envoie trois paquets avant d'attendre l'accusé de réception. Si le récepteur ne
peut en traiter que deux, la fenêtre abandonne le troisième paquet, indique que le paquet 3 sera le paquet
suivant, puis spécifie une nouvelle fenêtre de deux. L'émetteur envoie les deux autres paquets, mais
continue d'indiquer une taille de fenêtre de trois. Il attend donc toujours que le récepteur lui envoie un
accusé de réception tous les trois paquets. Le récepteur répond en demandant le paquet cinq et indique de
nouveau une taille de fenêtre de deux.
11.1.6 Accusé de réception
Une transmission fiable garantit qu’un flux de données envoyé depuis un ordinateur sera acheminé via une
liaison de données vers un autre ordinateur, sans duplication ni perte des données. Un accusé de réception
positif avec retransmission est une technique qui garantit cette fiabilité. Ce type d'accusé nécessite que le
destinataire communique avec la source en lui envoyant un message pour accuser réception des données.
L'émetteur conserve un enregistrement de chaque paquet de données, ou segment TCP, qu'il envoie, puis
attend un accusé de réception. De plus, un décompte est entamé lorsque l'émetteur envoie un segment et ce
dernier est retransmis si le délai arrive à expiration avant l’arrivée de l’accusé de réception.
Le protocole TCP assure le séquençage des segments grâce à des accusés de réception vers l’avant.
Chaque segment est numéroté avant la transmission. Arrivés à destination, ces segments sont rassemblés
en un message complet par le protocole TCP. Si un numéro de séquence est absent de la série, le
segment correspondant est retransmis. Les segments qui ne font pas l’objet d’un accusé de réception dans
un délai donné sont retransmis.
11.1.7 Protocole TCP (Transmission Control Protocol)
TCP est un protocole orienté connexion de la couche transport, qui assure une transmission fiable des données
en full duplex. TCP fait partie de la pile de protocoles TCP/IP. Dans un environnement orienté connexion, une
connexion est établie entre les deux extrémités avant que le transfert des informations ne commence. TCP
découpe les messages en segments, les rassemble à l'arrivée et renvoie toute donnée non reçue. Il assure un
circuit virtuel entre les applications utilisateur.
Les protocoles utilisant TCP sont les suivants:
FTP
HTTP
SMTP
Telnet
Les développeurs d'applications ont convenu d'utiliser les numéros de port reconnus émis par l'IANA (Internet
Assigned Numbers Authority). Toute conversation destinée à l'application FTP fait appel aux numéros de port
standard 20 et 21. Le port 20 est utilisé pour la partie données et le port 21 pour le contrôle. Les conversations
qui n'impliquent pas d'application utilisant un numéro de port reconnu se voient attribuer des numéros de
manière aléatoire sélectionnés dans une plage spécifique supérieure à 1023. Certains ports sont réservés aux
protocoles TCP et UDP, bien que les applications ne soient pas forcément conçues pour les prendre en charge.
Les plages attribuées aux numéros de port sont les suivantes:
Les numéros inférieurs à 1024 sont considérés comme des numéros de port reconnus.
Les numéros supérieurs à 1024 sont des numéros attribués de manière dynamique.
Les numéros de port enregistrés sont destinés à des applications spécifiques d'un fournisseur. La
plupart se situent au-delà de 1024.
Les systèmes d'extrémité utilisent les numéros de port pour sélectionner l'application appropriée. L'hôte
source attribue dynamiquement les numéros de port source. Ils sont toujours supérieurs à 1023.
Les protocoles TCP/IP qui prennent en charge le transfert des fichiers, la messagerie et la connexion à
distance sont probablement les protocoles que connaissent le mieux les utilisateurs d'Internet. Ils comprennent
les applications suivantes:
DNS
FTP
HTTP
SMTP
SNMP
Telnet
TFTP est un service non orienté connexion qui se sert du protocole UDP (User Datagram Protocol). Il est utilisé
sur le routeur pour transférer des fichiers de configuration et des images de la plate-forme logicielle IOS Cisco,
ainsi que pour transférer des fichiers entre des systèmes qui le prennent en charge. Ce protocole, conçu pour
être léger et facile à mettre en œuvre, est dépourvu de la plupart des fonctionnalités de FTP. Il peut lire ou
écrire des fichiers vers ou depuis un serveur distant, mais il ne permet pas d'afficher le contenu des répertoires
ni d'assurer l'authentification des utilisateurs. Il est utile dans certains LAN, car il s'exécute plus rapidement que
le protocole FTP. Son fonctionnement est par ailleurs fiable dans un environnement stable.
11.2.4 http
Le protocole HTTP (Hypertext Transfer Protocol) est le support du Web, la partie la plus utilisée d’Internet et
celle qui connaît la plus forte croissance. L’expansion phénoménale du Web s’explique principalement par la
facilité avec laquelle il permet d’accéder aux informations. Un navigateur Web est une application de type
client-serveur, c'est-à-dire qu'il requiert un composant client et un composant serveur pour pouvoir fonctionner.
Il présente des pages Web contenant des données multimédia : texte, graphique, son et vidéo. Les pages Web
sont créées avec un langage de formatage appelé HTML (HyperText Markup Language). Le code HTML
indique au navigateur comment présenter une page Web pour obtenir un aspect particulier. Outre le contenu, le
langage HTML spécifie la disposition du texte, des fichiers et des objets qui sont transférés depuis le serveur
Web jusqu’au navigateur Web.
Les liens hypertexte (ou hyperliens) facilitent la navigation sur le Web. Il peut s'agir d'un objet, d'un mot, d'une
phrase ou d'une image sur une page Web. Lorsque vous cliquez sur ce lien, une nouvelle page Web est
affichée dans le navigateur. La page Web contient une adresse URL (Uniform Resource Locator) qui est
souvent cachée dans sa description HTML.
Dans l'URL http://www.cisco.com/edu/, la partie «http://» indique au navigateur le protocole à utiliser. La
seconde partie, «www», indique le nom de l'hôte ou le nom d'un ordinateur précis doté d'une adresse IP
Un navigateur Web s'ouvre généralement sur une page de démarrage ou page d'accueil. L’adresse URL a été
enregistrée dans les données de configuration du navigateur et peut être modifiée quand bon vous semble.
Dans cette page d’accueil, vous pouvez soit cliquer sur un hyperlien, soit taper une adresse URL dans la barre
d’adresse du navigateur. Le navigateur Web examine alors le protocole pour savoir s’il a besoin d’ouvrir un
autre programme, puis détermine l’adresse IP du serveur Web à l'aide du système DNS. Ensuite, les couches
transport, réseau, liaison de données et physique établissent une session avec le serveur Web. Les données
transférées vers le serveur HTTP contiennent le nom du dossier où est stockée la page Web. Les données
peuvent également contenir le nom de fichier d’une page HTML. En l'absence de nom, le nom par défaut
indiqué dans la configuration du serveur est utilisé.
Le serveur répond à la demande en transmettant au client Web tous les fichiers texte, audio, vidéo et graphique
indiqués dans la page HTML. Le navigateur client rassemble tous ces fichiers pour créer une image de la page
Web et met fin à la session. Si vous cliquez sur une autre page située sur le même serveur, ou sur un serveur
différent, la procédure reprend depuis le début.
11.2.5 SMTP
Les serveurs de messagerie communiquent entre eux à l'aide du protocole SMTP (Simple Mail Transfer
Protocol) pour envoyer et recevoir des messages électroniques. Ce protocole transporte les messages au
format ASCII à l'aide de TCP.
Un réseau géré à l'aide de SNMP comprend les trois principaux composants suivants:
Le système d'administration de réseaux (NMS, Network Management System): le composant NMS
exécute les applications qui contrôlent et surveillent les unités gérées. Il fournit la quantité de
Le logiciel client Telnet permet de se connecter à un hôte Internet distant sur lequel est exécutée une
application serveur Telnet, puis d'exécuter des commandes à partir de la ligne de commande. Un client Telnet
est qualifié d'hôte local. Le serveur Telnet, qui utilise un logiciel spécial appelé «démon», est considéré comme
l'hôte distant.
Pour établir une connexion à partir d'un client Telnet, il convient de sélectionner une option de connexion. Une
boîte de dialogue vous invite généralement à entrer un nom d'hôte et un type de terminal. Le nom d'hôte est
l'adresse IP ou le nom DNS de l'ordinateur distant. Le type de terminal décrit le mode d'émulation de terminal
qui doit être utilisé par le client Telnet. La connexion Telnet n'exige aucun traitement de la part de l'ordinateur
émetteur qui se contente de transmettre à l’ordinateur distant les caractères tapés au clavier et d’afficher l’écran
résultant sur le moniteur local. Les opérations de traitement et de stockage sont entièrement exécutées par
l’ordinateur distant.
Telnet fonctionne au niveau de la couche application du modèle TCP/IP. Il opère donc au niveau des trois
couches supérieures du modèle OSI. La couche application traite les commandes. La couche présentation gère
le formatage, généralement ASCII. La couche session effectue la transmission. Dans le modèle TCP/IP, toutes
ces fonctions sont regroupées dans la couche application
Résumé
Le rôle principal de la couche transport (couche 4 du modèle OSI) est de transporter et de contrôler le flux
d'informations de la source à la destination, et ce de manière fiable et précise.