DCS Iap
DCS Iap
DCS Iap
Au début pour maintenir les variables de procédé telles que la température, pression, débit, etc...à
un point de fonctionnement désiré, appelé consigne, un opérateur était chargé d’observer
constamment l’évolution de cette variable puis la comparer au point de consigne et régler
manuellement de sorte à la maintenir égale au point de consigne préfixé (voir figure ci-après).
Il est clair pour un procédé industriel, un grand nombre de variables sont manipulées donc
nécessite un grand nombre d’opérateurs d’où un grand nombre de facteurs humains.
Grâce à l’évolution des sciences de l’électricité et de la mécanique que la théorie du contrôle
automatique a pu connaître le succès qui est le sien de nos jours.
Avant d’arriver au DCS, le contrôle des procédés a connu plusieurs générations de systèmes.
a. Contrôle manuel :
Le concept de base dans le contrôle de procédé ‘ boucle fermée’ est donné par la figure ci-
dessous.
L’opérateur n’intervient pas directement sur l’organe de commande mais il donne un point de
consigne au régulateur local sur site (figure ci-après).
C’est un DCS TDC 2000 de Honeywell sans la fonction contrôle (Animation Graphique,
Historique, Trend, Logging...). La fonction contrôle est assurée par des régulateurs simples
mono-boucle SLC.
Cette approche a pour but l’introduction des systèmes DCS sans changer les habitudes du
personnel.
¾ Topologie en étoile utilisée dans une architecture d’un système de contrôle vers les années
60.
¾ Architecture hiérarchique qui était devenue populaire dans le contrôle de procédé durant les
débuts 1970.
¾ une première approche vers une architecture distribuée introduite dans les systèmes de
contrôle après 1975.
¾ Architecture totalement distribuée, basée sur le bus de terrain, rencontrée dans les systèmes
de contrôle modernes.
Un DCS est une combinaison du concept d’une boucle simple de contrôle local et les réseaux
informatiques. Les systèmes de contrôle distribués ont énormément amélioré la gestion des
procèdes industriels avec plus de souplesse et de sécurité. Les systèmes de contrôle DCS
permettent une conduite et surveillance centralisées et un contrôle reparti d’ou le nom DCS
(Distributed Control System).
Avantages Inconvénients
Régulation mono boucle
Contrôle reparti Conduite repartie
(Single Loop Control, SLC)
Contrôle centralisé Conduite centralisée Contrôle centralisé
Contrôle reparti
DCS
Conduite repartie
Un DCS fait référence à un système de contrôle d’un procédé, dans lequel les éléments
régulateurs ne sont pas centralisés (comme le cerveau) mais distribués avec chaque sous-système
sous le contrôle d’un ou plusieurs régulateurs. Les éléments du système tout entier peuvent être
connectées en réseau pour assurer les fonctions de communication, de conduite et de
surveillance.
Le DCS est utilisé dans les procédés industriels pour assurer la conduite, la surveillance et le
contrôle des équipements distribués avec ou sans l’intervention à distante d’un opérateur
humain.
Un DCS utilise des ordinateurs (le plus souvent ayant des processeurs spécialement conçus)
comme des régulateurs et des modes de connexion et des protocoles de communication
spécifiques. Les modules d’entrées/s. orties font partie des composants les plus importants d’un
DCS. Le processeur reçoit les informations à partir modules d’entrée et les envoie par le biais
des modules de sortie. Les modules d’entrée reçoivent les informations à partir des instruments
de mesure du procédé (aka field) et les modules de sortie transmettent les informations aux
instruments de terrain. Les bus d’ordinateur ou bus électriques servent à relier le processeur aux
modules (E/S) via des multiplexeurs/démultiplexeurs. Ils relient également les régulateurs
distribués au contrôleur central et finalement l’interface homme-machine (Human Machine
Interface, HMI) ou les consoles de commande.
DCS est un terme assez large qui décrit des solutions dans une large variété d’industries telles
que :
L’architecture d’une solution DCS implique soit des connexions directes avec les équipements
physiques tels que les contacts (switches), les pompes et les vannes, soit via un autre système
secondaire tel que le système SCADA (Supervisory Control And Data Acquisition System).
Une solution DCS ne nécessite pas l’intervention de l’opérateur pour son fonctionnement
normal, mais avec le fusionnement dans la liaison entre le SCADA et le DCS, les systèmes
exigent en fait à ce qu’il soit possible de permettre une interaction avec l’opérateur via un
système SCADA.
Un DCS regroupe des contrôleurs numériques distribués soit dans le sens fonctionnel ou
géographique capables d’exécuter de 1 à 256 boucles de régulation, ou plus dans une seule boite
de contrôle. Les dispositifs d’entrée/sortie (I/O) peuvent être soit à proximité des régulateurs ou
distants avec possibilité de communication via un réseau de terrain. De nos jours, les régulateurs
les plus récents offrent des possibilités fonctionnelles assez avancées et, en plus des actions
proportionnelle (P), intégrale (I) et dérivée (D), peuvent généralement assurer un contrôle
logique et séquentiel.
Les DCSs peuvent inclure une ou plusieurs stations de travail et peuvent. Ils peuvent être
configurés à partir d’une station de travail ou par un ordinateur personnel hors connexion. Les
communications locales sont prises en charge par un réseau de contrôle avec transmission sur
des paires torsadées, un câble coaxial, ou la fibre optique. Un serveur et/ou un processeur
d’applications peuvent être inclus dans le système pour des traitements supplémentaires et
collection de données.
Un système de contrôle distribué consiste en des niveaux de contrôle. Le niveau le plus bas
(niveau 1) concerne le procédé de mesure et de contrôle. Par exemple une carte à
microprocesseur effectue un contrôle de la boucle, exécute des données logiques, collecte et
analyse les données. En plus, elle communique avec d’autres abonnés sur le même bus de
données.
Les informations du niveau 1 sont transférées au niveau 2. A ce niveau les opérateurs utilisent
une console avec un clavier et un écran vidéo pour surveiller et régler le procédé.
Aux niveaux les plus élevés, les ordinateurs du site peuvent fournir des fonctions
supplémentaires telles que la collection des données à long terme, analyse et optimisation de
plusieurs unités de procédé, d’usines ou de départements.
Ils peuvent aussi aider à intégrer les activités relatives aux sites et divisions telles que les achats,
réception, contrôle d’inventaire, l’expédition, le contrôle de qualité et le service client.
Cette séparation physique (liaison unique par réseaux) présente un avantage de sécurité ; car si
des éléments des niveaux élevés tombent en panne, ceux du niveau inférieur poursuivent la
fonction de contrôle. Cette distribution physique des différents niveaux peut réduire
considérablement le coût de câblage, de modification et la maintenance est assurée sans pour
autant déranger le procédé.
Niveau 1 :
- La commande individuelle repartie des machines et des processus
- Les commandes de machines, transfert de sous-ensembles spécialisés
Niveau 2 :
- Les postes centraux de commande et de supervision des cellules de production avec
synoptique, alarmes, dialogue de supervision et aide aux diagnostics
Niveau 3 :
Les postes de gestion de production qui :
- Reçoivent les bases de données planifiées et les traduisent en termes opérationnels
- Transmettent ces informations vers les postes de commande et de supervision
- Informent la gestion du niveau 4 sur le fonctionnement des cellules de production
Niveau 4 :
Niveau de l’informatique pour la planification de la gestion globale.
Un système de contrôle avec une architecture distribuée est un système dans lequel :
¾ Câblage simplifié :
La figure ci-dessous montre que les dispositifs intelligents et les technologies de bus de
terrain simplifient énormément le câblage du système ainsi que son architecture.
¾ Architecture modulaire ce qui permet de tester et d’assembler des modules séparément. Aussi
en cas de panne, le diagnostic est beaucoup plus aisé.
¾ Architecture ouverte : le système offre l’aptitude d’assurer une interaction entre des éléments
issus de constructeurs différents.
¾ Prix de revient moins élevé : la figure ci-dessous illustre un gain en argent, particulièrement
pour les éléments de transmission de signaux quand une architecture distribuée est adoptée.
Un gain de 43 % est obtenu en utilisant le bus de terrain.
V. Historique :
Dès les années 60 grâce au développement de technologie de fabrication des composants semi-
conducteurs (diodes, transistors, circuits intégrés), ont apparu les régulateurs électroniques, les
régulateurs numériques, les automates programmables industriels puis les ordinateurs centraux
(voir figure ci-après) ce qui a conduit à une amélioration appréciable dans la production
quantitative et qualitative.
De nos jours on assiste à l’intégration des systèmes de contrôle distribués dans les unités de
production (voir figure ci-après) lesquels peuvent gérer la production avec une grande sécurité
des personnes et des équipements de procédé.
Le DCS a été introduit en 1975. Honeywell et la firme japonaise de génie électrique Yokogawa
ont tous les deux introduit leurs propres DCSs a peu près en même temps, avec les systèmes
TDC 2000 et CENTUM respectivement. US-based Bristol aussi introduisait leur contrôleur
universel UCS 3000 en 1975. en 1980, Bailey (maintenant une filiale de ABB) introduisait le
système NETWORK 90.
Les DCSs se sont développées très rapidement grâce la grande disponibilité de nouveaux
ordinateurs et microprocesseurs puissants et leur large introduction dans le domaine du contrôle
industriel. Les ordinateurs ont été introduits au début dans le contrôle à point de consigne. Cette
utilisation a poussé les constructeurs à développer des microordinateurs pouvant assurer un rôle
de supervision, de contrôler plusieurs régulateurs numériques. Une station de travail CRT
fournissait une vision sur le procédé en utilisant sous forme graphique du texte et des caractères.
La disponibilité d’une interface graphique utilisateur (graphical User Interface) était encore loin
d’être faite.
Les communications numériques entre les régulateurs et les ordinateurs de supervision était un
des premiers avantages du DCS, et toute l’attention était focalisée sur les réseaux, garantissait
toutes les lignes de communication qui, pour les application du procédé, devait incorporer des
fonctions spécifiques telles que la redondance. Comme résultats, plusieurs fournisseurs avaient
adoptés la norme IEEE 802.4.
Le DCS ramenait une intelligence distribuée au procédé et utilisait les ordinateurs et les
microprocesseurs dans le contrôle industriel, mais il ne pouvait pas encore fournir la portée et
l’ouverture nécessaire pour unifier les exigences des ressources du procédé. Dans plusieurs cas,
le DCS était simplement un remplacement numérique des mêmes fonctionnalités établies
précédemment par des régulateurs analogiques et un afficheur sur tableau. Ceci était réuni dans
une architecture PRM (Perdue Reference Model) développé pour définir les relations pour la
gestion des opérations de fabrication. Plus tard, RPM était à la base des normes ISA 95.
Dans les années 80, les utilisateurs commençaient à considérer le DCS comme plus d’un simple
système de contrôle. On pensait que si une certaine ouverture pouvait être atteinte et un taux de
données pouvaient être partagées au sein de l’entreprise, alors beaucoup de bonnes choses
peuvent être réalisées. Les premières tentatives pour augmenter l’ouverture du DCS avaient eu
comme résultat l’adoption de l’UNIX comme système d’exploitation. UNIX et son protocole
compagnon TCP/IP avaient été développés par le département de la défense américain.
Comme résultat, les fournisseurs commençaient aussi à adopter des réseaux Ethernet avec leurs
propres couches de protocole. La norme TCP/IP n’était pas entièrement appliquée, mais
l’utilisation d’Ethernet permettait d’introduire les premières formes de gestion orientée objet et
accès global aux données. Aussi durant les années 80, on avait assisté à la première intégration
des automates programmables industriels API (Progammable Logic Controllers, PLCs) dans
l’infrastructure DCS.
Le premier fournisseur de DCS qui avait adopté les technologies UNIX et réseau Ethernet était
Foxboro, qui avait introduit la série I/A en 1987.
Durant cette période les technologies de l’information ont été largement utilisées. Probablement
la plus grande transition entreprise pendant cette période était le passage du système
d’exploitation UNIX à l’environnement Windows. Microsoft avait envahi le marché au
applications personnelle ou serveur.
Ces unités prélèvent leurs données et corrigent le cours du procédé à partir d’autres éléments
nécessaires dans la régulation et la surveillance. Ce sont les capteurs tels que les thermocouples,
de déplacement, de variation de résistance et les analyseurs, convertissent les variables
physiques en signaux électriques qu’ils communiquent aux unités de contrôle. Les organes de
réglage tels que les vannes automatiques, les moteurs électriques à vitesse variable règlent le
procédé en réponse aux signaux provenant du système de contrôle.
Les signaux entrée/sortie de plusieurs boucles sont parfois multiplexés. Un seul convertisseur
donc suffit. Ce dernier peut lire ou transmettre ces signaux vers et à partir du procédé soit en
séquence soit à la demande.
Ces systèmes d’E/S peuvent parfois être déportés dans des zones appropriées. Le câblage et
l’environnement de la salle de contrôle se trouvent alors réduits.
Les interfaces opérateurs sont les consoles (clavier / écran vidéo) à partir desquels l’opérateur
peut observer l’état du procédé et informer le cas échéant les unités de contrôle individuelles.
L’écran est divisé en plusieurs parties bien définies. Généralement, la partie basse est la partie où
sont représentées les interactions avec l’opérateur. Ainsi ce dernier peut :
La gestion de certains procédés industriels peut être très complexe et nécessite des données
antérieures et/ou des calculs mathématiques très avancées. Pour ce faire, des logiciels
d’application sont incorporés dans les calculateurs conventionnels (ordinateur hôte) intégrés aux
bus de données. Ces travaux sont effectués hors ligne, ce qui libère le système de contrôle à ses
fonctions de surveillance et de régulation.
Cette interface est assurée par un logiciel tournant sur une station de travail (workstation) sur le
réseau. Celui-ci permet de configurer le système pour s’adapter au procédé et pour diagnostiquer
les états du système pour les fonctions de maintenance. Cette interface comprend :
VI.5. Communication :
La communication des informations à tout endroit est une fonction vitale de l’automatisation du
procédé et du site.
Les opérateurs doivent communiquer avec le procédé et les différents équipements pour assurer
un bon contrôle.
¾ Les chefs de postes doivent surveiller les événements qui surviennent sur l’ensemble du
site ou du procédé
¾ Les ingénieurs doivent accéder à des informations précises concernant le procédé afin de
pouvoir l’optimiser et le dépanner efficacement
¾ Les dirigeants doivent accéder aux données du procédé leur permettant de prendre des
décisions d’affaires et d’établir des rapports
Tout ceci est supporté par un éventail de réseaux divisés en trois niveaux :
Il est quasiment essentiel, pour réussir la conduite d’un système de contrôle distribué, d’avoir
l’assurance que le message soit correct. Un ensemble de techniques de sécurité dans la
transmission des messages via le bus de données est utilisé à cette fin.
a. Définition :
L’informatique centralisée remplace de plus en plus l’informatique répartie. Les besoins sans
cesse de communications numériques rapides et fiables ont fait aujourd’hui des réseaux des
moyens fortement demandés et d’une importance capitale au sein d’une entreprise. Les
ordinateurs peuvent alors partager les utilités communes et des périphériques (imprimantes,
mémoires de stockage ou de masse, fichiers de données, logiciels, etc...). Plusieurs types de
réseaux locaux existent et la difficulté consiste à choisir le bon réseau en fonction des besoins
présents et futurs de l’installation.
Un réseau en général est le résultat de la connexion de plusieurs machines entre elles, afin que
les utilisateurs et les applications qui fonctionnent sur ces dernières puissent échanger des
informations.
Le terme réseau en fonction de son contexte peut désigner plusieurs choses. Il peut désigner
l'ensemble des machines, ou l'infrastructure informatique d'une organisation avec les protocoles
qui sont utilisés, ce qui 'est le cas lorsque l'on parle de Internet.
Le terme réseau peut également être utilisé pour décrire la façon dont les machines d'un site sont
interconnectées. C'est le cas lorsque l'on dit que les machines d'un site (sur un réseau local) sont
sur un réseau Ethernet, Token Ring, réseau en étoile, réseau en bus,...
Le terme réseau peut également être utilisé pour spécifier le protocole qui est utilisé pour que les
machines communiquent. On peut parler de réseau TCP/IP, NetBeui (protocole Microsoft)
DecNet(protocole DEC), IPX/SPX,...
Les réseaux sont nés d'un besoin d'échanger des informations de manière simple et rapide entre
des machines. Lorsque l'on travaillait sur une même machine, toutes les informations nécessaires
au travail étaient centralisées sur la même machine. Presque tous les utilisateurs et les
programmes avaient accès à ces informations. Pour des raisons de coûts ou de performances, on
est venu à multiplier le nombre de machines. Les informations devaient alors être dupliquées sur
les différentes machines du même site. Cette duplication était plus ou moins facile et ne
permettait pas toujours d'avoir des informations cohérentes sur les machines. On est donc arrivé
à relier d'abord ces machines entre elles; ce fût l'apparition des réseaux locaux. Ces réseaux
étaient souvent des réseaux "maisons" ou propriétaires. Plus tard on a éprouvé le besoin
d'échanger des informations entre des sites distants. Les réseaux moyenne et longue distance
commencèrent à voir le jour. Ces réseaux étaient souvent propriétaires. Aujourd'hui, les réseaux
se retrouvent à l'échelle planétaire. Le besoin d'échange de l'information est en pleine évolution.
Pour se rendre compte de ce problème il suffit de regarder comment fonctionnent des grandes
sociétés. Comment pourrait-on réserver une place de train dans n'importe quelle gare? Sans
échange informatique, ceci serait très difficile, voire impossible.
Si chacune des personnes (physiques ou morales) ne devait échanger des informations qu'avec
des gens de sa communauté, alors il n'y aurait pas besoin de normalisation, chaque entité pourrait
échanger ces informations avec des membres de la même entité. Il suffirait que chacune des
personnes utilise le même "langage" (protocole) pour échanger ces informations.
Malheureusement, de plus en plus d'entité ont besoin d'échanger des informations entre elles
(sites industriels, agence de voyage, organisme de recherche, école, militaires, ...). Si chacune de
ces entités utilise son réseau (au sens protocole) pour que ces entités puissent communiquer
ensemble il faudrait chaque fois réinventer des moyens pour échanger l'information. C'est ce qui
se faisait au début. Des gens ont eu l'idée de réfléchir à ce problème et ont essaye de recenser les
différents problèmes que l'on trouvait lorsque que l'on veut mettre des machines en réseau. De
cette réflexion est sortie le modèle OSI de l'ISO.
Les constructeurs informatiques ont proposé des architectures réseaux propres à leurs
équipements. Par exemple, IBM a proposé SNA, DEC a proposé DNA... Ces architectures ont
toutes le même défaut : du fait de leur caractère propriétaire, il n'est pas facile des les
interconnecter, à moins d'un accord entre constructeurs. Aussi, pour éviter la multiplication des
solutions d'interconnexion d'architectures hétérogènes, l'ISO (International Standards
Organisation), organisme dépendant de l'ONU et composé de 140 organismes nationaux de
normalisation, a développé un modèle de référence appelé modèle OSI (Open Systems
Interconnection). Ce modèle décrit les concepts utilisés et la démarche suivie pour normaliser
l'interconnexion de systèmes ouverts (un réseau est composé de systèmes ouverts lorsque la
modification, l'adjonction ou la suppression d'un de ces systèmes ne modifie pas le
comportement global du réseau).
coopération entre les équipements, c'est à dire que ce modèle devait logiquement mener à une
normalisation internationale des protocoles.
Le modèle OSI n'est pas une véritable architecture de réseau, car il ne précise pas réellement les
services et les protocoles à utiliser pour chaque couche. Il décrit plutôt ce que doivent faire les
couches. Néanmoins, l'ISO a écrit ses propres normes pour chaque couche, et ceci de manière
indépendante au modèle, i.e. comme le fait tout constructeur.
Les premiers travaux portant sur le modèle OSI datent de 1977. Ils ont été basés sur l'expérience
acquise en matière de grands réseaux et de réseaux privés plus petits ; le modèle devait en effet
être valable pour tous les types de réseaux. En 1978, l'ISO propose ce modèle sous la norme ISO
IS7498. En 1984, 12 constructeurs européens, rejoints en 1985 par les grands constructeurs
américains, adoptent le standard.
Pour faire circuler l'information sur un réseau on peut utiliser principalement deux stratégies.
- L'information est fragmentée en petits morceaux (paquets), chaque paquet est envoyé
séparément sur le réseau, les paquets sont ensuite réassemblés sur la machine
destinataire.
La première stratégie n'est pas utilisée car les risques d'erreurs et les problèmes sous-jacents sont
trop complexes à résoudre.
Le modèle OSI est un modèle à 7 couches qui décrit le fonctionnement d'un réseau à
commutations de paquets. Chacune des couches de ce modèle représente une catégorie de
problème que l'on rencontre dans un réseau.
Découper les problèmes en couche présente des avantages. Lorsque l'on met en place un réseau,
il suffit de trouver une solution pour chacune des couches. L'utilisation de couches permet
également de changer de solution technique pour une couche sans pour autant être obligé de tout
repenser.
Chaque couche garantit à la couche qui lui est supérieur que le travail qui lui a été confié a été
réalisé sans erreur.
Couche 1 physique
Dans cette couche, on va s'occuper des problèmes strictement matériels. (Support physique pour
le réseau). Pour le support, on doit également préciser toutes ces caractéristiques.
¾ Pour du câble :
• Fréquences
• Type de modulation (Phase, Amplitude,...)
• ...
¾ Fibre optique
• Couleur du laser
• Section du câble
• Nombre de brins
• …
La couche 2 Liaison
Dans cette couche on cherche à savoir comment deux stations sur le même support physique (cf.
couche 1) vont être identifiées. Pour ce faire, on peut par exemple assigner à chaque station une
adresse (cas des réseaux Ethernet,....).
La couche 3 Réseau
Le rôle de cette couche est de trouver un chemin pour acheminer un paquet entre 2 machines qui
ne sont pas sur le même support physique.
La couche 4 Transport
La couche 5 Session
Cette couche a pour rôle de transmettre cette fois les informations de programmes à programmes.
La couche 6 Présentation
A ce niveau on doit se préoccuper de la manière dont les données sont échangées entre les
applications.
La couche 7 Application
Dans la couche 7 on trouve normalement les applications qui communiquent ensemble. (Courrier
électronique, transfert de fichiers,...)
Câblage en maille :
Câblage en bus:
Câblage en anneau :
Principes de fonctionnement
Maille:
Ce type de câblage n'est plus utilisé car il nécessite beaucoup de câbles.
Avec n machines il faut : n (n -1) /2 câbles.
Bus:
Sur un câble de type bus, on utilise souvent un système CSMA/CD (Carriere Sense Multiple
Acces / Collision Detection) Accès multiple avec détection de porteuse et détection des
collisions.
Lorsqu'une machine veut émettre un message sur le bus à destination d'une autre, la première
commence par "écouter" le câble (CS). Si une porteuse est détectée, c'est que le bus est déjà
utilisé. La machine attend donc la fin de la communication avant d'émettre ses données. Si le
câble est libre, alors la machine émet ses données. Durant l'émission la machine reste à l'écoute
du câble pour détecter une collision (CD). Si une collision est détectée, chaque machine qui
émettait suspend immédiatement son émission et attend un délai aléatoire tiré entre 0 et une
valeur N. Au bout du temps N le cycle recommence. Si une seconde détection est repérée le délai
est tiré entre 0 et 2 * N. Ainsi de suite jusqu'à 16 * N. Après on recommence à N.
Réalisé par : MSc. F. TACHI 19 SONATRACH/ Groupement IAP-CU
Introduction aux systèmes de contrôle distribues DCS du 21 au 24 Janvier 2007
Chaque machine reçoit donc toutes les données qui circulent sur le bus. C'est au niveau de la
couche 2 que l'on décide de garder les données ou de les jeter.
Anneau:
Les informations circulent toujours dans le même sens. Chaque machine qui reçoit un message,
le recopie immédiatement sur le second câble. En même temps, l'information est remontée en
couche 2 pour savoir si elle est doit être conservée par la machine ou détruite. L'information
finira par revenir à la source. Cette dernière ne réemmettra pas l'information. Elle pourra
comparer les données envoyées et les données reçus pour une éventuelle détection d'erreurs.
Sur un câble de type anneau on utilise souvent un système de jeton. Le jeton est un message
particulier que les machines se font passer les une aux autres. Une machine n'a alors le droit
d'émettre que lorsqu'elle dispose du jeton. Si la machine qui dispose du jeton n'a rien à émettre,
alors elle fait passer le jeton à la machine suivante. Il existe des algorithmes pour régénérer un
jeton lorsque ce dernier est perdu suite à un incident.
Etoile:
Sur un réseau en étoile toutes les communications passent par la machine qui est au centre de
l'étoile. C'est cette dernière qui redirige l'information vers le destinataire.
Avantages et inconvénients
De plus en plus on revient à un câblage qui ressemble à première vue à un câblage en étoile.
Chaque machine est reliée par un câble à un appareil actif. Ce type de câblage peut être utilisé
dans une architecture réseau de type bus (Ethernet XXX BT). L'élément actif recopie alors
l'information sur chacun des câbles. Dans une architecture de type anneau l'appareil réemet les
informations sur un seul câble à la fois.
Cette architecture est plus sécurisée, car si une station tombe en panne (ou si son câble est
défectueux), l'élément actif peut "désactiver" la ligne en défaut. Le seul risque reste au niveau du
centre de l'étoile. Ce risque est limité, car le matériel est de plus en plus résistant.
Ce type de câblage est répandu car il permet d'utiliser les câbles tirés par les téléphonistes
Un réseau industriel joue le même rôle qu'un réseau normal. Le but premier est toujours de
transmettre des informations entre plusieurs machines. Lorsque l'on parle de réseaux, on sous-
entend généralement que les machines sont des ordinateurs. Lorsque l'on parle de réseaux
industriels, il s'agit de faire communiquer des machines qui ne sont plus seulement des
ordinateurs. On fait communiquer des appareils différents tels que des ordinateurs, des automates
programmables, des appareils de mesures, des équipements spécifiques (fours, commandes
numériques, ascenseurs, ...).
Pour relier 2 machines entre elles il existe plusieurs méthodes. L'une est dite liaison parallèle.
Elle consiste à envoyer plusieurs informations élémentaires en même temps en utilisant plusieurs
conducteurs. Cette méthode est très peu utilisée. L'autre est dite Liaison Série. Les données sont
envoyées bit par bit les uns à la suite des autres ( ex: liaison série des PC, Ethernet,...)
Les liaisons séries asynchrones sont très utilisées. La plus connue est celle qui est utilisée sur les
PC. Asynchrone signifie que les données sont envoyées de l'émetteur vers le récepteur sans
négociation préalable. C'est au récepteur de se synchroniser sur l'émetteur. Pour ce faire
l'émetteur doit envoyer un bit de START ses données (de 5 à 8 bits) suivies ou non d'un bit de
parité et de 1 ou plusieurs bits de stop. Pour qu'une liaison série fonctionne, il est nécessaire de
configurer les 2 extrémités pour que qu'elles utilisent la même parité, le même nombre de bits de
stop (1 1,5 ou 2) la longueur des données échangées (5, 6,7, ou 8 bits).
La norme RSC232 définit les valeurs des tensions que doivent fournir et reconnaître les
interfaces séries des matérielles.
Cette liaison à 3 fils est une liaison minimum. Elle nécessite une collaboration logicielle active
entre les 2 machines pour contrôler le transfert des informations. Un mécanisme souvent utilisé
est le protocole XON XOFF.
Le signal SG est la masse électrique qui doit être utilisée pour comparer les valeurs des autres
signaux.
Le signal RTS est positionné par l'émetteur lorsque ce dernier veut émettre des données.
Le signal DTR est positionné par l'émetteur pour signaler au récepteur qu'il est en ligne.
Sur la broche RX, le récepteur reçoit les données.
Le signal RTS indique à l'émetteur que son correspondant est prêt à recevoir des données.
Le signal DSR indique que l'émetteur est toujours présent.
A première vue ces signaux peuvent paraître redondants ou inutiles pour une communication
entre 2 machines, mais ils sont très pratiques pour une communication entre 2 machines reliées
par le RTC via des modems utilisant un protocole matériel.
Sur TX/RX, circulent les données qui sont échangées entre l'émetteur et le récepteur.
RTS et CTS fixe la communication entre l'émetteur et son modem (ou le récepteur et son
modem).
DCD indique à l'émetteur que la porteuse utilisée sur le RTC est présente (donc que le modem 2
n'a pas raccroché).
DTR indique au modem que l'émetteur est près à échanger des informations avec le modem.
RI indique au récepteur que le modem détecte une sonnerie.
Pour relier 2 équipements via une liaison série la norme RS232 prévoit 2 brochages différents
(DTE et DCE). Le brochage type DTE (Data Terminal Equipement) doit être utilisé pour des
équipements terminaux. Le brochage type DCE (Data Control Equipement) est normalement
utilisé pour des équipements intermédiaires utilisés sur des liaisons (modems,...). Le brochage
DTE normalisé est, celui décrit sur les connecteurs à 25 points des PC. Le brochage DCE est très
simple, sur le connecteur DB25 de l'équipement on retrouve les mêmes signaux en les croisant.
Pour relier un équipement DTE (PC, terminal, imprimante,..) à un équipement DCE (modem), il
suffit donc de relier la broche 1 à la broche 1,.... la broche 22 à la broche 22.
Astuce : au repos (sans connexion) un 1 logique doit être observé sur la broche TX. Si
l'équipement est DTE on doit donc trouver une tension négative entre la broche 2 et la broche 7
du connecteur 25 points. Si l'équipement est de type DCE, la tension négative doit se trouver
entre les broches 3 et 7.
- Câblage DTE/DTE
IL n'est pas toujours nécessaire d'utiliser des modems pour relier deux équipements par des
RS232C. La norme RS232C spécifie que l'on doit pouvoir ( avec des câbles blindés et de tension
de 40V) atteindre 150m . En pratique avec une distance supérieure à 10 ou 15m on commence à
avoir des problèmes. Si les équipements sont à moins de 10 m, il est tout à fait possible de les
relier sans passer par modem. Il s'agit de réaliser un câble Null Modem. Malheureusement il
existe une multitude de types de câbles Null modem. Il faut savoir si les équipements terminaux
utilisent un protocole matériel (type RTS/CTS) ou un protocole logiciel (type XON XOFF).
Différents protocoles
¾ Protocole Matériel
Un des protocoles le plus utilisé est celui qui utilise tous les signaux de la RS232
Lorsque l'émetteur veut émettre ses donnés, il doit positionner la ligne RTS pour demander au
récepteur s'il est prêt à accepter ces données. Le récepteur lorsqu'il est prêt à recevoir les données
va envoyer le signal DSR de l'émetteur pour lui indiquer qu'il est prêt. Lorsque l'émetteur veut
suspendre l'émission, il va enlever le signal DSR de l'émetteur.
¾ Protocole XON/XOFF
Ce protocole ne nécessite qu'une liaison sur 3 fils. Le reste de la négociation entre l'émetteur et le
récepteur pour échanger des données ce fait par logiciel. Ce protocole est basé sur les caractères
XON (ASCI 11H) et XOFF (ASCI 13H).
Le récepteur gère un buffer. Lorsque son buffer est plein à 80 % le récepteur envoie le caractère
XOFF. L'émetteur lorsqu'il reçoit le caractère XOFF doit immédiatement suspendre son
émission. Lorsque l'émetteur a vidé sont buffer à 50% il envoie un caractère XON à l'émetteur. A
la réception de XON l'émetteur peut reprendre son émission. Il est possible que l'émetteur ne
reçoive pas ou perde les caractères XON/ XOFF. Pour pallier à ces problèmes, lorsque l'émetteur
n'a pas reçu de caractères depuis un certain temps, ce dernier peut reprendre de sa propre
initiative le transfert. Si le récepteur n'est pas d'accord, ce dernier pourra toujours réémettre un
XOFF.
On distingue différents types de réseaux (privés) selon leur taille (en terme de nombre de
machines), leur vitesse de transfert des données ainsi que leur étendue. Les réseaux privés sont
des réseaux appartenant à une même organisation. On fait généralement trois catégories de
réseaux :
Il existe deux autres types de réseaux : les TAN (Tiny Area Network) identiques aux LAN mais
moins étendus (2 à 3 machines) et les CAN (Campus Area Network) identiques au MAN (avec
une bande passante maximale entre tous les LAN du réseau).
Les LAN
LAN signifie Local Area Network (en français Réseau Local). Il s'agit d'un ensemble
d'ordinateurs appartenant à une même organisation et reliés entre eux dans une petite aire
géographique par un réseau, souvent à l'aide d'une même technologie (la plus répandue étant
Ethernet)..
Un réseau local est donc un réseau sous sa forme la plus simple. La vitesse de transfert de
données? d'un réseau local peut s'échelonner entre 10 Mbps (pour un réseau Ethernet par
exemple) et 1 Gbps (en FDDI ou Gigabit Ethernet par exemple). La taille d'un réseau local peut
atteindre jusqu'à 100 voire 1000 utilisateurs.
En élargissant le contexte de la définition aux services qu'apportent le réseau local, il est possible
de distinguer deux modes de fonctionnement :
• dans un environnement d'"égal à égal" (en anglais peer to peer), dans lequel il n'y a pas
d'ordinateur central et chaque ordinateur a un rôle similaire
Réalisé par : MSc. F. TACHI 25 SONATRACH/ Groupement IAP-CU
Introduction aux systèmes de contrôle distribues DCS du 21 au 24 Janvier 2007
Les MAN
Un MAN est formé de commutateurs ou de routeurs interconnectés par des liens hauts débits (en
général en fibre optique).
Les WAN
Un WAN (Wide Area Network ou réseau étendu) interconnecte plusieurs LANs à travers de
grandes distances géographiques.
Les débits disponibles sur un WAN résultent d'un arbitrage avec le coût des liaisons (qui
augmente avec la distance) et peuvent être faibles.
Les WAN fonctionnent grâce à des routeurs qui permettent de "choisir" le trajet le plus approprié
pour atteindre un noeud du réseau.
Dans la pratique, il existe plusieurs types de DCS fournies par différents constructeurs. Ces
DCS’s ont tous été conçus pour remplir les mêmes taches ; néanmoins chaque constructeur
essaie de donner une signature propre à lui.
Les systèmes DCS’s les plus utilisés sont ceux de Honeywell, Yokogawa, Emerson, ABB,
Foxboro, Alstom et Rockwell.
Il est à noter que tous les systèmes de contrôle distribués doivent être réalisés selon l’architecture
de base suivante :
Pool P P P C P P C P
PLC nodes Node bus
(multi-processors)
I/O MEM I/O MEM BC
(30m..2 km)
Fieldbus
Directly coupled Control
input/ station bus
stations
output
sensor bus (0,5.. 30 m) Sensor bus
Transducers
M Plant
Valve Thermo-couple Position Motor
Control bus
Field bus
Plant
Le système distribué TDC 3000 est une famille de matériels et de logiciels, qui peuvent être
intégrés sélectivement dans un système de contrôle et d’acquisition de données pour répondre à
des besoins bien spécifiques.
Le TDC 3000 profite des microprocesseurs puissants de 16 et 32 bits développés dans les
dernières années pour répartir les tâches de traitement évolué, tels que la régulation avancée, la
visualisation et les historiques qui étaient réalisés auparavant par un calculateur central. Cette
architecture de traitement distribué qui va au delà de la régulation décentralisée, offre au système
des fonctions, de la capacité et de la redondance qui le rendent à la fois souple et puissant ce qui
lui permet de répondre aux exigences d’aujourd’hui en matière de contrôle des procédés
industriels modernes.
- Un réseau Ethernet
Chaque réseau peut recevoir un certain nombre de clients ou abonnés appelés modules.
- Nombre d’abonnés : 64
- Longueur : 300 m maxi en câble coaxial
- Débit d’information : 5 Mega bits/sec
On peut connecter 3 câbles LCN de 300 m chacun, longueur maxi en coaxial : 3 x 300 = 900 m.
On peut également utiliser des extensions en fibre optique (maximum 2 par LCN).
Un module LCN comprend des circuits imprimés montés dans un châssis. Il y a deux types de
châssis disponibles :
¾ Un double châssis qui a une zone à trois emplacements pour un module et une zone à deux
emplacements pour un second module (avec deux alimentations différentes).
¾ L’autre type est un châssis à cinq emplacements qui peut contenir jusqu’à cinq cartes
imprimées appartenant au même module.
Chaque module est constitué généralement de deux cartes. Une carte processeur identique à tous
les modules et une carte d’identité ou de personnalité.
La station universelle est l’interface homme/machine primaire du TDC 3000. Elle constitue une
fenêtre unique sur l’ensemble du système, que les données résident dans un des modules du LCN
ou dans un des appareils branchés au procédé.
La station de travail universelle est une autre interface homme/machine. Elle offre les mêmes
fonctions que la station universelle mais conçue pour un environnement de bureau.
Le module historique permet le stockage de masse de données sur disques durs. Ces données
peuvent être les historiques des alarmes procédé, modifications opérateur, modifications de l’état
du système,…
Le module d’interface réseau est un module du LCN qui interconnecte l’UCN avec le LCN. Il
convertit les techniques de transmission et protocoles du LCN en protocole et techniques de
transmission de l'UCN.
Le PLNM est un module qui procure une interface entre le LCN et le réseau Ethernet et donc par
voie de conséquence fournit une liaison entre n’importe quel nœud LCN et n’importe quel nœud
Ethernet.
VAX PC
PC
ETHERNET
US
UwS AM HM PLNM
NG
LCN NG
NIM
Advanced Process
Manager ( APM )
Remote I/O
UCN
La station universelle X est une autre interface homme/machine qui fournit les mêmes
fonctionnalités que celles d’une station universelle, en plus elle fournit une autre fenêtre sur le
réseau Ethernet. Cette fenêtre est utilisée pour accomplir différentes tâches.
Le NG connecte un LCN à un autre LCN, chacun avec un NG peuvent communiquer entre eux
en toute sécurité à des distances éloignées. Ceci permet la configuration du TDC 3000 à travers
plusieurs salles de contrôle, chacune avec son propre LCN, et par conséquent procure la
coordination du contrôle et de l’acquisition de données dans un complexe entier.
L'UCN est un réseau qui relie tous les équipements d’acquisition de données et de régulation. La
connexion avec le LCN se fait par le NIM.
L’UCN peut être constitué de supers processs managers (Advanced Process Managers, APMs),
de logic managers (LMs), de Safety managers (SFs)…etc. Par exemple dans la configuration
adoptée dans le complexe GL1K, on ne disposons que d’APMs.
Le super process manager (APM) est un équipement connecté au procédé extrêmement versatile
avec un jeu de fonctions de régulation et d’acquisition très puissant. Il peut être configuré avec
un jeu complet de cartes d’entrées/sorties et ses fonctions de contrôle vont de l’algorithme le plus
simple aux fonctions de contrôle les plus évoluées pour les procédés continus, discontinus ou
hybrides. Ses possibilités vont de la régulation sophistiquée à la programmation en langage
CL/APM, il permet les communications latérales et est compatible avec une architecture de
systèmes de communications ouverts.
L’APM est conçu pour une scrutation souple et puissante et pour assurer des fonctions de
contrôle. Pour ce faire il utilise une architecture multiprocesseurs séparés dédiés à des tâches
spécifiques.
o Caractéristiques physiques
Le super process manager (APM) est monté dans une armoire Honeywell comme le montre la
figure ci-dessous. Il contient les composants suivants :
) Le sous-système d’alimentation
) Les racks à cartes.
) Les cartes APMMs, IOPS, FTAS.
) Les câbles UCN.
Le sous-système d’alimentation :
Le sous-système d’alimentation de l’APM situé tout en bas de l’armoire consiste en une ou deux
alimentations, en des batteries de sauvegarde pour l’alimentation de tous les circuits de mémoire
CMOS dans l’APM et en des batteries optionnelles de sauvegarde pour la ou les entrées
d’alimentation.
Les racks :
Juste au-dessus du sous-système d’alimentation, se trouvent les racks à cartes. Ces derniers
contiennent les cartes de l’APMM et les cartes d’entrées/sorties.
L’APM peut contenir jusqu’à six racks adressés de 1 à 6 et reliés entre eux dans une
configuration Daisy chain.
L’APM est constitué d’un APMM simple ou redondant et de cartes d’entrées/sorties. Dans la
configuration adoptée par le complexe GL1K, tous les APMMs sont redondants et montés dans
des racks à APMM unique situés juste au-dessus du sous-système d’alimentation l'un au-dessus
de l’autre.
Comme le montre la figure ci-dessous, l’APM est constitué d’une unité centrale (APMM) et d’un
sous-système d’entrées/sorties.
L’APMM
Carte modem :
Elle est chargée de transmettre et recevoir les signaux échangés entre l’APM et l’UCN. Elle
fournit en outre une ligne de sélection automatique qui permet à l’APM de permuter entre les
câbles UCN A et B en cas de problème sur l’un d’entre eux.
Elle agit aussi comme buffer pour les données acquises par le biais des cartes d’entrées/sorties et
qui peuvent être accédées par la carte de contrôle et s’occupe des communications interne à
l’UCN (entre équipements UCN ou communication peer to peer).
Elle agit comme maître sur le réseau d’entrées/sorties, elle scrute les cartes d’entrées/sorties et
place les données collectées dans la RAM de la carte de communication qui seront par la suite
mises à la disposition de la carte de contrôle.
NETWORK
INTERFAC
E
MODULE
PROCESSS MANAGER
I/O LINK
16
8
32 16
UCN
Carte de contrôle :
L’adresse de l’APM dans l’UCN est toujours impaire et commence généralement à partir de 9
(les adresses de 1 à 8 sont utilisées pour les NIMs). Cette adresse est en fait l’adresse de
l’APMM primaire avec l’adresse suivante (paire) pour l’APMM redondant.
Le sous-système d’entrées/sorties :
Nombres
Redondance
Cartes d’entrées/sorties de points
permise
par carte
Entrée analogique bas niveau ( LLAI ) 8 Non
L’acquisition du signal.
Le conditionnement du signal (filtrage).
La conversion analogique/numérique (acquisition) et numérique/analogique (commande)
Réalisé par : MSc. F. TACHI 37 SONATRACH/ Groupement IAP-CU
Introduction aux systèmes de contrôle distribues DCS du 21 au 24 Janvier 2007
Toutes les connexions vers et en provenance du procédé se font par les plaques borniers (field
termination assemply). Ces borniers sont reliés aux processeurs d’entrées/sorties par des câbles
pouvant aller jusqu’à 50 mètres.
La connexion.
La conversion courant/tension et tension/courant.
Protection contre les surtensions.
Fusibles.
Limitation de courant.
Alimentation des transmetteurs en 24 v.
Isolation galvanique.