Modi
Modi
Modi
Introduction générale
La technologie de l’information, a envahi tous les domaines de notre vie quotidienne,
surtout aux seins des entreprises économiques, qui doivent s’armer de la plus récente des
technologies, Car soumise à une rude et virulente concurrence.
Malgré les progrès apportés par le génie logiciel, les développements d’application
répondant aux besoins exprimés se rationalisent lentement.
0.1. Problématique
La problématique est la présentation d’un problème qui soulève une interrogation qu’il faut
résoudre. Elle requiert d’être extraite de l’énonce, c’est-à-dire du sujet de l’épreuve ou de la
recherche.
Le problème qui se pose présentement dans la gestion des élèves du C.S La Tulipe où nous
sommes agents, est que les traitements des informations se font manuellement.
Alors les résultats ne sont pas vraiment fiables. Car il y a souvent des erreurs matérielles,
notamment pertes des documents et erreurs de calcul des frais scolaires, et pas de contrôle
efficace des frais scolaires. D’où quelques préoccupations nous ont intéressées :
1. Qu’est ce qui est à la base de la lenteur dans les transmissions des informations au sein
de la structure choisie ?
2. Les rapports présentés quotidiennement ne contiennent-ils des erreurs ?
3. Quel moyen faudra-t-il utiliser pour améliorer le fonctionnement de ce système ?
0.2. Hypothèse
Une hypothèse est une partie du raisonnement qui permet de présenter la recherche
développée tout au long d’un travail.
Pour résoudre les problèmes et répondre aux soulevées ci-haut, nous nous proposons une
solution informatique qui sera basé sur « mise place d’une application client-serveur pour
la gestion de la scolarité des élèves » pour résoudre ces problèmes qui empêchent le bon
fonctionnement de cette institution éducative.
c. Intérêt personnel
La rédaction de ce sujet nous permettra de pouvoir acquérir des nouvelles connaissances ainsi
qu’une expérience professionnelle sur tout ce qui se passe et nous permet de démonter nos
connaissances acquises durant les trois ans de notre premier cycle d’études.
a. Méthode historique
Nous a permis d’entrer en procession des informations rapportant au passée et aussi à
connaitre comment le système de paiement et inscription fonctionnaient de cette époque-là à
aujourd’hui
b. Méthode structuro-fonctionnelle
Ceci nous a aidé à connaitre la structure du point de vue, les hiérarchies et les droits d’accès
aux documents et informations selon les postes de travail.
c. Méthode MERISE
d. Méthode Analytique
Elles nous ont permis d’analyser l’existant, relever ses défauts et des qualités, proposer des
solutions et enfin de choisir la meilleure solution dans notre cas d’espèce.
0.4.2. Techniques
a. Technique de L’interview
Est une entrevue, ou encore mieux un entretien. C’est une technique qui utilise un processus
de communication verbale pour recueillir les informations en relation avec un but fixé. Pour
cette technique, nous sommes allés rencontrer les administrateurs pour réaliser l’interview, en
vue de recevoir les informations du Complexe Scolaire La Tulipe et son système de gestion de
la scolarité des élèves.
b. Techniques Documentaires
Cette technique consiste à mettre à la disposition des chercheurs des documents contenant les
différentes informations à exploiter.
c. Technique d’observation
Du point de vue spatial, nous avons pensé mettre en place une application pour la gestion de
scolarité des élèves. La traçabilité des frais scolaires et des inscriptions au sein du Complexe
Scolaire La Tulipe pour une bonne prise de décision au sein du complexe Scolaire, qui est
situé dans la ville province de Kinshasa, commune de Kimbanseke, quartier Mikondo, avenue
Ndjoko
Nous avons
Ce chapitre se donne alors comme objectif de définir de manière synthétique les deux
grands concepts qui sont indispensables à la compréhension de cet objet d’étude, notamment
le concept système d’information et le concept base de donnée.
Mais Qu’est-ce qu’un système d’information ? Les lignes qui suivent donneront lumière à ces
questions.
I.1.1. Définitions
Un système d’information est défini comme l’ensemble des informations circulant
dans une entreprise et les moyens mis en œuvre pour les gérer. C’est la combinaison
formalisée des ressources humaines, des données ainsi que des outils nécessaires pour
atteindre un objectif.
C’est aussi un ensemble des moyens (humains et matériels) et des méthodes se
rapportant au traitement de l’information d’une organisation.
Le Système d’information est un ensembles de taches complexes regroupées en
modules spécialisés qui composent l’applicative informatique : le logiciel.
Selon R.REIX, c’est une liaison dynamique entre le système de pilotage et le système opérant.
Figure 1 : système d’information
Flux
Nous considérons le flux comme étant un ensemble des informations véhiculées
entre deux fonctions.
Le système d’information d’une entreprise peut alors être considéré comme étant
constitué d’un ensemble de flux d’informations qui transitent entre diverses stations.
La confidentialité : pour qu’une information grande sa valeur ou son poids, elle doit
être rare c’est-à*dire que certaines informations de l’information de l’entreprise ne
doivent pas être divulguées à des tiers.
d. Niveau Physique
Le niveau physique permet de définir l’organisation réelle physique des données. Il apporte
les solutions techniques en faisant le choix matériel ou technique pour le système
d’information. Alors on répond à la question « COMMENT ? » et se traduit par :
Modèle physique de données(MPD) ;
Modèle opérationnel ou physique de traitement(MOPT).
Ceci peut se présenter dans un tableau de récapitulatif :
Niveaux Données Traitements
I.2.2. Définitions
Une base donnée est un ensemble structuré de données enregistrées sur des supports,
accessibles par l’ordinateur, représentant les informations par une communauté d’utilisateurs.
On peut remarquer qu’une organisation consistant en un (plusieurs) fichier(s) stockés sur
mémoire secondaire est conforme à cette définition. Un ensemble de fichiers ne présentant
qu’une complexité assez faible, il n’y aurait pas la matière à longue dissertation.
Malheureusement l’utilisation directe de fichiers soulève de très gros problèmes :
Lourdeur d’accès aux données. En pratique, pour chaque accès, même plus
simple, il faudrait écrire un programme ;
Manque de sécurité. Si tout programmeur peut accéder directement aux
fichiers, il est impossible de garantir la sécurité et l’intégrité des données ;
Pas de contrôle de concurrence. Dans un environnement où plusieurs aux
fichiers, il est impossible de garantir la sécurité et l’intégrité des données.
D’où le recours à un logiciel changé de gérer les fichiers constituant une base de
données, de prendre en charge les fonctionnalités de protection et de sécurité et de fournir les
différents types d’interface nécessaires à l’accès aux données. Ce logiciel (le SGBD) est très
complexe et fournit le sujet principal de chapitre. En particulier, une des tâches principales du
SGBD est de masquer à l’utilisateur les détails complexes et fastidieux liés à la gestion de
fichiers.
Les années 80
Les années 80 ont connu le développement du transactionnel et des bases de données.
Les systèmes ont commencé à migrer depuis des systèmes propriétaires vers des systèmes
plus ouverts. Les bases de données relationnelles ont vu le jour accompagné de langages de
développement construit autour des données. SQL s’est imposé comme la norme d’accès aux
données. Les réseaux, notamment locaux sont développés. D’un autre côté, les micro-
ordinateurs se sont imposés dans l’entreprise et ont apporté des interfaces conviviales. Le
maintien des mainframes, le développement des systèmes départementaux, la profusion
d’ordinateurs personnel ont rendu les communications difficiles.
Figure 5: Mainframes
Les années 90
Les réseaux occupent désormais une place centrale dans l’entreprise. Les vitesses de
calcul des micros deviennent impressionnantes. Le graphique est partout au niveau des
interfaces. Le besoin de partage des données est essentiel aussi bien pour l’accès
transactionnel caractérisé par des mises à jours rapides en temps réel que pour l’accès
décisionnel marqué par le besoin de requêtes complexes sur des gros volumes de
données. Il faut développer vite, par exemple pour ne pas rater un mailing ciblé suite à
une campagne de promotion. La concurrence entre les entreprises est exacerbée ; la
flexibilité et la productivité de l’informatique font souvent la différence. Pour
améliorer la vitesse de développement et surtout la maintenabilité des applications, on
va s’imposer des méthodes de conception et de développement orientés objets. Ainsi,
l’architecture type d’un système moderne a évolué vers celle représentée figure1. Il
s’agit là d’une architecture client-serveur (en abrégé, C/S).
Lorsque la connexion est acceptée par le serveur, il communique comme le prévoit la couche
application du modèle OSI
Client serveur
Requête Opération
Réponse
Une application Web est généralement conforme au modèle à trois niveaux (…). Le
premier niveau est constitué non seulement du navigateur mais également du serveur web, qui
doit organiser les données dans un format acceptable. Le deuxième niveau se compose
généralement d’un script ou d’un programme. Enfin, le troisième niveau fournit au niveau
intermédiaire les données dont il a besoin.
L'ordinateur central n’affichait que du texte à l'écran sans graphisme (pas de bouton, pas de
fenêtre). Il était spécialisé dans la gestion d'informations de masse auquel il pouvait appliquer
des instructions simples (addition, soustraction, etc.) mais avec une grande vélocité. Ainsi,
plusieurs milliers de personnes pouvaient travailler sur cette unité centrale sans
ralentissement.
Aujourd'hui, les anciens terminaux passifs ont été remplacés par des émulations logicielles
installées sur des ordinateurs personnels.
Cette architecture est déployée sur le MVS d'IBM mais aussi sur des serveurs sous UNIX,
LINUX, etc.
Avantage :
Inconvénients :
2°) Transparence aux serveurs Les SGBD mis en œuvre peuvent être divers, bien que
généralement relationnel (ACCESS, MYSQL, ORACLE, etc.). Ces divers SGBD offrent
cependant des moyens de connexions variés et des syntaxes du langage SQL souvent
différent. Un bon médiateur se doit donc là encore de cacher la diversité et d’uniformiser le
langage SQL en s’appuyant le plus possible sur les standards.
3°) Transparence aux langages Les différents langages de développement sur le réseau ont
des différentes syntaxes pour les fonctions de connexions aux serveurs. Le bon médiateur doit
permettre l’intégration des fonctions de connexions aux serveurs, d’émission de requêtes et de
réception de réponses dans tout langage de développement utilisé coté client. Les fonctions
appelées doivent être aussi indépendantes que possible du langage. D’autre part, le médiateur
doit assurer les connexions des types de données en provenance du serveur dans des types du
langage de développement et réciproquement pour le passage des paramètres.
La couche session
La couche présentation
La couche application
Historique
Avant l’apparition de ce modèle, le client-serveur avait des limites car celles les machines
(ordinateurs) ayant le même type de système d’exploitation qui pouvaient se communiquer.
Par exemple l’ordinateur qui a le système d’exploitation Windows ne pouvait s’échanger
qu’avec un produit de Microsoft, le système d’exploitation Ubuntu devait se communiquer
qu’avec un autre Ubuntu.
Compte tenu de ce majeur inconvénient un groupe de gens se sont réunis pour mettre en place
un système qui devait supporter et mettre en communication deux systèmes d’exploitation
différents, autrement dit l’interopérabilité de systèmes.
Après cet accord fut la naissance de l’OSI qui est le modèle standard pour tous les systèmes.
1. La couche physique
2. La couche liaison
3. La couche réseau
4. La couche transport
5. La couche session
6. La couche présentation
7. La couche application
Pour permettre bien le dialogue entre client et serveur, chaque couche doit jouer son rôle.
1. La couche physique
2. La couche liaison
Fait l’interconnexion proche en proche, elle s’occupe des qualités de services. Elle fait la
gestion des IP (Internet Protocol) appelés adresses logiques des ordinateurs et celle de routage
pour déterminer la meilleure route de chaque paquet.
4. La couche transport
Elle s’occupe du bon acheminement des messages complets au destinataire. Son rôle principal
est de prendre le message de la couche session, les découper en vue de les passer à la couche
réseau.
5. La couche session
6. La couche présentation
7. La couche application
Elle est le point de contact entre l’utilisateur et le réseau. Les services de bases offerts par le
réseau sont apportés par cette couche. A titre illustratif la messagerie, le transfert de
fichiers, …
Même si ce modèle reste très théorique, il a le mérite d’être le plus méthodique. Il y a deux
points qu’il convient de bien comprendre avant tout :
Chaque couche est conçue de manière à dialoguer avec son homologue, comme si une
liaison virtuelle était établie directement entre elles ;
Chaque couche fournit les services clairement définis à la couche immédiatement supérieure,
en s’appuyant sur ceux, plus rudimentaires, de la couche inférieure, lorsque celle-ci existe.
Un client léger est une application où le traitement des requêtes du client (applications Web
n'utilisant pas ou peu de JavaScript côté client, terminaux Terminal Services, Secure Shell,
Apple Remote Desktop, Citrix XenApp, TeamViewer, etc.) est entièrement effectué par le
serveur, le client recevant les réponses « toutes faites ».
Client lourd
Un client lourd est une application où le traitement des requêtes du client (applications de
bureau, applications mobile) est partagé entre le serveur et le client.
Client riche
Un client riche est une application où le traitement des requêtes du client (applications Web
utilisant beaucoup de JavaScript côté client) est effectué majoritairement par le serveur, le
client recevant les réponses « semi-finies » et les finalisant. C'est un client léger plus évolué
permettant de mettre en œuvre des fonctionnalités comparables à celles d'un client lourd.
Comparaison des architectures centralisées et distribuées
Toutes les données sont centralisées sur un seul serveur, physique ou virtuel,
ce qui simplifie les contrôles de sécurité, l'administration, la mise à jour des
données et des logiciels.
La complexité du traitement et la puissance de calculs sont à la charge du ou
des serveurs, les utilisateurs utilisant simplement un client léger sur un
ordinateur terminal qui peut être simplifié au maximum.
Recherche d’information : les serveurs étant centralisés, cette architecture est
particulièrement adaptée et véloce pour retrouver et comparer de vastes
quantités d'informations (moteur de recherche sur le Web), par rapport à
l'architecture distribuée beaucoup plus lente, à l'image de Freinet.
II.10. CONCLUSION
Nous voici au terme de ce chapitre, nous allons retenir que le modèle client-serveur joue un
grand rôle dans le domaine de webographie tout comme dans d’autres domaines en
informatique car il est la base de tous les services réseaux informatiques. Elle offre la
possibilité d’interconnecter plusieurs clients via le réseau afin de répondre à tout un chacun
d’eux selon sa demande.