PFEBI
PFEBI
PFEBI
En vue d’obtention du
ressources humaines
Encadrants :
Réalisé par :
Mr. Jelassi Nidhal
Ben Mamya Rihab
Mme. Chagra Sonia
pour moi, qui a tant donné, pour qu’on puisse grandir et réussir.Je te dédie
i
A mon cher frère Firas, mon ange gardien et mon fidèle compagnant
dans les moments les plus délicats de cette vie. Je vous dédie ce travail avec
uni et des souvenirs de tous les moments que nous avons passé ensemble,
bonheur.
A tous ceux qui mes sont chers et toujours dans mes pensées.
Rihab
ii
REMERCIEMENTS
Ce projet de fin d’étude marque une étape importante dans notre vie. Il
Nous voudrions remercier toutes les personnes qui nous ont accompagnés
tout au long de notre formation : Nous tenons à adresser nos sincères re-
merciements :
cadrant à l’AFH pour avoir bien voulu nous encadrer, pour tout le temps
qu’ils nous ont octroyés et pour tous les conseils qu’ils nous ont prodigués.Ils
nous ont toujours réservé le meilleur accueil, malgré leur obligations profes-
iii
sionnelles. Leur encouragements inlassables, amabilité, gentillesse méritent
tude.
ce travail. Nous saisissons cette occasion pour vous exprimer notre profonde
Dédicace i
Remerciements ii
Introduction 1
i
TABLE DES MATIÈRES
3 État de l’art 26
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Informatique décisionnelles . . . . . . . . . . . . . . . . . . 27
3.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.2 Architecture de l’Informatique décisionnelles . . . . 28
3.2.3 ETL « Extraction-Transformation-Chargement » . . 29
3.3 Entrepôt de données « Data warehouse » . . . . . . . . . . 32
3.3.1 Caractéristique d’un entrepôt de données . . . . . . . 32
3.3.2 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.3 Magasin de données « DataMarts » . . . . . . . . . . 35
3.3.4 Modélisation multidimensionnelle . . . . . . . . . . . 38
3.3.5 Type de modèle dimensionnel . . . . . . . . . . . . . 41
3.4 Restitution des données . . . . . . . . . . . . . . . . . . . . 44
3.4.1 Le reporting . . . . . . . . . . . . . . . . . . . . . . 45
3.4.2 Tableau de bord (Dashboard) . . . . . . . . . . . . . 46
3.4.3 Fouille de données (Datamining) . . . . . . . . . . . 46
3.4.4 On-Line Analytical Processing OLAP . . . . . . . . 47
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4 Conception 54
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.2 Étude détaillée des cas d’utilisation . . . . . . . . . . . . . . 55
4.2.1 Raffinement du cas d’utilisation « Gérer ETL » . . . 55
4.2.2 Raffinement du cas d’utilisation «Créer transforma-
tions» . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.3 Raffinement du cas d’utilisation « Analyser les don-
nées » . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2.4 Raffinement du cas d’utilisation « Créer Cube » . . 59
ii
TABLE DES MATIÈRES
iii
TABLE DES MATIÈRES
Conclusion 140
Netographie 143
iv
TABLE DES FIGURES
v
TABLE DES FIGURES
vi
TABLE DES FIGURES
vii
LISTE DES TABLEAUX
viii
LISTE DES TABLEAUX
ix
INTRODUCTION
choix qui doivent être faits dans des temps très courts tout en prenant
importance.
1
nostics est que les dirigeants rencontrent des problèmes de blocage ou de
Comme l’ensemble de données manipulées par les outils sont très abon-
dans un aspect décisionnel adéquat pour les statistiques, il est donc né-
Mise en place d’un tableau de bord pour la gestion des ressources humaines
des données, de développer des cubes OLAP pour admettre une analyse
2
multidimensionnelle et de créer un portail de reporting.
à nos travaux.
entrepôt de données.
3
CHAPITRE 1
1.1 Introduction
4
1.2 Contexte du projet
en inspirant les solutions les plus adéquates. Le secteur de notre projet est
« AFH ».
1.3.1 Historique
5
aussi, par son approche globale, à la création de villes modernes, adaptées
monde [1]
d’urbanisme.
— Créer les conditions les plus favorables pour améliorer l’état du secteur
En créant l’A.F.H. par la Loi n 73-21 du 14 avril 1973, les pouvoirs pu-
6
gés dont ils ont besoin pour faire face à la demande publique et privée,
monde actuellement.
daires nécessaires.
coût.
7
1.3.3 Organisation
et de son administration :
8
1.4 Problématique
C’est la raison pour laquelle les dirigeants des ressources humaines sont
1.5 Motivations
des bases de données opérationnelle an d’avoir une vue globale sur la per-
9
formance des ressources humaines de l’entreprise et de permettre aux déci-
deurs de prendre de bonnes décisions aux bons moments. Pour cette raison,
l’entreprise doit disposer d’un entrepôt de données qui centralise les infor-
mations de qualité et des outils des restitutions pour présenter les données
— Méthodologie agile
— XP : eXtreme Programming
— SCrum
10
Nous présentons dans le tableau suivant une comparaison entre les diffé-
rentes méthodes existantes, les points forts et les points faibles de chacune.
itération et non
forcément tout le
logiciel.
11
2TUP -Propose un cycle -Itératif. -Ne propose pas
technologie et à la développement.
Scrum -Se base sur des -Donne toute -La mise en oeuvre
précis et fournit
une fonctionnalité
testée.
12
XP -Ensemble de « -Itératif. -Assez flou dans sa
de moins de 10
personnes.
13
Figure 1.2 – Organigramme de l’AFH
l’entreprise.
14
d’avoir un système inadapté aux besoins des utilisateurs.
— La conception générique.
— La conception préliminaire
— La conception détaillée
— Le codage
— L’intégration
15
1.7 Planification du projet
Afin de mieux organiser notre projet, nous avons présenté sous forme
1.8 Conclusion
16
CHAPITRE 2
2.1 Introduction
Un système décisionnel est un projet qui demande une étude bien spé-
présenter notre étude et critique de l’existant puis nous allons spécier les
l’analyse.
17
2.2 Etude de l’existant
Dans l’AFH, l’ensemble des données liées à la gestion des métiers sont
rapports créés manuellement dans des chiers Excel dont les données sont
durée très longue dans la collecte des informations et leur sélection à chaque
18
prise de décision.
Pour bien répondre aux exigences des utilisateurs, le système devra pou-
sources humaines. En d’autres termes les principaux besoins sont les sui-
vant :
19
TAWERHOUSE sont d’origine diverses. En effet, les données pro-
lance périodiquement.
par nature d’absence, par nombre de jours, par collège, par genre. . .
graphique, par année, par mois, par collège, par type indem . . . ).
20
— Le suivie de crédit selon des critères différents (type crédit, affec-
— Fiabilité : les rapports générés doivent être bien précis et basés sur
sible.
21
— Ergonomie : le système doit être adapté aux standards d’ergonomie
environnement.
22
Figure 2.1 – Diagramme de cas d’utilisation global
23
2.4.2 Identification des acteurs :
Elle consiste à déterminer les différents acteurs qui vont interagir de près
Un acteur : est toute entité qui interagit avec notre système dans le but
serveur de reporting.
l’administrateur.
24
2.5 Conclusion
Enfin, il nous reste à élaborer une bonne conception afin d’assurer le bon
fonctionnement du système.
25
CHAPITRE 3
ÉTAT DE L’ART
3.1 Introduction
les activités et les secteurs, les entreprises manipulent une masse colossale
26
Dans ce chapitre, l’objet est de définir les concepts fondamentaux relatifs
3.2.1 Définition
des moyens, des outils et des méthodes qui permettent de les collecter,
27
3.2.2 Architecture de l’Informatique décisionnelles
28
ponsable de structurer les données par rapport à leur niveau de gra-
des outils de Reporting, des outils de tableau de bord, des outils des
« You get the data out of its original source location (E), you do something
to it (T), and then you load it (L) into a final set of tables for the users to
2. The Data Warehouse Lifecycle Toolkit,Practical Techniques for Building Data Warehouse and Bu-
siness Intelligence Systems ;Wiley Publishing, INC ; Janvier 2008.
29
dans un entrepôt de données, qui représente une part majeure des traite-
système.
30
préter les données, identifier, sélectionnées et copier dans la zone de
données dans l’entrepôt afin d’être utilisable par les autres outils du
système BI.
31
3.3 Entrepôt de données « Data warehouse »
sées par le système pour analyser les informations. Il assure dans un premier
nel.
[Inmon 1992] 4
cisions.
des systèmes sources où les données sont plutôt structurées par pro-
32
cessus fonctionnel.
qui existent.
futures.
33
explicitly -an element of time ». [Inmon, 2000] 5
décision.
34
3.3.2 Objectifs
house.
partielle du data warehouse mais orientée métier. De ce fait ils suivent les
mêmes principes que celui-ci, leur différence se situe sur le fait qu’un Data-
35
Datawarehouse Datamart
Ventes.
sources.
36
Caractéristique BD de production Datawarehouse DataMart
pilotage, support à
la décision
données constellation
d’information)
consolidation
pressions pressions
37
3.3.4 Modélisation multidimensionnelle
qui vise à présenter les données sous une forme standardisée intuitive et qui
permet des accès hautement performants. Elle structure les données d’une
se compose d’une table contenant une clé multiple, la table des faits, et
Les « faits », sont les données observables que l’on possède sur un sujet
et que l’on veut étudier, sont ce sur quoi va porter l’analyse. Ce sont des
Les« faits » dans un entrepôt de données sont généralement des valeurs nu-
mériques, additives. Une table de faits assure les liens plusieurs à plusieurs
entre les dimensions. Elle comporte des clés étrangères, qui ne sont autres
38
que les clés primaires des tables de dimension et l’ensemble des mesures cor-
b. Table de dimension
Une « dimension » est une table qui raccompagnent une table de faits
contient les axes d’analyse selon lesquels on veut étudier des données ob-
39
pelle donc dimension un axe d’analyse.
Une dimension est généralement constituée : d’une clé artificielle, une clé
c. Les mesures
Une mesure est un hyper cube, le plus souvent entier ou décimal, structuré
d. Les attributs
Les attributs sont généralement des champs textuels qui décrivent une ca-
ractéristique d’un élément tangible. Par exemple, les descriptions d’un pro-
duit.
40
3.3.5 Type de modèle dimensionnel
modèle en constellation.
a. Modèle en Etoile
senté par une table de faits centrale autour de laquelle gravitent les dimen-
sions permettant d’analyser les faits qui y sont contenus. Chaque dimension
est décrite par une seule table dont les attributs peuvent représenter toutes
La table située au centre de l’étoile est la table des faits ou mesures (ou
encore métriques) : ce sont les éléments mesurés dans l’analyse, les tables
situées aux extrémités de l’étoile sont les tables de dimensions (ou encore
l’analyse.
41
Figure 3.5 – Structure d’un modèle en étoile
— Avantages :
— Facilité de navigation.
creuses.
— Inconvénients :
— Alimentation complexe.
42
b. Modèle en flocon
plus en plus les dimensions sont décomposées, une plus grande hiérarchisa-
— Avantages :
— Réduction de volume.
43
— Evite les redondances.
— Inconvénients :
— Navigation difficiles.
— Nombreuses jointures.
c. Modèle en constellation
— Avantage :
— Inconvénient :
— Complexité du modèle.
44
dans le cadre de l’aide à la décision.
3.4.1 Le reporting
tion consistant, pour une entreprise, à faire rapport de son activité. C’est
Les bases de données sont interrogées selon les requêtes SQL préparées lors
45
comptes rendus particulièrement seyants et pertinents.
46
ces données en informations utiles, en établissant des relations entre les
« Data Mining est le processus non trivial permettant d’identifier des mo-
a. Définition
calcul de mesures agrégées pour offrir un accès rapide aux données en vue
lyse.
de l’utilisateur.
47
mériques contenues dans l’entrepôt de données ; Style d’interrogation spé-
des décisions d’ordre stratégiques qui touches des axes hétérogènes, d’où la
8. Guide de conduite de projet , 1ère Edition ;Paris, France ;Eyrolles ;Mars 2005.
48
Caractéristiques Processus OLAP Processus OLTP
agrégées, orientées
utilisateur)
automatique
Le noyau d’un système OLAP est son serveur. Ces serveurs sont classés
49
de bases de données propriétaire dont l’aspect dimensionnel est pré-
ball, 2005] 9
9. Guide de conduite de projet , 1ère Edition ;Paris, France ;Eyrolles ;Mars 2005.
50
type de système les avantages du ROLAP et du MOLAP en utilisant
HOLAP MOLAP pour données som- & ROLAP pour données dé-
maire taillées
51
— Slicing : Sélection de tranches du cube par prédicats selon une di-
mension.
e. Langage de requêtes
Comme SQL pour les bases de données relationnelles, il existe des langages
OLAP.
52
3.5 Conclusion
Dans ce chapitre nous avons consacré à définir les notions et les concepts
nécessaires à une bonne analyse, ont fait de lui un atout majeur et incon-
Au cours des chapitres suivants, nous allons utiliser les concepts présentés
dans l’état de l’art, et cela afin de mettre en œuvre notre système, aussi
53
CHAPITRE 4
CONCEPTION
4.1 Introduction
54
4.2 Étude détaillée des cas d’utilisation
L’étude détaillée des cas d’utilisation concerne les besoins relatifs à l’en-
trepôt de données. Dans cette section nous allons expliquer chaque cas.
C’est l’étape la plus importante, elle constitue de 70% à 80% du temps dans
un projet décisionnel.
55
Figure 4.1 – Raffinement de cas d’utilisation ” Gérer ETL”
56
4.2.2 Raffinement du cas d’utilisation «Créer transformations»
PDI et créer les dimensions et les faits, charger les données sources. Il peut
57
4.2.3 Raffinement du cas d’utilisation « Analyser les données »
Pentaho BI Server qui nous permet de créer des cubes OLAP. En premier
lieu, il faut charger les données dans l’entrepôt de données qu’on a créé
58
4.2.4 Raffinement du cas d’utilisation « Créer Cube »
Pour créer un cube il faut définir les tables de faits, les mesures, et les
les dimensions.
59
4.2.5 Raffinement du cas d’utilisation « Gérer rapports »
rapports.
60
4.3 Diagramme de séquence
L’utilisateur saisit son login et son mot de passe, il clique sur le bouton «
61
4.4 Conception de l’entrepôt de données
de client.
— Choix des dimensions : Dans cette étape on doit choisir les diffé-
lieu.
62
4.4.1 Les dimensions
projet, elle est nécessairement un facteur dont dépend l’aspect que l’objectif
Les dimensions ont pour objectif de définir le fait, donc on essaye de recen-
ser toutes les informations qui décrivent l’effectif et qui peuvent intéresser
les décideurs.
63
Dimensions Définition
vice,. . . ).
général,. . . ).
personnel.
de chaque personnel.
64
dim ufa Elle contient les différentes ufa de
du matériel,. . . ).
personnel.
Droit, Architecture,. . . ).
nel.
chaque personnel.
taire,. . . ).
Mi-temps,. . . ).
65
dim typeAbs Elle contient les différents types
maladie,. . . ).
ment,...).
clinique,. . . ).
66
Ci-dessous la description détaillée de chaque dimension :
— Dimension Date :
dans tout entrepôt de données, car en pratique tout entrepôt de données est
toutes les instances légales et représentatives sur l’état des ressources hu-
sateurs ont exprimé avec insistance leur besoin d’un suivi annuelle de leurs
67
Désignation Type Détail
dim date
— Dimension Age :
dim age
complet
68
— Dimension Ancienneté :
dim Ancienneté
complet
— Dimension Sexe :
dim Sexe
69
— Dimension Situation Familiale :
dim Situation
personnel en Français
personnel en Arabe
graphique en français
graphique en Arabe
70
— Dimension UFA :
dim UFA
— Dimension UFG :
dim UFG
çais
71
— Dimension Collége :
dim College
çais
Arabe
— Dimension Fonction :
dim Fonction
français
Arabe
72
— Dimension Filiére :
dim Filiere
çais
Arabe
— Dimension Diplôme :
dim diplome
çais
Arabe
73
— Dimension Niveau d’étude :
dim diplome
en français
en Arabe
— Dimension Qualification :
dim Qualification
français
Arabe
74
— Dimension Position :
dim Position
français
Arabe
en français
en Arabe
75
— Dimension type absence :
dim typeAbs
en français
en Arabe
dim typeCred
français
Arabe
76
— Dimension indemnité :
dim indem
français
Arabe
dim tupeSanc
tion en français
tion en Arabe
77
— Dimension mois :
dim mois
dim tupeAssurance
en français
en Arabe
78
besoin de l’application.
dim date * * * * * * *
dim fonction * * * * * *
dim college * * * * * * *
dim * *
qualification
dim sexe * * * * * * *
dim *
anciennite
dim * * * * * * *
affect geo
dim ufg * * * * * * *
dim ufa * * * * * * *
dim diplome * *
dim profil *
dim filiere * * * * * * *
dim situation * * * * * *
79
dim niveau *
etude
dim position * *
dim typeAbs *
dim indem *
dim mois *
dim sanction *
dim typecred *
dim sanction *
a. Choix d’indicateur
d’agrégation d’additivité
d’effectifs.
80
b. Datamart Fait-Personnel
nombre des personnels comme mesure dans la table de faits « fait personnel
».
81
4.4.4 Sujet d’analyse : Gérer Absentéisme
a. Choix d’indicateur
d’agrégation d’additivité
d’effectifs en ab-
sence.
sonne en absence.
b. Datamart Fait-Absence
82
Figure 4.8 – Modèle en étoile ” Fait-Absence ”
83
4.4.5 Sujet d’analyse : Gérer Retard
a. Choix d’indicateur
d’agrégation d’additivité
EFFECTIFSRETARD d’effectifs en
retard.
b. Datamart Fait-Retard
84
Figure 4.9 – Modèle en étoile ” Fait-Retard ”
85
4.4.6 Sujet d’analyse : Gérer Salaire
a. Choix d’indicateur
d’agrégation d’additivité
salaire d’effectifs.
b. Datamart Fait-Paie
86
Figure 4.10 – Modèle en étoile ” Fait-Paie ”
87
4.4.7 Sujet d’analyse : Gérer Sanction
a. Choix d’indicateur
d’agrégation d’additivité
d’effectifs sanction-
nés.
jours de sanction
d’une personne.
b. Datamart Fait-Sanction
88
Figure 4.11 – Modèle en étoile ” Fait-Sanction ”
89
4.4.8 Sujet d’analyse : Gérer Crédit
a. Choix d’indicateur
d’agrégation d’additivité
personne.
crédit d’effectifs.
b. Datamart Fait-Crédit
« fait crédit ».
90
Figure 4.12 – Modèle en étoile ” Fait-Crédit ”
91
4.4.9 Sujet d’analyse : Gérer Assurance
a. Choix d’indicateur
d’agrégation d’additivité
personne.
d’assurance d’effec-
tifs.
b. Datamart Fait-Assurance
« fait crédit ».
92
Figure 4.13 – Modèle en étoile ” Fait-Assurance ”
93
4.5 Conception ETL
est une étape des plus importantes elle représente 70% de la charge de tra-
vail. Cette étape a pour objectif l’acheminement des données des systèmes
— Étude et planification
— Processus ETL
94
b. La Détection des contenues et des emplacements des données
sources
difficulté réside dans le choix des données à extraire et des filtres à appliquer.
95
Figure 4.14 – Base de données source
96
4.5.2 Processus ETL
warehouse.
Cette phase est considérée comme une étape difficile car il faut établir
des connexions vers les systèmes ou exporter des volumes important des
validées et intégrées.
97
c. Chargement des données
sions, une fois les données sont bien stockées, les chargements des tables
faits se lancent.
Cette phase consiste à charger les informations d’une façon plus lisible dans
98
qui permet l’analyse de ces données en reprend les mesures de la table de
faits et s’en sert pour effectuer des calculs, les mesures étant des données
quantitatives.
Dans le cadre de notre projet, nous avons eu l’idée de créer des tableaux
de bords destinés aux décideurs pour les aider à avoir une vue globale sur
99
4.7 Diagramme de déploiement
100
Figure 4.16 – Diagramme de déploiement
101
4.8 Conclusion
102
CHAPITRE 5
RÉALISATION
5.1 Introduction
interfaces.
103
5.2 Environnement de travail
— Modèle : Asus
— RAM : 8.00 GO
104
Oraclea Database est un système de gestion de base de données relationnel
Kettle, est un logiciel d’ETL (Extract, Transform, Load) Open Source qui
105
est ouverte ; elle repose sur une architecture normalisée et est ajustable à
— L’extraction,
— La transformation,
Web où vous pouvez analyser les données, créer des rapports interactifs,
intégrés pour partager des solutions de business intelligence avec les autres
— L’extraction,
106
— La transformation,
Le Pentaho Report Designer (PRD) est une application de bureau qui offre
est orienté vers les utilisateurs expérimentés, qui sont familiers avec les
— Laravel
107
Laravel est un framework open-source web PHP, créé par Taylor Otwell
maintenance des apps. Le code source de Laravel est hébergé sur GitHub
— MySQL
Il est distribué sous une double licence GPL et propriétaire. Il fait partie des
par le grand public (applications web principalement) que par des profes-
— PhpStorm
PhpStorm est un éditeur pour PHP, HTML, CSS et JavaScript, édité par
JetBrains. Il permet d’éditer du code PHP 5.3, 5.4, 5.5, 5.6 et 7.0, 7.1, 7.2
Il possède :
108
- Une coloration syntaxique
- Réusinage de code.
Il intègre :
— Xampp
MariaDB Perl PHP) offrant une bonne souplesse d’utilisation, réputée pour
son installation simple et rapide. Ainsi, il est à la portée d’un grand nombre
109
— ShareLatex
Juillet 2017, ShareLatex a été racheté par Overleaf qui prévoie de réunir les
en période de test.
En comparaison avec les autres éditeurs LaTeX, ShareLaTeX est une appli-
cation basée sur un serveur web, qui est donc accessible via un navigateur
internet.
les cubes Olap et les dashboard, aussi Pentaho design reporing pour les
110
reportings.
tion. C’est la phase la plus importante car elle contient le processus ETL
née. Après avoir chargé toutes les données nécessaires nous allons passer
à travers un cube vers le reporting pour faciliter notre tâche et éviter les
111
requêtes longues et donc minimiser le temps d’exécution. Dans cette partie
de données.
— Extraction
CSV.
— Transformation
champ.
de calcul simple.
ment si les lignes sont triées. Sinon les lignes identiques consécu-
112
tives sont prises en compte.
cendant).
— Jointure
suivant une clé. Les flux d’entrés doit être triés sur la clé du join-
ture.
— Contrôle de flux
— Exécution de scripts
Java.
113
— Exécution Script SQL : Exécuter un script SQL, éventuellement
— Recherche
— Entrepôt de données
— Alimentation
114
5.4.2 Connexions aux bases de données source
Cette phase consiste à créer des transformations, sous PDI, qui comprend
115
tout d’abord se connecter à la source de données, extraire les données néces-
saire par requête sql, convertir les données puis les stocker dans l’entrepôt
de données.
116
Figure 5.9 – Exemple d’alimentation des dimensions
117
b. Alimentation des Faits
Pour l’alimentation du fait personnel nous avons fait tout d’abord l’extrac-
puis via l’outil recherche des tables nous avons ajouté les dimensions associé
et les faire jointure avec le table de données source à l’aide des valeurs de
champ spécifie.
Pour l’alimentation des autre faits, nous avons refaire presque le même
travail.
118
— Alimentation du Fait Absence
119
— Alimentation du Fait Paie
120
— Alimentation du Fait Crédit
121
5.5 Réalisation de la restitution
122
Figure 5.17 – Créer cube ”Fait personnel”
par une structure XML. Elle comporte les dimensions, hiérarchies ainsi que
Une fois la Datawarehouse est alimenté et les cubes OLAP sont créés,
123
utilise une grille pour la mise en page qui vous permet de créer vos propres
HTML.
Dans le suit, nous présentons les étapes suivi pour réaliser un tableau de
nels ».
124
Figure 5.18 – Mise en page du tableau de bord ’Suivi personnel’
125
— Personnaliser la perspective des composants
— Requête MDX
126
— Aperçu du tableau de bord
tation du datawarehouse.
127
— Organiser les éléments de données dans l’espace de travail Report
Designer.
128
Figure 5.24 – Exemple de ”reporting Assurance”
Une fois les tableaux de bord sont réalisés ainsi que les rapports en
de bord.
129
5.6.1 Interface « Authentification »
130
5.6.2 Interface « Suivi de personnel »
décrire les effectifs selon plusieurs axe d’analyse et selon quelque filtre .Par
131
5.6.3 Interface « Suivi d’absence »
crire l’absentéisme selon différent axe d’analyse et quelque filtre .Par exemple
132
5.6.4 Interface « Suivi de retard »
crire les retards d’effectifs au sein de l’AFH selon différent axe d’analyse et
133
5.6.5 Interface « Suivi de sanction »
décrire les sanctions d’effectifs au sein de l’AFH selon différent axe d’analyse
134
Figure 5.30 – Interface « Report de Suivi de sanction »
135
5.6.6 Interface « Suivi de paie »
136
5.6.7 Interface « Suivi de crédit »
et quelque filtre .
137
Figure 5.33 – Interface « Report de Suivi de crédit »
138
5.6.8 Interface « Suivi d’assurance »
quelque filtre .
139
Figure 5.35 – Interface « Report de Suivi d’assurance »
5.7 Conclusion
cation. Nous avons par la suite élaboré les étapes du processus ETL ainsi
140
CONCLUSION
nir une vision intégrée et transversale sur le personnel, une vision métier à
travers des différents axes d’analyse et une vision agrégée ou détaillée selon
tableau de bord qui présentent l’information suivant les critères que choi-
141
Ce projet comprend plusieurs étapes successives, d’abord, après l’étude
travail et leur besoin et les objectifs attendus, nous avons commencé par
Cette modélisation ore une vision claire et une compréhension intuitive des
de pentaho. Une fois les données sont chargées dans l’entrepôt de données,
nous avons procédé à l’étape finale du processus BI, qui est la restitution
des données.
La valeur ajoutée que peut apporter ce projet, une fois la solution dévelop-
pée mise en production, est à notre sens considérable. En eet, les rapports
142
les décisions stratégiques de gestion.
terminé, nous proposons d’étendre notre travail. Pour cela nous pouvons
ment dans la finance. En effet nous n’avons pas travaillé sur la totalité
de la base source.
143
NETOGRAPHIE
144