Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 287

Stéphane Roder

« Stéphane Roder est sans doute aujourd’hui le meilleur


témoin de ce que l’intelligence artificielle peut apporter STÉPHANE RODER
aux entreprises du xxie siècle, petites ou grandes. »
Préface de Luc Julia
Luc Julia, Chief Scientific Officer chez Renault Group,
cocréateur de Siri

L’IA est une révolution pour le monde du travail au même titre que l’a
été l’arrivée de l’électricité. En venant aider, optimiser ou générer, l’IA
va révolutionner tous les métiers mais aussi les structures de coûts, de
revenus, et les organisations des entreprises.
Comment définir la stratégie Data IA de son entreprise ? Stéphane

GUIDE PRATIQUE de l’intelligence artificielle dans l’entreprise


Roder démystifie de façon très didactique l’IA et ses dernières évolu-
tions, la replace dans le contexte financier et stratégique de l’entreprise
tout en permettant au lecteur de se projeter dans sa propre transforma-
tion. Il propose ainsi :
• une grille d’analyse des gisements de gain de productivité et de reve-
nus liés à l’introduction de l’IA ;
GUIDE PRATIQUE 2e édition

de l’intelligence
• une méthodologie pour mettre en œuvre et réussir la transformation
Data IA de son entreprise.
La puissance des IA conversationnelles et des Large Language Models
(LLM) comme ChatGPT va accélérer le déploiement de l’IA dans l’entre-

ARTIFICIELLE
prise. Son introduction massive devient un challenge pressant, voire une
nécessité pour maintenir sa compétitivité et assurer sa pérennité. Il y aura
ceux qui auront fait le choix de l’électricité et ceux qui seront restés à la
vapeur.

Stéphane Roder a fondé en 2018 AI Builders, son cabinet de conseil


dans L’ENTREPRISE
en intelligence artificielle. Il accompagne depuis les directions Après ChatGPT :
générales, métiers et Data dans cette nouvelle transformation
afin qu’elles bénéficient pleinement de la valeur business
créer de la valeur,
des données et des gains de performance associés. augmenter la performance
Créateur de plusieurs start-up à succès après avoir travaillé
Avec la collaboration
dans l’industrie des télécoms, il est ingénieur Télécom Paris-
de Côme Chatagnon
Tech 92 et diplômé de Stanford et Coursera en machine learning,
deep learning et Generative AI. Il est également professeur à l’ESSEC
et expert auprès de la Fondation Jean-Jaurès.

24 €
ISBN : 978-2-416-01435-2
Code éditeur : G0101435

Studio Eyrolles © éditions Eyrolles


Portrait de l’auteur : © Stéphane Roder
« Stéphane Roder est sans doute aujourd’hui le meilleur
témoin de ce que l’intelligence artificielle peut apporter
aux entreprises du XXIe siècle, petites ou grandes. »
Luc Julia, Chief Scientific Officer chez Renault Group,
cocréateur de Siri

L’IA est une révolution pour le monde du travail au même


titre que l’a été l’arrivée de l’électricité. En venant aider,
optimiser ou générer, l’IA va révolutionner tous les métiers
mais aussi les structures de coûts, de revenus, et les
organisations des entreprises.
Comment définir la stratégie Data IA de son entreprise ?
Stéphane Roder démystifie de façon très didactique l’IA et
ses dernières évolu- tions, la replace dans le contexte
financier et stratégique de l’entreprise tout en permettant
au lecteur de se projeter dans sa propre transforma- tion. Il
propose ainsi :
• une grille d’analyse des gisements de gain de
productivité et de reve- nus liés à l’introduction de l’IA ;
• une méthodologie pour mettre en œuvre et réussir la
transformation Data IA de son entreprise.
La puissance des IA conversationnelles et des Large
Language Models (LLM) comme ChatGPT va accélérer le
déploiement de l’IA dans l’entre- prise. Son introduction
massive devient un challenge pressant, voire une nécessité
pour maintenir sa compétitivité et assurer sa pérennité. Il y
aura ceux qui auront fait le choix de l’électricité et ceux qui
seront restés à la vapeur.

Stéphane Roder a fondé en 2018 AI Builders, son


cabinet de conseil en intelligence artificielle. Il
accompagne depuis les directions générales,
métiers et Data dans cette nouvelle transformation
afin qu’elles bénéficient pleinement de la valeur
business
des données et des gains de performance
associés. Créateur de plusieurs start-up à
succès après avoir travaillé dans l’industrie des
télécoms, il est ingénieur Télécom Paris-
Tech 92 et diplômé de Stanford et Coursera en
machine learning, deep learning et Generative AI. Il est
également professeur à l’ESSEC
et expert auprès de la Fondation Jean-Jaurès.
Guide pratique
de l’intelligence artificielle
dans l’entreprise
Éditions Eyrolles
61, bd Saint-Germain
75240 Paris Cedex 05
www.editions-eyrolles.com

À Léa et Charlotte

Les droits d’auteur de ce livre seront intégrale-


ment reversés à l’URCMA (Unité de recherche
sur les comportements et mouvements anormaux),
association créée par le professeur Philippe Coubes (CHU
Montpellier).

Depuis 1925, les éditions Eyrolles s’engagent en proposant des


livres pour comprendre le monde, transmettre les savoirs et cultiver
ses passions ! Pour continuer à accompagner toutes les générations
à venir, nous travaillons de manière responsable, dans le respect de
l’environnement. Nos imprimeurs sont ainsi choisis avec la plus grande
attention, afin que nos ouvrages soient imprimés sur du papier issu de
forêts gérées durablement. Nous veillons également à limiter le transport
en privilégiant des imprimeurs locaux.Ainsi, 89 % de nos impressions
se font en Europe, dont plus de la moitié en France.

En application de la loi du 11 mars 1957, il est interdit de reproduire intégra-


lement ou partiellement le présent ouvrage, sur quelque support que ce soit,
sans autorisation de l’éditeur ou du Centre français d’exploitation du droit de
copie, 20, rue des Grands-Augustins, 75006 Paris.

© Éditions Eyrolles, 2024


ISBN : 978-2-416-01435-2
Stéphane Roder
Préface de Luc Julia
Avec la collaboration de Côme Chatagnon

Guide pratique
de l’intelligence artificielle
dans l’entreprise

Après ChatGPT :
créer de la valeur,
augmenter la performance
2e édition
Sommaire

Remerciements aux contributeurs ..................................... 1

Préface ............................................................... 3

Introduction .......................................................... 5

Chapitre 1
L’intelligence artificielle pour le manager
Histoire de l’intelligence artificielle .................................... 9
La définition de l’intelligence artificielle .............................. 13
La business intelligence : première étape de l’IA ..................... 15
Les moteurs de règles ................................................. 16
Le machine learning ................................................... 17
Le machine learning et l’apprentissage supervisé ........................... 17
Le machine learning et l’apprentissage non supervisé ...................... 29
Le deep learning ou les réseaux de neurones profonds............... 32
Du neurone biologique au neurone formel ................................. 32
Les réseaux de neurones et le deep learning ............................... 33
L’IA générative........................................................ 41
Les Large Language Models (LLM) ..................................... 43
Les applications types des LLM dans l’entreprise.......................... 45
Le principe des LLM .......................................................... 48
De la complétion à l’inférence .............................................. 48
Pourquoi « Large » ? .......................................................... 50
Les biais éthiques et culturels des LLM ...................................... 51
L’alignement des LLM avec les valeurs de l’entreprise ...................... 52
Le dark knowledge et les hallucinations des modèles génériques ........ 52
Les LLM génériques font trop d’erreurs...................................... 54
Le cycle de vie des LLM ..................................................... 55
Outils et agents autonomes, le nouvel eldorado de l’IA .............. 71
Les agents seront structurellement au centre de tous les
développements basés sur les LLM ......................................... 74
VI Guide pratique de l’intelligence artificielle dans l’entreprise

La révolution de la programmation inférentielle ............................ 75


LLM et prospectives .................................................... 75
La micro-segmentation des LLM va s’accélérer .............................. 76
Une hyperspécialisation de LLM hyperoptimisés ........................... 77
Les autres formes d’IA génératives .................................... 78
Text-to-image .................................................................78
Text-to-video ..................................................................80
Image-to-text..................................................................80

Chapitre 2
La révolution de l’IA est en marche
Le réveil de l’intelligence artificielle ................................... 85
L’intelligence artificielle est déjà parmi nous........................... 85
Les biens de grande consommation .........................................85
L’entreprise ..................................................................86
L’état des lieux dans les entreprises : l’entreprise encore en mode
manuel ? ............................................................... 87
L’IA, la suite logique de la transformation digitale ..................... 88
Le danger de ne pas intégrer l’IA dans la transformation digitale ..... 89
L’IA modélise la réussite et l’optimise ................................. 91
L’IA, l’entropie et la long tail .......................................... 92
La nécessaire convergence du digital et de la data................... 94
L’IA est un enabler ..................................................... 95
L’IA et les métiers ...................................................... 96
Un challenge pour les dirigeants et le management .................. 97
Sous quelle forme, l’IA dans l’entreprise ? ............................ 98
L’IA est polymorphe ............................................................ 98
L’assistant digital permet de faire du coworking ............................. 99
Du prédictif au prescriptif ............................................100
Un challenge à la portée des ETI et des PME .........................105
Une opportunité pour les entreprises................................107
Sommaire VII

Chapitre 3
L’IA transforme les métiers de l’entreprise
Finance .............................................................. 112
Comptabilité .............................................................. 113
Prévention de la fraude..................................................... 113
Mitigation du risque ........................................................ 114
Trésorerie et recouvrement .................................................. 115
Achat.................................................................116
Juridique ............................................................ 118
Le support juridique ....................................................... 118
Les contrats................................................................ 118
Le contentieux ............................................................ 119
La conformité réglementaire ............................................... 121
Ressources humaines ................................................ 122
Le recrutement ............................................................ 123
L’administration du personnel .............................................. 124
La gestion des talents et la formation ...................................... 126
DSI ....................................................................127
Le développement ........................................................ 127
La cybersécurité .......................................................... 127
Ingénierie ............................................................ 128
Production ........................................................... 129
Les processus de production ............................................. 129
La robotisation ............................................................ 130
L’outil de production va bénéficier d’une maintenance prédictive ...... 131
Supply chain ......................................................... 133
Marketing ............................................................ 135
Le marketing classique devient analytique grâce à l’IA ................... 135
La révolution du social listening ........................................... 136
Le marketing digital bénéficie de la démocratisation de l’IA ............ 137
Vente.................................................................141
Optimiser son coût d’acquisition ......................................... 141
L’IA, le nouvel assistant du commercial .................................... 142
La vente en ligne ............................................................ 144
Relation client ........................................................ 146
VIII Guide pratique de l’intelligence artificielle dans l’entreprise

Chapitre 4
L’IA transforme les process de l’entreprise
L’IA décloisonne l’organisation.......................................151
L’IA réinvente les process..............................................152
AI by design ou comment penser les process....................... 153

Chapitre 5
Les acteurs internes de cette nouvelle transformation
Le visionnaire ........................................................ 157
Le révélateur ......................................................... 157
L’utilisateur ......................................................... 159
Les dirigeants et le comité de direction .............................. 160
Le Chief Data Officer (CDO), responsable de la transformation
Data IA ................................................................ 161
La DSI .................................................................162

Chapitre 6
Comment implanter l’intelligence artificielle dans l’entreprise
Le cycle de vie de la transformation Data IA ......................... 167
Innovation Data IA .................................................... 168
Gouvernance de l’innovation ............................................. 170
Acculturation ............................................................. 171
Favoriser l’émergence .................................................... 172
Projeter la valeur au-delà de l’innovation .................................. 173
Du produit à l’industrialisation .......................................174
Le CDO Office ............................................................. 175
Le schéma directeur Data IA ............................................... 177
La gouvernance............................................................ 198
Le data management et le data mesh ...................................... 200
Le modèle opérationnel ................................................... 206
Le AI Performance Builder .................................................. 207
L’AI Product Owner ......................................................... 208
L’immersion Data IA ......................................................... 211
L’intégration dans la DSI et le MLOps ....................................... 214
Supervision et maintien en condition intelligente ....................... 216
Sommaire IX

La commoditisation de l’IA est en marche ........................... 216


Créer des offres de services ............................................... 216
La commoditisation des solutions ......................................... 218
Autonomisation des métiers .............................................. 220

Chapitre 7
Les acteurs de l’écosystème de l’intelligence artificielle
Le Data Scientist....................................................... 227
Le rôle du Head of Data Science .....................................228
Le Prompt Engineer ................................................... 229
Les développeurs .................................................... 230
Les grands éditeurs de logiciels ......................................231
Les start-up, vecteurs d’accélération ..................................233
Open source VS propriétaire .......................................235

Chapitre 8
Les enjeux de la formation
L’Homo analyticus et la vision analytique de l’entreprise ............241
La formation au cœur de la transformation Data IA .................. 243

Chapitre 9
L’impact social de l’intelligence artificielle
IA et Schumpeter ..................................................... 247
Une nouvelle industrie ...............................................248

Chapitre 10
IA et réglementation
IA et souveraineté .................................................... 251
Les GAFAM ne sont pas vos amis pour la vie ............................. 251
Les LLM et la confidentialité ................................................ 252
Les LLM et le copyright...................................................... 253
L’UE et la fin annoncée de l’AI Act .................................... 255
X Guide pratique de l’intelligence artificielle dans l’entreprise

Chapitre 11
Prospectives et IA
De l’intelligence artificielle faible à l’intelligence artificielle forte .... 259
Le cerveau est une machine analogique ................................... 259
La loi de Moore est limitée par la physique quantique ................... 260
L’ordinateur quantique ..................................................... 261
Le transhumanisme, une vision apocalyptique sans aucune réalité ..... 261
Comment va évoluer l’intelligence artificielle ........................ 262

Conclusion ......................................................... 265

Petit glossaire de l’intelligence artificielle ......................... 267

Index ............................................................... 271

Remerciements ................................................... 273

Biographie de l’auteur............................................. 275


Remerciements aux contributeurs

Un remerciement tout particulier aux consultants d’AI Builders


qui ont contribué à ce livre à mes côtés :
• Chaimae Ammor ;
• Carsten Bonomo ;
• Côme Chatagnon ;
• Paul de Miribel ;
• Paul Faury ;
• Eulalie Guennec ;
• Emma Lalancette ;
• Martin Meffre ;
• Loris Millet ;
• Alex Melennec ;
• Katia Rive ;
• Nassima Tounsi ;
• Vivien Weicheldinger.
Préface

Il était temps ! Temps de mettre à jour ce guide pratique à l’aune


de ce qu’il s’est passé ces cinq dernières années dans le monde
agité de l’intelligence artificielle. Dans cette nouvelle édition de
son livre de référence, Stéphane Roder nous parle de ses toutes
dernières évolutions, et donne notamment les clés pour appré-
hender les IA génératives telles que ChatGPT dans le monde
de l’entreprise. S’agit-il d’une révolution ou d’une évolution ?
Car nous sommes de cette génération qui a été fascinée et
façonnée par l’intelligence artificielle.Tout jeune déjà, je fabri-
quais des machines que je pensais intelligentes, comme ce
robot qui m’aidait à faire le lit et que j’ai passé plus de temps
à construire qu’à utiliser… Il était déjà évident pour moi que
la technologie devait être au service de l’humain. J’étais alors
convaincu que c’est en collaborant avec elles que les machines
nous libéreraient de toutes ces tâches répétitives et ennuyeuses,
afin de nous laisser nous concentrer sur ce qui nous intéresse
vraiment. Mais, pour que cette vision se concrétise, j’ai dû
patienter jusqu’à mon arrivée dans la Silicon Valley, à la fin des
années 1990, juste à temps pour surfer sur la vague naissante
d’Internet.
Au sein du laboratoire du Stanford Research Institute, que je
dirigeais à cette époque, sont nés de mes recherches les pre-
miers réfrigérateurs interactifs, des voitures à réalité augmentée
ou l’ancêtre de ce qui deviendra, quelques années plus tard,
l’assistant vocal Siri. De la recherche à la création de quelques
start-up, c’est tout naturellement que j’ai rejoint par la suite des
entreprises mythiques, telles que Hewlett-Packard ou Apple,
qui m’ont permis de mettre le produit de mes inventions entre
les mains de millions d’utilisateurs.
4 Guide pratique de l’intelligence artificielle dans l’entreprise

Depuis plus de soixante ans qu’elle existe, l’intelligence artifi-


cielle s’est surtout intéressée au monde de la grande consom-
mation : de la reconnaissance vocale aux voitures autonomes,
en passant par la réalité virtuelle. Loin d’être des gadgets, ces
technologies sont aujourd’hui présentes dans le monde de l’en-
treprise et révolutionnent tous les métiers.
En tant que chef d’entreprise, Stéphane Roder a compris les
rouages des différents business auxquels il s’est intéressé, ce qui
en fait sans doute aujourd’hui le meilleur acteur et témoin de
ce que l’intelligence artificielle peut apporter aux entreprises
du xxIe siècle, petites ou grandes.
Il montre dans ce livre, avec de multiples exemples à l’appui,
la réalité de l’apport des projets à base d’intelligence artificielle
dans l’entreprise. Que ce soit pour accompagner des équipes
commerciales, marketing, en charge d’un service client, d’un
département RH ou qu’il s’agisse des process ou des métiers,
l’IA a investi tous les domaines de l’entreprise avec des résultats
probants. Aujourd’hui, toutes ces entreprises, pionnières dans
leur secteur d’activité, qui ont cru et investi dans cette techno-
logie, tirent d’ores et déjà les bénéfices de projets en produc-
tion. L’IA sert la performance de leur organisation et s’aligne
avec leurs objectifs stratégiques.
Stéphane Roder explique comment l’IA révolutionne l’entre-
prise mais, surtout, pourquoi l’humain reste le maillon essentiel
de cette chaîne de valeur qu’il faut comprendre, accepter avec
lucidité et ne pas entraver pour rester dans la course d’une
économie mondialisée.
Un livre à lire pour se projeter et comprendre comment inté-
grer la data et l’IA, les nouveaux leviers de croissance des orga-
nisations tournées vers l’avenir.
Luc Julia
Chief Scientific Officer, Renault Group
Introduction

Après la robotisation de la production, la mondialisation de


la production et « l’ubérisation » des services, l’IA apparaît
comme une révolution pour toute l’industrie, au même titre
que l’a été l’électricité après la vapeur. « AI is new electricity »
répète d’ailleurs, à qui veut l’entendre, Andrew Ng, professeur
à Stanford et créateur de Google Brain. En venant aider et
optimiser, l’IA s’apprête à révolutionner tous les métiers mais
surtout les structures de coûts des entreprises et donc leur
compétitivité. Ce n’est pas sans raison que l’on parle d’ailleurs
de troisième révolution industrielle.

Les entreprises qui intégreront l’IA dans leur stratégie de


développement assez tôt répondront à deux enjeux majeurs :
d’une part, elles pourront se prémunir contre de nouveaux
entrants qui auront transformé et optimisé leurs métiers grâce
à cette technologie ; d’autre part, elles maintiendront le même
niveau de compétitivité face à leurs concurrents et assureront
leur pérennité.

Après les résultats très prometteurs du machine learning déployé


à bon escient, la sortie de ChatGPT à l’automne 2022 marque
un tournant dans la prise de conscience de la puissance de
l’intelligence artificielle et de son apport à l’entreprise.
Au-delà de la transformation digitale, telle qu’elle est envisagée
aujourd’hui, l’introduction massive de l’IA dans l’entreprise
devient un challenge pressant, voire une nécessité pour sur-
vivre. N’en doutons pas, il y aura ceux qui ont fait le choix de
l’électricité et ceux qui seront restés à la vapeur.
6 Guide pratique de l’intelligence artificielle dans l’entreprise

Conscients de ces enjeux, la lecture de ce livre vous donnera :


• une vision didactique et non mathématique des techniques
d’IA qu’il est nécessaire au manager de posséder pour
appréhender les opportunités liées à cette technologie ;
• une vision stratégique et économique des enjeux liés à l’in-
troduction de l’IA dans l’entreprise ;
• une compréhension précise des champs d’application de
l’IA et de leurs potentiels de performance dans l’entreprise ;
• une méthodologie de déploiement de l’IA pour capter le
maximum de valeur et industrialiser ;
• un panorama des acteurs de ce nouvel écosystème avec qui
vous devrez coopérer ;
• une vision prospective.
Chapitre 1

L’intelligence artificielle
pour le manager
L’intelligence artificielle pour le manager 9

Comme à chaque révolution, les illuminés se déchaînent et


promettent l’imminence de l’apocalypse. De l’urologue déli-
rant qui nous sert, comme dans les meilleures sectes, l’arrivée
prochaine du surhomme transhumaniste, aux long-termistes1
inquiets de la pérennité de la race humaine, nous aurons tout
entendu.
Il y a pourtant une réalité dans l’arrivée d’une nouvelle tech-
nologie capable d’exécuter quelques tâches jusqu’alors dévo-
lues à l’intelligence humaine. Même privée de bon sens ou du
sens commun, l’IA actuelle sait reproduire une infime partie de
l’intelligence humaine. Sa compréhension statistique de l’in-
telligence lui permet d’exécuter des tâches simples dans des
environnements complexes.
En démystifiant l’IA, et en en comprenant les grands prin-
cipes, sans toutefois rentrer dans les mathématiques et encore
moins dans la programmation, le manager aura pleinement
conscience du potentiel mais aussi des limites de l’IA, telle que
nous la vivons aujourd’hui. Ainsi, il sera en mesure de se proje-
ter et d’imaginer les futurs gisements de gains de productivité
et de création de nouveaux revenus.
Mais commençons par un peu d’histoire car l’IA est une pré-
occupation de l’homme depuis bien longtemps.

HISTOIRE DE L’INTELLIGENCE ARTIFICIELLE

L’intelligence artificielle est, depuis toujours, l’une des pré-


occupations principales de l’homme et rejoint l’histoire de la
pensée. Cette technologie a évolué en dents de scie lors des cin-
quante dernières années. Après une période faste, entre 1957 et

1. Centre de recherche long-termiste : FHI, Future for Humanity Ins-


titute, Oxford.
10 Guide pratique de l’intelligence artificielle dans l’entreprise

1973, elle a connu des moments de disette jusqu’au début des


années 1980, mais aussi de désillusion durant la décennie 1990.
À cette époque, le matériel ne suivait pas les besoins de calcul.
Mais la voici qui ressurgit plus flamboyante que jamais avec
la sortie de ChatGPT en 2022, qui a permis à chacun d’entre
nous de percevoir la puissance de ces nouveaux modèles.

Pourtant, cette histoire ne débute pas réellement dans les


années 1950. Pour en saisir les implications, il faut remonter
à l’Antiquité, période durant laquelle l’homme a commencé
à s’interroger sur son intelligence et sa nature mystique, délé-
guant cette intelligence à un tiers réel ou conceptuel. L’idée
même qu’un objet créé soit capable de produire ou d’obtenir
une conscience similaire à celle de l’homme était déjà présente
dans la mythologie grecque, l’Égypte ancienne, le folklore juif
(le golem) et bien d’autres cultures anciennes. Les contes pour
enfants comme Pinocchio ou, pour les plus grands, le Frankenstein
de Mary Shelley en sont les meilleures illustrations.

Ce rêve se prolonge à travers l’avènement de la cybernétique


dans les années 1940, qui donnera plus tard naissance à l’ordi-
nateur, mais qui permettra surtout de s’essayer, enfin, à l’intel-
ligence artificielle. L’année 1950 marque un tournant décisif
dans son histoire, avec la publication de l’article « Computing
Machinery and Intelligence » d’Alan Turing, le déjà fameux
« père de l’informatique moderne », vainqueur du code alle-
mand des machines Enigma. Dans son article, le scientifique
pose les fondements de l’IA moderne et y décrit le célèbre
« test de Turing », qui met au défi des humains de reconnaître
si leur interlocuteur est un humain ou une machine. John
McCarthy et Marvin Minsky posent ensuite les bases de la
« machine pensante », ainsi que l’expression « intelligence arti-
ficielle » qui apparaît en 1956 au cours de la célèbre confé-
rence de Dartmouth, dans le New Hampshire, aux États-Unis.
L’intelligence artificielle pour le manager 11

Dès le début, deux courants de pensée s’affrontent et vont


rythmer les différentes recherches autour de l’IA : le cogni-
tivisme et le connexionnisme. Deux notions qu’il est impor-
tant d’intégrer. La première, le cognitivisme, privilégie une
vision et un traitement symboliques de la pensée. Cette vision
symbolique de l’intelligence et de ses outils d’évaluation d’ex-
pression symbolique, appelés moteurs d’inférences, donneront
naissance, dans les années 1960-1970, aux systèmes experts
que nous utilisons encore aujourd’hui dans l’industrie. Ce sont
eux qui reviennent aujourd’hui en force sous la forme de la
fameuse IA générative avec ChatGPT et les Large Language
Models (LLM). Le connexionnisme, pour sa part, est créé par
deux neurologues,Warren McCulloch et Walter Pitts, qui pro-
posent, dès 1943, dans leur publication « A Logical Calculus of
the Idea Immanent in Nervous Activity », de reproduire dans
une machine le fonctionnement interne du cerveau humain.
C’est ainsi qu’ils inventent le neurone formel : le premier
modèle mathématique du neurone. Marvin Minsky générali-
sera ce concept de réseau de neurones dans une thèse réalisée
à Princeton et intitulée « Neural Nets and the Brain Model
Problem » (1954).

Les fondations de l’IA étaient nées. Il faudra cependant attendre


la fin des années 1990 pour que ces théories s’affinent et que la
puissance de calcul des ordinateurs permette leur application,
ainsi que de nouveaux développements autour d’elles. C’est à
cette même époque qu’un chercheur français, Yann Le Cun,
va donner aux réseaux de neurones leurs premières lettres de
noblesse, en réalisant un lecteur de code postal manuscrit que
l’US Post va utiliser à grande échelle. Non content de ce pre-
mier développement, il inventera, dans la foulée, les réseaux
de neurones profonds, connus sous le nom de deep learning, en
étudiant la physiologie de l’œil humain.
12 Guide pratique de l’intelligence artificielle dans l’entreprise

Mais c’est en 2012 que la mèche s’allume définitivement. Au


cours de la célèbre compétition annuelle ImageNet (Large
Scale Visual Recognition Challenge 2012), un chercheur cana-
dien, Geoffrey Hinton, et son équipe utilisent le deep learning
et explosent littéralement les scores de reconnaissance d’objets
dans une image en passant subitement de 25 % à 16 % de taux
erreurs ! Le succès est retentissant et, en moins de deux ans, les
laboratoires du monde entier et des milliers de chercheurs vont
adopter cette technologie pour arriver à des scores encore plus
exceptionnels. L’IA, telle que nous la connaissons à présent,
était née. Fallait-il encore qu’elle sorte des laboratoires.

Ce fut le cas une première fois en 2016, lorsque la société


DeepMind, rachetée par Google et issue des laboratoires de
l’université de Cambridge en Angleterre, créa le programme
AlphaGo qui battit le champion du monde du jeu de go, Lee
Sedol. Cette performance retentissante permit une première
prise de conscience, nous faisant entrer de plain-pied dans cette
nouvelle ère technologique durant laquelle l’IA est devenue
une réalité dans nos vies, puis dans l’entreprise, grâce à la créa-
tion de nombreuses librairies open source facilitant le dévelop-
pement d’applications.

Fin 2022, l’onde de choc de ChatGPT fut, toutefois, encore


plus forte. Le monde entier, stupéfait, découvre alors la puis-
sance de l’IA générative, très impressionné par la qualité des
contenus générés, sans toutefois en comprendre réellement les
limites. Il faut rendre grâce ici à la puissance du marketing
d’OpenAI et de son actionnaire Microsoft. En mettant sur le
marché une application concrète de l’IA, accessible à tout un
chacun, ils nous ont permis de percevoir la révolution techno-
logique en cours, de nous projeter dans le monde d’après et de
démocratiser l’intelligence artificielle en la rendant abordable
et concrète.
L’intelligence artificielle pour le manager 13

Cette rapide histoire de l’intelligence artificielle nous raconte


ainsi la capacité de l’homme à réaliser l’analyse physiologique
du fonctionnement du cerveau, celle de son fonctionnement
symbolique et les différentes modélisations mathématiques qui
en découlent.
Pour mieux le comprendre, revenons à présent aux bases de
l’IA.

LA DEFINITION DE L’INTELLIGENCE ARTIFICIELLE


L’intelligence artificielle rassemble toutes les techniques per-
mettant à des ordinateurs de simuler et de reproduire l’intel-
ligence humaine. La notion d’IA a fait son apparition dans
le langage courant ces dernières années, mais on peut consi-
dérer qu’elle existe depuis que l’ordinateur fait tourner des
algorithmes, dont l’utilité est de reproduire le raisonnement
humain.
À l’image de l’homme, le cerveau et son intelligence sont là
pour interagir avec leur environnement. C’est cette même inte-
raction forte qui permet au cerveau de se développer, comme
l’expliquent merveilleusement bien les neurologues Danièle
Tritsch et Jean Mariani dans leur excellent livre intitulé : Ça
va pas la tête !1. L’intelligence est donc un tout indissociable
que les théoriciens de l’intelligence artificielle ont décomposé,
pour une meilleure compréhension, en différentes fonctions
permettant de simuler l’ensemble des fonctions cognitives :
1. Les capacités de perception ou comment capter les flux
d’informations : l’ouïe, la vue… ;

1. Danièle Tritsch et Jean Mariani, Ça va pas la tête ! Cerveau, immortalité


et intelligence artificielle, l’imposture du transhumanisme, Belin, 2018.
14 Guide pratique de l’intelligence artificielle dans l’entreprise

2. La mémoire, l’apprentissage et la représentation de la


connaissance ;
3. Le calcul sur les représentations : le raisonnement ;
4. Les capacités de communication expressive ;
5. Les capacités exécutives.

Ces cinq fonctions cognitives décrivent le large spectre d’utili-


sation de l’intelligence artificielle.
Pour les réaliser, l’IA actuelle utilise principalement trois tech-
nologies : les moteurs de règles (« Si, alors… »), le machine lear-
ning et le deep learning. Chacune étant un sous-ensemble de
l’intelligence artificielle comme le montre la représentation
ci-dessous.

Intelligence
IA Deep Machine artificielle
générative learning learning Ensemble
des techniques
Large Language Sous-ensemble Sous-ensemble
Sous-ensemble
permettant
de l’intelligence
Model du deep du machine de simuler
artificielle
learning learning l’intelligence
incluant
Sous-ensemble de l’IA générative permettant de fondé sur humaine :
les techniques
permettant de générer du texte générer des des réseaux règles, arbres
fondées sur
et de copier une partie textes, images, de neurones de décision,
l’apprentissage
du raisonnement humain vidéos, sons multicouches machine
statistique
learning et
deep learning

Ce sont ces technologies, à l’origine de l’essor actuel de l’IA,


que nous allons découvrir ensemble.
L’intelligence artificielle pour le manager 15

LA BUSINESS INTELLIGENCE :
PREMIERE ETAPE DE L’IA

Avant de rentrer dans le vif du sujet, attardons-nous quelques


instants sur l’un des précurseurs de l’IA, voire l’un de ses prére-
quis : la business intelligence ou BI.

La BI, aussi appelée « informatique décisionnelle », est appa-


rue à la fin des années 1990 avec la sortie du « business object ».
Encore décrite sous le terme de « descriptive analytics » dans
le référentiel de Gartner ou, par contraction « analytics », elle
désigne la faculté donnée à un humain de voir ses données
pour les analyser.

En les restituant sous une forme accessible et intuitive, l’utilisa-


teur a pu commencer à exploiter les informations disponibles
et ainsi être en mesure d’améliorer sa capacité à prendre des
décisions pertinentes dans le cadre de son activité. Cette faculté
d’analyse est essentielle au manager « analytique » pour com-
prendre son environnement, comme nous le verrons dans le
développement sur l’Homo analyticus, et décider de sa stratégie.

Cette première étape de l’utilisation industrielle des données


par l’humain à travers les logiciels du marché a été complétée
par des logiciels capables, à leur tour, d’utiliser des données,
pour fournir des recommandations et prendre des décisions.
C’est ce que l’on a alors nommé « predictive analytics », qui n’est
rien de moins que l’intelligence artificielle.

Les métiers de la data vont évoluer


vers la modélisation

‘‘ Les métiers qui utilisent de la BI ne vont plus se contenter des


rapports mais vont créer des modèles. ’’
Milind Kamkolkar, ex-Chief Data Officer, Sanofi
16 Guide pratique de l’intelligence artificielle dans l’entreprise

Le schéma suivant montre sommairement ce qu’il faut garder


en tête lorsque l’on parle d’IA, car il décrit simplement mais
parfaitement la longue route qui mène à un bon déploiement
de cette technologie dans l’entreprise.

ANALYSES

DATA

LES MOTEURS DE REGLES

Les bonnes vieilles règles du type « Si, alors, sinon… » ont


encore de beaux jours devant elles. Après avoir permis de créer
les premiers systèmes experts, elles sont maintenant employées
dans des environnements beaucoup plus simples pour : décrire
des raisonnements ; digitaliser de l’expertise ou réaliser des
workflows comme dans la RPA (Robotic Process Automation)
ou des langages presque naturels, que l’on peut retrouver
ensuite sous forme d’arbres de décision. Ces moteurs de règles
ont beaucoup d’avantages. Ils permettent non seulement de
séparer les traitements et les données, de centraliser et de rendre
accessible la gestion de la connaissance, mais surtout de définir
des règles compréhensibles et rédigeables par des humains.
Cependant, le moteur de règles est limité par le savoir décrit
dans les règles. En effet, il n’est pas capable de générer ses
propres règles ou de les modifier en fonction des évolutions de
son environnement. Un moteur de règles n’apprend pas. Son
savoir est statique. Comme la programmation, on le dit « déter-
ministe », car son comportement est défini par la personne qui
L’intelligence artificielle pour le manager 17

le programme, celle qui rédige les règles. Nous verrons qu’il en


est tout autrement avec le machine learning qui, comme son nom
l’indique, va apprendre à partir d’exemples pour construire un
savoir non plus déterministe mais statistique.

C’est le fameux changement de paradigme.

LE MACHINE LEARNING

‘‘ L’intelligence peut être considérée comme la capacité de


convertir des informations brutes en connaissances utiles et
exploitables. ’’
Demis Hassabis, fondateur de DeepMind (2017)

Le machine learning et l’apprentissage supervisé

Nous l’avons vu dans sa définition, l’IA cherche à récréer des


raisonnements humains. Et il en est un qu’elle réussit plutôt
bien : la généralisation d’un apprentissage.

Pourquoi pense-t-on d’abord à une Ferrari lorsque l’on voit


une voiture de sport rouge ? Parce que la plupart des véhi-
cules de cette marque que nous avons vus étaient rouges. En
revanche, nous n’avons jamais vu de Lamborghini rouge ou
très rarement, pour tromper l’ennemi. En pensant immédia-
tement qu’une voiture de sport rouge est une Ferrari, nous
généralisons ce que nous avons vu ou appris par notre expé-
rience. Nous savons que nous avons une forte probabilité de ne
pas nous tromper. C’est ce que l’on appelle un raisonnement
par analyse statistique. Notre cerveau a créé son propre modèle
statistique : une fonction de reconnaissance de la voiture de
sport !
18 Guide pratique de l’intelligence artificielle dans l’entreprise

De la même manière, après avoir programmé nos ordinateurs


de façon déterministe à travers de longues listes d’instruc-
tions, nous allons maintenant avoir la possibilité de montrer
à un ordinateur des exemples et lui demander d’en tirer une
compréhension statistique. Celle-ci va lui permettre de créer
une fonction qui lui donnera la possibilité de généraliser à la
manière d’un humain. C’est cette capacité que nous appelons
le machine learning.

Ce résultat s’obtient sans qu’il soit nécessaire de s’appuyer sur


une équation prédéterminée en tant que modèle. Les algo-
rithmes de machine learning font appel à des méthodes de calcul
qui leur permettent de créer leur propre fonction, de s’adap-
ter et de devenir plus performants, à mesure que le nombre
d’échantillons disponibles pour l’apprentissage augmente.

Prenons l’exemple d’un agent immobilier. Son expérience ter-


rain lui permet de garder en tête les prix des dernières tran-
sactions réalisées, en fonction de leurs spécificités : surface,
orientation, étage, ancien, neuf… Ainsi, il est capable d’estimer
presque immédiatement un bien si on lui décrit ses caracté-
ristiques. Il a construit intuitivement un modèle à partir d’un
historique et d’exemples tirés de sa pratique. Au cours de l’ap-
prentissage de son propre métier, le cerveau de notre agent
immobilier a créé une fonction qui, si on lui donne assez d’in-
formations, est capable d’estimer un bien immobilier avec une
très faible marge d’erreur. Créer la fonction, c’est ainsi être
capable de généraliser et de donner un résultat pour n’importe
quelles données d’entrée.

C’est ce même apprentissage que les algorithmes de machine


learning permettent de simuler. En parcourant les exemples du
jeu d’apprentissage, tels que le prix des transactions immobi-
lières sur les trois dernières années en fonction de leur empla-
cement, de leur surface, de leur orientation et de toutes les
L’intelligence artificielle pour le manager 19

données utiles à leur estimation, l’algorithme va calculer à son


tour une fonction, de manière qu’il puisse calculer le prix avec
la plus faible marge d’erreur.

Une fois l’apprentissage réalisé, nous obtenons un modèle, une


fonction, capable de prédire le prix d’un bien immobilier à
partir des paramètres en notre possession. En créant ce modèle,
nous avons mathématiquement simulé la démarche intellec-
tuelle de notre agent immobilier, et donc réussi à approcher un
raisonnement humain, ce qui est bien la définition de l’intelli-
gence artificielle. Il ne reste plus qu’à l’intégrer dans l’environ-
nement cible. Si c’est un site web classique, le modèle donnera
automatiquement le prix en fonction des données entrées par
l’utilisateur. S’il est plus évolué, il sera possible de lui adjoindre
un chatbot, qui se chargera de l’interactivité avec l’utilisateur.
Ce dernier pourra à son tour entrer les caractéristiques de son
bien pour le faire estimer en quelques secondes.

L’apprentissage de ce modèle sera ensuite périodiquement mis


à jour, en intégrant les prix des dernières transactions, afin qu’il
prenne en compte l’évolution de son environnement. À travers
cet exemple, nous avons non seulement automatisé la fonction
de calcul d’un bien par un agent immobilier, mais nous lui
avons aussi donné des fonctions d’interactivité, elles aussi issues
de l’IA.

Ce premier exemple nous fait toucher du doigt pratiquement


les concepts fondateurs du machine learning énoncés ci-après.

L’apprentissage supervisé

Quatre-vingt-dix pour cent de l’intelligence artificielle créée


ces dernières années est basée sur cette technique d’appren-
tissage. Connaissant les réponses du passé, nous utilisons ces
exemples pour en déduire une fonction de prédiction, le
20 Guide pratique de l’intelligence artificielle dans l’entreprise

modèle, qui va nous permettre de généraliser notre connais-


sance pour une utilisation future.

La précision ou accuracy
Cette notion est capitale car elle détermine la qualité de notre
modèle. Encore une fois, nous cherchons à nous rapprocher
du raisonnement humain. Si nous reprenons l’exemple de
notre agent immobilier, nous pouvons envisager que sa marge
d’erreur maximum sur l’estimation d’un bien est de 10 %. Le
modèle, qui imitera son raisonnement, ne devra donc pas avoir
une erreur de prédiction supérieure pour sembler être juste
au sens du test de Turing (raisonnement donnant l’impression
d’être au moins équivalent à celui d’un humain).
Dans le cas de notre agent immobilier, nous pourrions presque
nous arranger de n’importe quel taux d’erreur, du moment
que les résultats ne sont pas délirants. Mais imaginons à présent
une situation où le droit à l’erreur est moindre.
Mettons-nous ainsi à la place du directeur d’un pas de tir de
fusées, embarquant des astronautes. L’erreur sur le Go/No Go
met cette fois en jeu des vies humaines. Le taux d’erreur doit
donc tendre vers 0.
Au travers de ces deux exemples, nous constatons que le taux
d’erreur d’un modèle est ainsi le paramètre le plus important,
et que sa valeur « acceptable » dépend à la fois du contexte, de
ce que doit prédire le modèle et de ce que nous en attendons.
Tout cela en prenant en compte ce que le métier en espère,
afin qu’il y adhère et qu’il l’intègre à son activité. On pourrait
rapprocher cela d’un garagiste, qui a appris à faire le diagnostic
de panne d’une voiture à l’oreille. Finalement, vous choisirez
le garagiste qui se trompe le moins car il va droit au but et cela
vous coûte moins cher.
Mais de quoi dépend ce taux d’erreur ?
L’intelligence artificielle pour le manager 21

Le jeu d’apprentissage

Si nous reprenons notre exemple de l’agent immobilier, le jeu


d’apprentissage est un ensemble d’exemples comprenant les
données d’entrée (surface, emplacement, orientation, étage…)
et le résultat (le prix). Ces données, connues et considérées
comme correctes, vont être utilisées pour entraîner le modèle,
afin qu’il calcule ses paramètres internes et produise la meil-
leure prédiction possible avec un taux d’erreur « acceptable ».

Le jeu d’apprentissage est la difficulté majeure de l’apprentis-


sage supervisé. La qualité du modèle, au-delà du choix du bon
algorithme, dépendra en grande partie de la qualité de ce jeu
de données.Tous les exemples sont-ils bons ? Ont-ils une spé-
cificité, un biais ? Comment évoluent-ils dans le temps ? Sont-
ils intemporels ou faudra-t-il les faire évoluer dans le temps,
en fonction du savoir-faire de l’utilisateur, des changements de
politique commerciale, tarifaire… ?

Revenons à l’apprentissage de l’enfant pour bien comprendre


toutes ces notions.

La taille du jeu d’apprentissage

Un enfant de 3 ans qui a vu très peu d’animaux va commettre


des erreurs. À cet âge, il n’a pas été exposé à suffisamment
d’exemples de chevaux, de zèbres et d’ânes pour les différen-
cier entre eux. Des zèbres seront des chevaux et des chevaux
pourront être des ânes : il fait donc des erreurs. Les études de
neuropsychologie démontrent qu’il faut montrer 4 fois à l’en-
fant de quel animal il s’agit pour qu’il l’identifie sans erreur. Il
y a donc un seuil minimal d’apprentissage à partir duquel l’en-
fant sait reconnaître un animal sans se tromper. Sa prédiction
passe ainsi d’un taux d’erreur élevé, où le zèbre est un cheval, à
un taux d’erreur nul quand l’âne est reconnu pour ce qu’il est.
22 Guide pratique de l’intelligence artificielle dans l’entreprise

Il en va de même pour l’apprentissage de nos algorithmes de


machine learning. Si on leur soumet trop peu d’exemples, ils
seront incapables de faire correctement la différence et leur
taux d’erreur sera élevé.
La taille du jeu d’apprentissage représente donc un véritable
enjeu pour cette technologie qui apprend par l’exemple et
dont il faut bien avoir en tête les ordres de grandeur. Ainsi,
alors qu’il suffit de montrer 4 fois un chat à un enfant pour
qu’il identifie sans se tromper cet animal, il faut 1 million de
chats pour qu’un algorithme le reconnaisse avec un taux d’er-
reur de 3 %.
C’est aussi pour cela que nous entendons tant parler des GAFA,
qui seuls détiendraient toutes les données du monde.Vos pho-
tos téléchargées sur Facebook expliquent bien qui vous êtes,
et vos achats ou même les pages vues sur Amazon informent
sur votre comportement d’achat. En revanche, ces données de
comportement n’ont d’intérêt que pour la grande consomma-
tion. Dans l’entreprise, vous seul avez l’historique de vos ventes,
connaissez la valeur de votre stock, disposez des informations
sur vos clients. Ce sont ces données qui vont vous permettre
de créer vos modèles.
Notons toutefois que la taille du jeu d’apprentissage est cri-
tique.Trop petit, il induira un taux d’erreur trop élevé. Un peu
comme si l’on modélisait le Go/No Go du lancement d’une
fusée en s’appuyant seulement sur l’historique de data des trois
derniers lancements.
On parle alors de biais : l’apprentissage est biaisé par une mau-
vaise répartition de différentes situations.

Le biais des jeux d’apprentissage


Revenons à notre enfant de 3 ans, qui n’aurait vu jusqu’alors
que des chevaux et un seul zèbre. Il est fort probable qu’il
L’intelligence artificielle pour le manager 23

ne reconnaîtra jamais un zèbre si on lui en montre un, ou


avec une énorme marge d’erreur. C’est la même chose pour
les algorithmes de machine learning. Une catégorie sous-re-
présentée ou sur-représentée créera un biais dans notre algo-
rithme. Beaucoup de zèbres seront dès lors identifiés comme
des chevaux.

Même chose pour une voiture assistée : si l’algorithme chargé


de reconnaître ce qui se trouve devant la voiture n’a été
entraîné qu’avec des barrières de sécurité en bon état, sera-t-il
capable de reconnaître une barrière de sécurité déformée par
un accident ? La nature des déformations est infinie. Un cer-
veau humain est capable de reconnaître une déformation et de
faire le lien. C’est moins sûr avec ces types d’algorithmes qui
doivent avoir déjà tout vu pour les reconnaître. Même si elle
est déformée, c’est bien encore une barrière de sécurité, et le
cerveau humain l’analysera comme telle. Le modèle a-t-il vu
assez de barrières déformées ? Les déformations sont infinies
mais lui a-t-on donné les moyens de le comprendre et sous
quelle forme ? Les modèles appris en apprentissage supervisé
sont-ils toujours valables ?

L’espace de validité

Cette dernière notion nous fait toucher du doigt les limites du


machine learning et elle est malheureusement très peu abordée
dans les cours, voire complètement oubliée par les plus grandes
marques, dès lors qu’il s’agit de parler d’une « autonomie »,
pour des voitures par exemple.

Le modèle calculé à partir du jeu d’apprentissage a un taux


d’erreur relatif au jeu d’apprentissage qu’il a reçu. Plus nous
nous éloignons de ce jeu d’apprentissage, plus l’erreur sera
potentiellement grande. Nous pourrions même dire que notre
24 Guide pratique de l’intelligence artificielle dans l’entreprise

jeu d’apprentissage a un biais car il ne couvre pas structurelle-


ment toutes les possibilités.
C’est un peu le problème que rencontrent les voitures auto-
nomes, qui n’ont d’autonome que le nom, tellement l’espace
des possibles est infini. Le fameux rail de sécurité déformé par
un accident de voiture, qui a coûté la vie à une personne en
2018, est toujours un rail, mais sa forme est trop éloignée de
ce que l’algorithme a appris pour qu’il soit en mesure de le
reconnaître.
Il en va de même dans l’entreprise. C’est pourquoi il faut bien
veiller à ce que l’utilisation qui sera faite des modèles soit com-
patible avec leur domaine de compétences. Nous touchons là
à la notion de finitude de la validité des modèles créés avec de
l’apprentissage supervisé. Ces derniers ne sont pas valables dans
un univers infini, trop éloigné de leur jeu d’apprentissage.
La qualité et la validité des jeux d’apprentissage et, plus géné-
ralement, de la donnée sera donc l’un des plus gros challenges
pour réussir l’implémentation de l’IA dans l’entreprise.

Appréhender la complexité

Nous venons de voir que les algorithmes de machine learning


permettaient de décrire mathématiquement un certain type
de raisonnement. C’est en cela qu’ils se rapprochent de l’in-
telligence humaine. Toutefois, autant l’humain est limité par
le nombre de paramètres qu’il sait traiter, autant l’ordinateur,
avec ses capacités de calcul actuelles, ouvre le champ de tous
les possibles : trois ou 3 000 paramètres, les trois derniers tirs de
fusée ou les trente dernières années ne font aucune différence
pour lui. Il calculera de la même manière le modèle pour obte-
nir la meilleure prédiction avec le jeu d’apprentissage qui lui
aura été fourni. Sa seule limite sera la puissance de calcul mise
à sa disposition.
L’intelligence artificielle pour le manager 25

Cette capacité à intégrer la complexité d’un raisonnement et


à la formaliser mathématiquement donne du sens à la donnée.
Contrairement à l’humain, le machine learning permet d’inté-
grer des raisonnements basés sur un très grand nombre de para-
mètres et un grand volume de données exponentiel, davantage
de dimensions et de fonctions dans l’entreprise. Des données
qui ne seront plus localisées dans une verticale en silo, mais
transversales à toute l’organisation. Celles-ci vont enfin per-
mettre de modéliser la réussite et le rôle que joue l’interdé-
pendance entre les métiers. C’est ce que nous appellerons dans
les chapitres suivants « le décloisonnement de l’entreprise par
la donnée ».
Mais comment choisir ces données pour entraîner ses modèles ?

Les données d’entrée ou le feature engineering

Dernière et ultime notion à intégrer après ces quelques para-


graphes d’introduction : le choix des données d’entrée du
modèle, aussi appelées « features » ou « feature engineering ». Dans
ce nouvel environnement, les Data Scientists doivent faire les
bons choix, notamment le tri entre les données superflues et
celles qui seront essentielles au modèle. Cette sélection reste
encore difficile à bien appréhender et se heurte a beaucoup
de tâtonnement, mais elle est essentielle si l’on souhaite obte-
nir un résultat fiable ou éviter de s’embarrasser de données
qui n’apporteront rien au modèle. On peut rapprocher ce tri
de celui que fait naturellement notre cerveau en fonction de
l’importance des informations qu’il reçoit. Cette sélection est
encore, et pour longtemps, le travail de l’humain aux côtés de
l’intelligence artificielle, mais aussi une notion qu’il faut maî-
triser de manière transversale comme nous le verrons dans les
chapitres suivants. En effet, un logiciel d’IA ou encore un Data
Scientist qui ne dispose pas des bonnes données ne pourra rien
créer d’efficient. Au-delà de l’IA et peut-être même avant, la
26 Guide pratique de l’intelligence artificielle dans l’entreprise

data et la vision analytique de l’entreprise comme de son fonc-


tionnement sont des axes stratégiques de développement et de
transformation.

Comment apprendre ?

Apprendre du passé et apprendre en marchant : toutes les straté-


gies sont possibles. Les véhicules de la marque Tesla apprennent
de votre comportement de conduite, en intégrant les images
captées par caméra de vos gestes au volant et sur les pédales. La
marque crée son jeux d’apprentissage en roulant ! Les modèles
de conduite sont ensuite testés en comparant ce que le modèle
aurait prédit dans la situation présente avec la réaction effec-
tive du conducteur.Tant que le taux d’erreur n’est pas « accep-
table », il continue à apprendre.

On peut transposer cette situation dans l’entreprise. Ainsi, il


s’agit de prendre des exemples passés pour générer un premier
modèle « standard », puis de venir l’alimenter par des données
d’utilisation et de feedback de l’utilisateur, afin que le modèle
s’adapte complètement à son expertise.

L’apprentissage supervisé et la classification

À travers l’exemple de la modélisation et de l’estimation d’un


bien immobilier, nous avons vu qu’il était possible de simuler
le raisonnement de la prédiction d’une valeur. Il est également
possible d’apprendre à prédire une qualité. On parle alors de
classification : Ferrari ou Lamborghini ?

En effet, l’humain, avant de compter, classe mais surtout


reconnaît. C’est la même chose avec le machine learning, les
algorithmes sont capables de reconnaître. En leur apprenant
statistiquement qu’en fonction de la répartition des données
d’entrée, il s’agit de telle ou telle catégorie, ils vont pouvoir
L’intelligence artificielle pour le manager 27

classer et catégoriser, y compris sur un nombre de critères très


important.

Classification

C’est l’exemple classique du modèle qui sait reconnaître un


chat. Si on lui en montre suffisamment, il sera ensuite capable
de dire si ce qui lui est présenté est un chat ou non. Puis,
dans des modèles plus évolués, de reconnaître plus d’un millier
d’objets. C’est cela la classification.

Cette dernière est la fonction la plus utilisée du machine lear-


ning dans l’entreprise, car elle permet de classer, bien sûr, mais
surtout de décider : accord ou refus d’un prêt, dossier d’as-
surance potentiellement frauduleux, heureux ou mécontent…
Ces modèles sont appelés des classifieurs et sont pratiquement
à la base de tous les développements faits autour de l’IA.
Pour ceux qui veulent aller plus loin, il existe une littérature
extrêmement fournie sur le machine learning, l’apprentissage
supervisé et sa modélisation mathématique. Il est toutefois
possible pour ceux qui le souhaitent de partager quelques
intuitions.

Le machine learning et la régression linéaire

Nous avons tous appris sur les bancs de l’école à faire une régres-
sion linéaire. À partir d’un ensemble de m points (Xi , yi), il est
possible de définir une droite appelée droite de régression sous la
28 Guide pratique de l’intelligence artificielle dans l’entreprise

forme y = aX + b, de sorte qu’elle soit une bonne approximation de


tous les points de l’échantillon avec une marge d’erreur minimum.

y = aX + b
Ypred

– 20 – 10 0 10 20 30 40 50 60
Xnew

Après avoir déterminé les paramètres a et b de la fonction, la


fonction y = aX + b nous permettra pour un nouvel X appelé Xnew
de calculer ynew. La fonction y = aX + b est une fonction de prédic-
tion, elle permet de modéliser la généralisation des m exemples.
Tout le machine learning et l’apprentissage supervisé sont basés sur
ce principe. À partir d’un échantillon appelé jeu d’apprentissage,
le calcul des paramètres d’une fonction de prédiction permet
d’obtenir des résultats sur de nouvelles données d’entrée qui
n’étaient pas présentes dans le jeu initial. C’est la généralisation.
Bienvenue dans le monde merveilleux du machine learning !

Il faut bien sûr réduire au maximum l’erreur. Or, une simple droite
ne suffit pas toujours. Il est alors possible d’affiner l’approximation
en prenant des polynômes plus complexes.
Régression quadratique : y = aX 2 + bX + c
Régression polynomiale : y = a1X + a2 X2 + … + anXn
Il y a, cette fois, beaucoup plus de coefficients à calculer. Et c’est
là que les choses se compliquent mathématiquement. En effet,
pour obtenir la meilleure approximation de y quand on lui fournit
une entrée X, il va falloir construire la meilleure fonction f(X) =
a1X + a2X2 + … + anXn, puis trouver la meilleure dimension n de
L’intelligence artificielle pour le manager 29

notre polynôme et, enfin, déterminer les meilleurs coefficients a1,


…, an possibles à partir du jeu d’apprentissage. Ce qui revient à
chaque fois à résoudre l’équation : on connaît X et y, trouver a1,
…, an pour que l’erreur de f(X) soit minimum pour tous les X et y
du jeu d’apprentissage (Xi , yi).

Pratiquement tout le machine learning en apprentissage supervisé


est basé sur ce principe, y compris la classification qui, elle, utilise
la régression dite logistique. C’est donc ce type de calculs qu’ef-
fectuent les algorithmes de machine learning pour vous donner, à
partir d’un jeu d’apprentissage, la meilleure fonction de prédiction.

Le machine learning et l’apprentissage non supervisé

L’apprentissage non supervisé est la technique qui permet


de créer des modèles de classification par groupes (clustering)
de données non étiquetées. Contrairement à l’apprentissage
supervisé qui s’appuie sur des exemples, l’apprentissage non
supervisé n’a que des données d’entrée non labellisées et doit
se débrouiller pour trouver des similitudes afin de les regrouper.
Cette notion de ressemblance peut se caractériser mathémati-
quement par la notion de distance. On dira que deux photos
représentant la même personne ont une distance faible, alors
que deux autres représentant des personnes différentes ont
une distance élevée. En fonction du contexte, il faudra donc
définir une fonction de distance, permettant à l’algorithme de
chercher s’il ne peut pas regrouper certaines données dans des
classes.
Depuis quelques années, nos téléphones classent nos photos
automatiquement avec ce type d’algorithmes. Ces derniers
reconnaissent des ressemblances entre les photos et réalisent
leur classement.
Beaucoup d’autres applications de clustering sont réalisables avec
des algorithmes non supervisés, comme l’analyse statistique des
30 Guide pratique de l’intelligence artificielle dans l’entreprise

parcours utilisateurs d’un site web à partir des classes des dif-
férents types de parcours. Un site européen s’est ainsi aperçu
que les utilisateurs allemands débutaient leur parcours par la
consultation des CGV (conditions générales de vente) ; un
comportement qui ne se retrouvait pas dans les autres pays.
Les applications de l’apprentissage non supervisé sont beau-
coup plus rares que l’utilisation de l’apprentissage supervisé,
mais elles sont néanmoins très utiles dans le cadre de probléma-
tiques de création ex nihilo de segmentation ou de référentiel.

L’apprentissage semi-supervisé

C’est la forme non supervisée la plus utilisée. L’algorithme


commence ses classes en non supervisé. Il ne connaît pas la
nature des éléments mais cherche à les regrouper. Pour labelli-
ser ces différentes classes, on prend au hasard dans chacun des
groupes trouvés, un élément, et on demande à l’utilisateur de
le décrire, de lui donner un « label ». Puis on affecte chaque
label à tous les éléments d’un même groupe pour obtenir un
jeu d’apprentissage qui pourra être utilisé pour entraîner un
modèle de classification, en mode supervisé cette fois, puisque
nous aurons créé notre propre jeu d’apprentissage labellisé.
Dans ce cas, l’intervention de l’humain est très intéressante.
D’une part, elle est minime car on ne labellise qu’un seul élé-
ment par classe pour en déduire le label de toute une classe.
D’autre part, les labels choisis vont correspondre exactement
au métier de l’utilisateur. Ce ne sera pas un éditeur de logiciel
qui aura fait le choix pour lui. Les premières utilisations du
modèle permettront à l’utilisateur de corriger les erreurs que
la classification aura faites et de réentraîner le modèle pour le
rendre plus performant.
Ce réentraînement est valable pour tout le machine learning à
partir du moment où l’algorithme a accès à l’historique de ses
L’intelligence artificielle pour le manager 31

décisions, agrémentées des corrections amenées par l’utilisateur.


C’est ce qui lui permet d’évoluer et de s’adapter parallèlement
à la pratique, à la doctrine ou à la stratégie de son utilisateur.

Les cas d’usage de l’apprentissage non supervisé et semi-su-


pervisé sont multiples dans l’entreprise, notamment pour les
moteurs de recommandations où l’on cherche des similitudes
de comportement pour déduire quelle pourrait être la meil-
leure recommandation. Dans ce cas précis, le contenu de la
classe correspond aux personnes ayant eu le même compor-
tement, les mêmes achats ou ayant regardé les mêmes films.
À chaque classe est affectée une recommandation qui, elle-
même, découle d’un autre modèle capable de prédire ce
qu’une personne achètera ou regardera avec la probabilité la
plus importante au regard de son comportement passé.

Vous voilà rentré dans un nouvel univers où peuvent se com-


biner différents algorithmes qui auront appris, continueront à
apprendre ou trouveront eux-mêmes, à partir des données de
l’environnement dans lequel ils seront plongés. Comprendre
cette nouvelle façon d’aborder des problématiques de tous les
jours, d’utiliser cette vision statistique de l’environnement pour
disposer de fonctions de prédiction, être capable de les intégrer
au bon endroit dans les workflows de nos métiers, c’est intégrer
le changement de paradigme et avoir la capacité de se projeter
soi-même dans un nouvel univers des possibles.

Le machine learning, c’est bien ; le deep learning, c’est encore


mieux ! En effet, classer des images, c’est comprendre le poids
de chaque pixel dans une prédiction. Comprendre le sens d’une
phrase, c’est intégrer le poids de chaque mot. Il existe donc
des fonctions de prédiction encore beaucoup plus complexes,
que seule la représentation mathématique de neurones formels
permet de calculer et, cela, toujours avec les mêmes principes
d’apprentissage et de fonction de prédiction.
32 Guide pratique de l’intelligence artificielle dans l’entreprise

LE DEEP LEARNING OU LES RESEAUX


DE NEURONES PROFONDS

Le deep learning est un sous-ensemble du machine learning dévolu


au calcul de fonctions de prédiction beaucoup plus complexes
et faisant intervenir en entrée des données plus complexes.
L’utilisation de neurones permet de représenter ces fonctions
mais surtout de calculer l’importance de chacune dans le pro-
cessus de décision. Exactement la même chose que nos a et b
de l’équation y = aX + b, mais à une bien plus grande échelle
et dans des dimensions beaucoup plus importantes.
Mais commençons par la représentation du neurone.

Du neurone biologique au neurone formel


Deux neurologues, Warren McCulloch (1898-1969) et Walter
Pitts (1923-1969) ont inventé en 1943 le premier modèle
mathématique du neurone biologique, le neurone formel.
Neurone biologique

Soma (noyau)
Axone
Synapses

Dendrites
L’intelligence artificielle pour le manager 33

Neurone formel
Valeurs Poids

x1 W1j Fonction de
Fonction
combinaison
d’activation
x2 W2j Σ
W Somme φ oj
x3 3j pondérée Activation
netj j
xn Wnj
Seuil

Au même titre qu’un neurone biologique, McCulloch et Pitts


vont décrire mathématiquement l’activation d’un neurone
comme l’atteinte d’un seuil par la somme pondérée des influx
arrivant au neurone.

Cette représentation du neurone a le mérite de proposer une


vision mathématique de l’activation du neurone représentée
sous forme d’une matrice de transformation dans laquelle sont
reportées les différentes pondérations de chaque synapse (poids
synaptique) correspondant à l’importance de l’influx arrivant sur
celle-ci. Ce sont donc ces pondérations que les algorithmes d’ap-
prentissage vont venir modifier pour obtenir un neurone, des
neurones ou des réseaux de neurones, qui vont s’activer pour les
bons influx présentés en entrée, et donner la bonne prédiction.

Les réseaux de neurones et le deep learning

La biologie a donc inspiré les premières modélisations mathé-


matiques des neurones. Nous verrons ici que cela a permis
de créer les premiers réseaux de neurones, puis les réseaux de
neurones profonds aussi appelés deep learning.
34 Guide pratique de l’intelligence artificielle dans l’entreprise

Les réseaux de neurones

Les neurones formels ont été mis en réseau comme le sont nos
neurones dans le cerveau pour traiter une fonction.

Réseau de neurones

Comme le montre ce schéma représentant un réseau de neu-


rones, la couche d’entrée perçoit les influx ; la couche dite cachée
interprète les entrées ; et le neurone de sortie fait la synthèse.
C’est ce dernier qui décide de transmettre un influx ou pas
selon les informations qu’il reçoit de la couche cachée.
Cette représentation « simpliste » du fonctionnement de notre
cerveau permet de modéliser des fonctions de prédiction plus
complexes que ce qu’est capable de faire le machine learning.

L’apprentissage des réseaux de neurones

Si un réseau de neurones est chargé de reconnaître un arbre dans


une image, l’apprentissage va consister à modifier les matrices
de poids synaptiques de chacun des neurones, afin que durant
la présentation d’une image contenant un arbre, l’activation
combinée des neurones délivre une réponse positive. À l’in-
verse, s’il n’y a pas d’arbres sur la photo, l’activation ou plutôt
L’intelligence artificielle pour le manager 35

la non-activation donne une réponse négative. L’apprentissage


supervisé des réseaux de neurones est donc identique à celui
du machine learning. L’idée est d’utiliser un jeu d’apprentissage
pour faire apprendre une fonction de prédiction au réseau de
neurones. Puis, on modifie les poids synaptiques jusqu’à obte-
nir la meilleure prédiction possible. C’est juste du gros, du très
gros calcul matriciel, et toujours une régression linéaire dont les
coefficients sont d’énormes matrices représentant les poids des
neurones.

Des premiers résultats sur des représentions simples


Malgré les difficultés rencontrées dans les années 1980 à cause
de la très faible puissance de calcul de nos PC de l’époque, ces
réseaux de neurones ont obtenu de premiers résultats encoura-
geants dès les années 1990.Yann Le Cun a su, par exemple, leur
faire reconnaître des chiffres écrits à la main, des codes postaux
sur des enveloppes, et à les mettre en production chez US Post.
En revanche, leur utilisation dans le cadre de la réalisation de
fonctions plus complexes, comme reconnaître les différents
éléments contenus dans une image, ne permettait pas d’obtenir,
à l’époque, de bons résultats. En effet, les couches cachées ne
suffisaient pas pour réussir à différencier les éléments : trop com-
pliqué pour un réseau de neurones. Pour lui simplifier la tâche,
il est nécessaire de lui présenter des choses simples à recon-
naître, mais aussi un prétraitement et, donc, plusieurs couches
avec chacune une fonction différente.

Le deep learning
Comment le cerveau réussit-il à interpréter ce que voit l’œil ?
A priori, le simple réseau de neurones ne suffisait pas. En étu-
diant une fois encore la biologie, le chercheur Yann Le Cun
s’est aperçu que des réseaux de neurones spécialisés se char-
geaient tout d’abord de filtrer en éléments géométriques
36 Guide pratique de l’intelligence artificielle dans l’entreprise

simples, avant qu’un réseau de neurones les prenne en entrée


pour effectuer une prédiction. Il a ensuite démontré qu’en
empilant les couches de réseaux de neurones, il était possible de
faire évoluer le concept reconnu à chaque couche. On passait
ainsi de simples formes géométriques à la reconnaissance d’un
objet ou d’un être vivant. Puis dans la couche suivante, il deve-
nait possible de différencier un concept plus évolué comme un
humain ou un animal, dans le cas d’un être vivant.
L’empilement de ces couches de réseaux de neurones permet
ainsi, au fur et à mesure, de faire évoluer conceptuellement la
représentation de ce qui a été vu en entrée : on passe donc de
l’objet au véhicule, puis au camion, etc.
La première couche reconnaît seulement les formes géomé-
triques de l’image, la deuxième les traits du visage (petit ou gros
nez, yeux bridés ou pas…) et la troisième identifie la typologie
de tout le visage (allongé ou rond, cheveux courts ou longs…).
Enfin, la dernière prend la décision et donne le résultat, comme
le nom de la personne, vu en entrée par le réseau.
Le deep learning permet donc de créer des fonctions de prédic-
tion intégrant des concepts complexes et ses applications sont
multiples.

Les applications du deep learning dans l’entreprise

Le deep learning n’a maintenant plus de secrets pour vous. Ses


utilisations sont multiples dans l’entreprise, notamment dans
tout ce qui touche à la vision et, plus globalement, aux sens qui
alimentent notre cerveau pour nous permettre de travailler. En
effet, cela n’aura échappé à personne, dans son activité profes-
sionnelle, l’humain utilise ses sens pour amener de l’informa-
tion à son cerveau. Cette information ne peut pas restée brute :
rien ne sert de lire des lettres si nous ne comprenons pas le sens
des mots. C’est exactement ce que savent faire nos couches
L’intelligence artificielle pour le manager 37

de réseaux de neurones dans le deep learning. Elles sont ainsi


capables de produire une compréhension de concepts évolués
à partir des données qu’elles voient en entrée.
On peut donc utiliser le deep learning pour reconnaître, par
exemple, les zones spécifiques d’un document. Prenons le cas
d’un assureur qui reçoit tous les jours de ses prestataires des fac-
tures, au mieux en PDF et, au pire, au format papier. Un réseau
de neurones va pouvoir distinguer sur ce document, comme le
ferait un humain, les différentes zones qui le composent et les
labelliser : nom du prestataire, adresse, nom du client, montant,
numéro du sinistre… Il est ensuite capable d’extraire les infor-
mations et de les réintégrer dans un workflow classique pour
lancer automatiquement le paiement.
C’est typiquement la fonction d’enabler1 de l’IA. En rendant
possibles des traitements jusqu’alors réservés à l’humain, l’IA
repotentialise les systèmes d’information déjà présents dans nos
entreprises en leur amenant les données dont ils ont besoin
pour effectuer leurs traitements. Ce sont des process complets
qui se remettent en place et s’automatisent complètement ou
en partie.
Il existe un deep learning sensiblement différent, dans lequel
l’ordre de ce que l’on présente au réseau de neurones a son
importance. En effet, les pixels d’une image peuvent se situer
dans n’importe quelle position. Le réseau de neurones ne voit
que leur répartition statistique. Il en est tout autrement des
mots dans une phrase. L’ordre dans lequel ils apparaissent a une
vraie importance pour le sens. « Il fait beau » n’a pas le même
sens que « Fait-il beau ? » ; pourtant ce sont les mêmes mots.
On touche là à une espèce encore plus complexe d’organisa-
tion de neurones.

1. Voir au chapitre 2, « L’IA est un enabler ».


38 Guide pratique de l’intelligence artificielle dans l’entreprise

Les réseaux de neurones récurrents


Il s’agit certainement de la notion la plus complexe à com-
prendre, mais aussi la plus utilisée aujourd’hui dans l’entre-
prise. Les réseaux neuronaux récurrents (RNR ou Recurrent
Neural Networks, RNN en anglais) permettent de prendre en
compte le contexte et de traiter des séquences avec des réseaux
de neurones. La succession de ces derniers permet de consi-
dérer non seulement des informations, mais aussi leur relation
dans leur temporalité. C’est le cas dans des phrases où la place
des mots a son importance, comme dans une vidéo constituée
d’une succession d’images. Si toutes étaient mélangées, la vidéo
perdrait son sens. L’ordre temporel dans lequel sont présentés
les images ou les mots a son importance. On parle alors de
séries temporelles.
Pour être capables de les traiter, les réseaux de neurones sont
placés en cascade et chacun d’entre eux communique au sui-
vant ce qu’il a vu pour qu’il puisse l’intégrer dans sa décision.
C’est ainsi que la temporalité est reproduite, en introduisant de
la séquentialité dans le raisonnement.

Réseau de neurones récurrents


ot–2 ot–1 ot ot+1

V V V V

st–2 st–1 st+1

U U U U

xt–2 xt–1 xt xt+1

Attachons-nous ici uniquement à une des applications des


RNR : le traitement du langage naturel, plus communément
appelé NLP ou Natural Language Processing. L’utilisation
L’intelligence artificielle pour le manager 39

de ces réseaux de neurones particuliers va permettre de faire


de la compréhension du langage naturel, le NLU ou Natural
Language Understanding.

Il existe un très grand nombre d’architectures de réseaux de


neurones récurrents qui sont capables, chacune, de résoudre un
problème comme le montre le schéma suivant.

Architectures types des réseaux de neurones récurrents

One One Many Many Many


One One

Le « Many to One », par exemple, permet de reconnaître des


sentiments, un sens, un contexte… La phrase reçue est-elle une
bonne ou une mauvaise nouvelle ? Faut-il transmettre ce mail
ou ce chat à un opérateur humain ? S’agit-il d’une nouvelle
susceptible de modifier le rating que j’ai sur cette société ? La
rédaction de cette déclaration de sinistre est-elle suspicieuse ?

Prenons ce dernier cas et imaginons que nous avons à notre


disposition les dix dernières années de déclarations de sinistres
et que nous avons pris soin de mettre de côté celles qui se sont
révélées être des fraudes avérées. Nous avons donc un jeu d’ap-
prentissage de déclarations labellisées avec lequel nous allons
pouvoir entraîner un RNR. Ce classifieur aura intégré à tra-
vers son apprentissage une vision statistique de la sémantique
des déclarations frauduleuses et pourra déjà faire un premier
40 Guide pratique de l’intelligence artificielle dans l’entreprise

tri pour accélérer le traitement des déclarations considérées


comme valides.

Le « Many to Many », quant à lui, va permettre de faire des syn-


thèses de documents, de la traduction, passer de la voix au texte
et vice versa, mais aussi de la comparaison avec d’autres rédac-
tions : la clause de ce contrat est généralement rédigée de cette
manière, la demande de ce client reçu sur le chatbot doit rece-
voir cette réponse, etc. L’algorithme comprend le fond, et donc
le sens, quelle que soit la forme. Il va ensuite être capable de rap-
procher ces contextes exactement comme le ferait un humain
qui lit, comprend et rattache à ce qu’il a déjà vu ou appris.

Il est ensuite possible de combiner ces réseaux et de réaliser


des tâches encore plus évoluées : c’est là toute la puissance des
RNR.

En entraînant ces réseaux de neurones particuliers sur les dif-


férents cas d’usage et des domaines spécifiques, on arrive à
reproduire des tâches beaucoup plus puissantes que l’humain ;
l’ordinateur, avec sa capacité de calcul et ses connexions à la
donnée interne et externe, pouvant intégrer des corpus entiers,
scanner l’open data, crawler le Web pour, in fine apporter des
résultats quasiment en temps réel.

La société Predictice, par exemple, spécialiste de l’analyse juri-


dique, fait apprendre à ses systèmes 5,2 millions de décisions
juridiques par an, disponibles en open data. Les cas de juris-
prudence dans les tribunaux du sud de la France pour lesquels
le montant moyen d’une indemnisation a été constaté sur les
trois dernières années pour un cas de harcèlement moral d’une
personne ayant quinze ans d’ancienneté dans l’entreprise et un
salaire de 40 000 €, s’obtiennent en quelques secondes.

Malheureusement, ces techniques de NLP se sont avérées limi-


tées pour certains cas d’usage. Par exemple, il n’est pas possible
L’intelligence artificielle pour le manager 41

de comparer le contenu de deux pages pour savoir si elles


traitent du même sujet. Il fallait donc trouver d’autres tech-
niques qui sont apparues avec l’IA générative.

L’IA GÉNÉRATIVE

L’IA générative est une technique de deep learning utilisant un


principe d’encodeur et de décodeur entraînés sur de très grands
datasets et permettant de les restituer, mais aussi de les combiner
pour générer des contenus qui semblent nouveaux mais qui ne
sont que des combinaisons de ceux déjà appris. C’est en pas-
sant de quelques dizaines de milliers d’exemples sur un sujet à
d’immenses volumes de données sur tous les sujets imaginables
que ces modèles sont capables de se constituer statiquement
une représentation de notre raisonnement, qu’il s’agisse de
texte ou des univers que peut contenir une image.
La meilleure façon de comprendre l’IA générative est son
application sur la génération d’images d’après un certain style,
appelée aussi « transfert de style ».

Transfert de style
42 Guide pratique de l’intelligence artificielle dans l’entreprise

L’exemple ci-dessus montre comment il est possible, à partir de


l’image de gauche, de générer l’image de droite dans le style du
tableau du milieu : La Nuit étoilée de Van Gogh. Pour arriver à
ce résultat, il suffit d’apprendre, à partir du tableau de l’artiste,
dans une phase appelée le pré-entraînement, la répartition sta-
tistique des couleurs entre elles pour apprendre à peindre à la
manière de Van Gogh et de plaquer cette répartition des cou-
leurs sur l’image originale de gauche pour générer l’image de
droite qui, elle, aura intégré la même répartition des couleurs
que le tableau de Van Gogh.
Cette technique de transfert de style a été inventée en 2014
par Ian Goodfellow et reprise, dès 2016, dans de nombreuses
applications grand public comme Snapchat et Instagram, qui
ont permis de générer de magnifiques portraits affublés des
pires accoutrements ou sublimement améliorés.

IA générative et transfert de style sur Instagram

Nous sommes donc tous depuis longtemps de grands utilisa-


teurs de l’IA générative !
Ian Goodfellow a inventé l’IA générative que l’on appelle « image-
to-image », qui consiste à générer une nouvelle image à partir
d’une image source en lui appliquant une répartition statistique
des couleurs précédemment apprise lors d’un pré-entraînement.
L’intelligence artificielle pour le manager 43

Cette idée géniale a ensuite été reprise pour apprendre le rai-


sonnement humain, comme il avait été possible de copier la
manière de peindre de Van Gogh, en apprenant la répartition,
non plus des couleurs, mais des mots entre eux sur d’immenses
datasets censés représenter la pensée humaine. Le « text-to-
text » était né mais il s’est avéré qu’il fallait des RNR dotés
d’un très grand nombre de paramètres, des milliards, pour que
ces modèles soient capables de convenablement reproduire le
raisonnement humain. Ils se sont donc naturellement appelés
les Large Language Models (LLM).

L’IA générative a ensuite été déclinée dans toutes les com-


binaisons : text-to-image, image-to-text, text-to-video,
text-to-code…

Nous allons tout particulièrement nous intéresser au text-to-


text et aux LLM car ils viennent révolutionner le NLP qui
avait montré quelques limitations dans ses premières versions.
Puis nous verrons quelques opportunités sur les autres moda-
lités d’IA générative.

LES LARGE LANGUAGE MODELS (LLM)

L’arrivée de ChatGPT a été un formidable accélérateur de


l’adoption de l’IA et une révolution pour l’entreprise. Du jour
au lendemain, tous les collaborateurs ont pu se projeter dans
l’utilisation de ces nouveaux assistants. Malgré leur formidable
puissance et leur relative simplicité d’utilisation, leur déploie-
ment dans l’entreprise demande quelques notions de base pour
intégrer de nouveaux concepts indispensables à la compréhen-
sion de leur potentiel extraordinaire, de leurs limites et de leurs
structures de coûts. C’est ce que nous verrons ici.
44 Guide pratique de l’intelligence artificielle dans l’entreprise

Le NLP basé sur les réseaux de neurones récurrents (RNR)


entraînés sur une seule tâche avec des dizaines de milliers
d’exemples était concluant sur certains cas d’usage, mais a
montré ses limites, notamment sur son incapacité à réaliser de
la compréhension de phrases longues, de la synthèse de docu-
ment ou de la génération de texte. Ces restrictions ont donné
lieu à de nombreuses recherches pour améliorer la performance
de ces encodeurs-décodeurs et leur capacité à apprendre.

Les Large Language Models (LLM) sont apparus en 2017 après


que les laboratoires de Google ont fait paraître un article fon-
dateur, « Attention is All You Need1 », décrivant une nouvelle
structure de cellule de réseau de neurones récurrents, appelée
« Transformer ».

Elon Musk et Sam Altman, deux génies visionnaires de la


Silicon Valley, avec l’aide d’un des plus grands fonds de capi-
tal-risque américain, Sequoia Venture, ont créé dans la foulée
une fondation dénommée Open AI ayant pour vocation d’uti-
liser l’IA pour le plus grand bien de l’humanité. Certainement
une astuce pour ne pas payer d’impôt.

Les résultats ne se sont pas fait attendre : les Transformers per-


mettaient effectivement d’obtenir de meilleurs résultats en
NLP et, dès 2019, Microsoft a rejoint la folle équipe avec un
petit billet de 100 millions de dollars pour voir, puis 1 milliard
de dollars lorsqu’il s’est agi de passer en mode offensif.

En effet, l’évolution de Google s’est basée sur sa capacité à


comprendre de mieux en mieux la question posée dans sa
barre de recherche. Le géant américain a utilisé le NLP dès
2014 pour passer de la recherche par mots-clés à la recherche

1. Ashish Vaswani, Noam Shazeer, Niki Parmar et al., « Attention Is All


You Need », Cornell University, 12 juin 2017.
https://arxiv.org/abs/1706.03762
L’intelligence artificielle pour le manager 45

contextuelle permise par les avancées du NLP et des RNR. Les


Transformers étaient une nouvelle avancée du NLP et donc un
élément clé dans l’interaction des moteurs de recherche.
Microsoft et son moteur de recherche déliquescent Bing, avec
ses 3,2 % de part de marché, y a vu une opportunité extraor-
dinaire de revenir dans la course et de reprendre une partie des
92 % de part de marché de Google et de ses 195 milliards de
dollars de revenus ; l’équivalent à peu de chose près du chiffre
d’affaires de tout Microsoft.
Une guerre commerciale pleinement assumée par le CEO de
Microsoft, Satya Nadella, pour qui « rien n’est trop beau ni trop
cher pour détrôner le monopole de Google ». Une stratégie qui
s’est traduite en novembre 2022 par le lancement en fanfare
d’un démonstrateur extraordinairement puissant d’une nou-
velle forme de chatbot, ChatGPT. Un chat utilisant un nouveau
type de modèle de langage, les Large Language Models et, en
l’occurrence, GPT3.5, suivi, trois mois plus tard, d’un nouveau
format du moteur de recherche de Microsoft Bing intégrant
une forme de ChatGPT connectée à Internet. Une nouvelle
ère de l’interaction avec les moteurs de recherche était née.

Les applications types des LLM dans l’entreprise

ChatGPT nous a donné un avant-goût du potentiel extraordi-


naire de ces nouveaux modèles nous permettant de nous pro-
jeter dans des applications de l’IA jusqu’ici impensables pour
l’entreprise.
Les LLM ont la possibilité de réaliser nativement les fonctions
suivantes :
• synthèse ;
• classification ;
46 Guide pratique de l’intelligence artificielle dans l’entreprise

• analyse de sentiment ;
• traduction ;
• génération de contenu ;
• planification, etc.
Ces fonctions ont été massivement utilisées par les utilisateurs
de ChatGPT et font maintenant partie de notre quotidien.
Les cas d’usage les plus répandus actuellement dans les road-
maps des CDO Office sont :
• aide au développement avec des applications type Copilot
Codex ;
• chatbot d’interrogation de documentation :
– chatbot d’interrogation de catalogues en ligne,
– chatbot d’interrogation d’offres en ligne,
– chatbot de service client,
– chatbot d’assistance de téléconseiller,
– chatbot interne d’interrogation de base de connais-
sances : RH, juridique, technique, réglementaire…,
• Knowledge Management/Mining : accès unifié et interactif
à la base documentaire d’un service, d’une business unit ou
d’une entreprise ;
• le ChatGPT version privée : l’outil générique source de gain
de productivité pour tous les métiers mais dans sa version
privée sans problématique de confidentialité des données.

Aussitôt disponibles, ChatGPT et les LLM ont suscité un


engouement sans commune mesure. Les phases d’innovation
et de déploiement se sont, pour la première fois, parallélisées
dans toutes les entreprises. Le cycle technologique n’a jamais
été aussi court mais il n’est en réalité qu’une continuité de ce
que nous connaissions tous très bien avec le NLP des RNR,
porté à une nouvelle échelle.
L’intelligence artificielle pour le manager 47

Les cas d’usage en vogue sont très orientés « conversation-


nels » car ils apportent des réponses immédiates à ce que nous
avons longtemps essayé de réaliser avec le NLP de première
génération sans grand succès. L’intégration des LLM dans les
processus de traitement viendra juste après. Leur puissance per-
mettra alors de réaliser de nombreuses tâches pour l’instant
entièrement dévolues à des humains. Entre-temps, de nom-
breuses applications intégrant des LLM seront disponibles en
SaaS, comme ChatPDF.com, qui viendront réaliser des tâches
spécifiques ou s’intégreront dans nos outils bureautiques,
comme Copilot 365. Copilot Codex, le générateur de code
de Microsoft, laisse présager d’autres usages comme la possi-
bilité de reproduire tout ou partie d’une ingénierie comme
l’est le développement. Il serait donc possible de disposer de
LLM spécialisés dans l’ingénierie financière – comme l’a fait
Bloomberg – ou juridique, et d’autres formes d’ingénieries
plus techniques de nos industries. Encore faut-il pour cela être
en mesure de les entraîner, comme nous le verrons par la suite.
Les LLM sont donc d’immenses réservoirs d’applications que
nous découvrons tous les jours. Et ce n’est que le début car
nous commençons seulement à comprendre leur fonctionne-
ment et leurs capacités. La vélocité extraordinaire avec laquelle
les applications se sont développées nous permet déjà de les
utiliser pour certains cas d’usage en entreprise. Le cycle inno-
vation-déploiement n’a jamais été aussi court, à l’image de
l’adoption massive de ChatGPT.
Il faudra donc bien comprendre les grands principes de base des
LLM et les premières implications parfois contre-intuitives, pour
être en mesure de se projeter sur ce qui est déjà réalisable, et de
suivre les développements, les évolutions et l’accélération de ces
cinq prochaines années qui vont révolutionner nos entreprises.
48 Guide pratique de l’intelligence artificielle dans l’entreprise

Le principe des LLM

Contrairement aux premières architectures de NLP, les


Transformers permettent de créer des RNR intégrant une
meilleure corrélation des mots entre eux dans la phase d’ap-
prentissage, en prenant en compte la position relative de cha-
cun. Plutôt qu’un mot seul, c’est l’agencement des mots entre
eux qui donne du sens à une phrase.

Comme pour reproduire la manière dont peignait Van Gogh


en apprenant la relation statistique des couleurs entre elles, les
chercheurs ont fait le pari qu’il était possible d’apprendre le
raisonnement humain à partir de tout ce que l’homme a écrit
depuis la nuit des temps et qui contient donc son raisonnement,
en apprenant la relation statistique des mots entre eux. Cette
compréhension statistique permet de reproduire le raisonne-
ment, ou plutôt de le copier, en quelque sorte. On parle même
de perroquet stochastique. Il y a une part de hasard dans ce
raisonnement du fait de la modélisation statistique de celui-ci.

De la complétion à l’inférence

Les LLM ne comprennent donc pas. Ils prédisent juste statis-


tiquement le mot suivant de proche en proche mais avec un
entraînement tel qu’on s’attend à ce qu’ils arrivent à reproduire
peu ou prou le raisonnement humain. Cette fonctionnalité de
génération du mot suivant s’appelle le mécanisme de « com-
plétion » et toute la technologie des LLM est basée sur cette
fonctionnalité propre au RNR que nous avons vue précédem-
ment avec l’encodeur-décodeur « Many to One ». Finalement
rien de nouveau, mais un entraînement beaucoup plus « riche »
et des cellules plus intelligentes et plus nombreuses que dans les
RNR de première génération.
L’intelligence artificielle pour le manager 49

Principe de complétion : prédiction du prochain mot


amours

Encodeur
Décodeur

Sous le Pont Mirabeau coule la Seine et nos

Il est apparu que cet apprentissage statistique de la relation des


mots entre eux sur des jeux d’entraînement censés représen-
ter le raisonnement humain permettait aux LLM d’intégrer
le sens commun de l’humain sous la forme de règles déduites
statistiquement des phrases vues pendant le pré-entraînement.
En progressant de règle en règle, ces modèles réussissent à faire
de l’inférence, ayant capté ce sens caché de la relation des mots
entre eux qui constitue la pensée. Il s’agit là d’une découverte
très récente survenue bien après que l’on a compris que la
complétion permettait une interaction de bonne qualité en
copiant des interactions déjà vues.

Les moteurs d’inférence statistique étaient nés. Contrairement


à leurs grands frères, les systèmes experts qui ne disposaient,
eux, que d’un nombre fixe de règles, les LLM en incluent un
nombre quasi infini, déduites statistiquement des écrits et des
raisonnements vus pendant leur pré-entraînement. Les LLM
sont donc dotés d’une puissance inégalée de raisonnement qui
leur permet d’exécuter les règles qu’ils ont apprises et de réali-
ser des raisonnements sur des questions que nous leur posons.

Cette capacité de raisonnement générique, sur toute sorte de


sujets ou de tâches, leur confère la dénomination de « modèles
de fondation », contrairement aux modèles classiques de NLP
50 Guide pratique de l’intelligence artificielle dans l’entreprise

entraînés pour une tâche précise. Mais cela reste du machine


learning, nous y reviendrons.

Pourquoi « Large » ?
Ces modèles sont dits « Large », car ils comportent un nombre
extraordinairement grand de paramètres. GPT3.5, le premier
modèle sous-jacent de ChatGPT, comportait 175 milliards de
paramètres – notés aussi 175B (billions of parameters). Open AI
n’a pas divulgué le nombre de celui de GPT4 mais on parle de
mille milliards ! Les modèles de NLP classiques avaient en géné-
ral quelques centaines de milliers de paramètres, tout au plus.
Larges aussi, car ils sont entraînés sur plus de 500 milliards de mots,
soit des milliards de phrases provenant de différents datasets, repre-
nant tout Wikipédia, l’ensemble des publications web de 2014 à
2021 (Dataset Common Crawl), des sites entiers de blogs comme
Reddit.com, 135 000 livres du Dataset Book3 et bien d’autres
encore de manière à « muscler » le raisonnement des LLM.
Leur pré-entraînement sur 500 milliards de mots demande une
énorme puissance de calcul et représente un coût exorbitant
d’environ 5 millions de dollars. À titre d’exemple, entraîner un
modèle de ce type sur 500 milliards de mots prend 5 mois sur
2 000 processeurs spécialisés, les GPU (Graphics Processing
Units) qui interviennent dans le calcul matriciel massivement
parallèle. En comparaison, en 2023, l’ordinateur Jean Zay, la
fierté nationale de notre CNRS, comportait 1 700 GPU.
Azure AI, l’offre IA de Microsoft, comporte 10 000 GPU et
285 000 processeurs classiques (CPU).
Cet effort et ces coûts gigantesques pour créer « from scratch »
un LLM ne sont pas à la portée du premier venu. Il faudra
de très bonnes raisons pour créer son propre LLM, même si,
nous le verrons, des opportunités existent. En revanche, on
L’intelligence artificielle pour le manager 51

peut raisonnablement penser que cette extraordinaire puis-


sance d’inférence diminuera les coûts de mise au point de ces
modèles et facilitera leur déploiement.

Les biais éthiques et culturels des LLM

Le pré-entraînement est une phase cruciale de la création de


ces modèles. Il conditionne leur façon de raisonner et une par-
tie de leurs connaissances. Ils sont donc très sensibles aux choix
de leurs éditeurs, à leurs valeurs et à leur éthique. Un LLM
entraîné par un éditeur américain sera certainement nourri
de sites et de documentations américains. Si, par hasard, nous
étions tentés de lui demander de nous conseiller sur un texte
de loi ou une décision de justice français, quel serait le droit
auquel il se référerait ? Peut-on analyser un problème juridique
français avec un LLM générique provenant d’un éditeur amé-
ricain ? Probablement pas, à moins de s’assurer que, dans son
raisonnement, il n’utilise que le droit français et qu’insidieu-
sement ne se soient pas insérés des biais politiques. GPT3.5 a
été entraîné avec le site Reddit.com qui compile des discus-
sions techniques entre des hommes blancs américains âgés en
moyenne de 27 ans. On est loin de la réalité de la répartition
universelle de la population et d’une représentation fidèle de
la pensée humaine.

Au même titre que nous avons vu déferler après la Seconde


Guerre mondiale l’industrie cinématographique hollywoo-
dienne insidieusement promotrice du jean et du Coca-Cola,
nous pourrions subir la même chose avec l’intelligence artifi-
cielle. Cela pose donc en creux, pour la France et l’Europe, la
question de se donner les moyens, d’une manière ou d’une autre,
de se préserver en générant nos propres modèles de langage,
compatibles avec nos valeurs et nos démocraties. Nous verrons
52 Guide pratique de l’intelligence artificielle dans l’entreprise

que, dans l’entreprise, nous saurons les adapter avec l’« aligne-
ment ». En revanche, l’usage de modèles génériques entraî-
nés « ailleurs », par tout un chacun, et surtout par nos enfants et
le système éducatif comme nouvel outil, pose quelques ques-
tions auxquelles il faudra savoir répondre rapidement.

L’alignement des LLM avec les valeurs de l’entreprise


Les LLM ont donc tous des biais qui les rendront plus ou moins
compatibles avec les cas d’usage qu’ils devront réaliser, mais
surtout avec les valeurs et l’éthique de l’entreprise, sa manière
de communiquer et de s’exprimer, voire plus en profondeur
comme nous l’avons vu avec le droit. On parle donc d’« aligne-
ment » du LLM. Nous le verrons par la suite, il faudra s’assurer
de cet alignement sémantique et idéologique, qui nécessitera,
peut-être, de réentraîner le modèle pour l’« aligner » et s’assu-
rer de la qualité de sa mise en production.

Le dark knowledge et les hallucinations


des modèles génériques
ChatGPT nous a impressionnés par sa capacité à répondre pra-
tiquement comme un humain, ainsi que par la largeur de son
spectre de connaissances. C’est en cela que ces grands modèles
sont généralistes ou génériques. Ils n’ont aucune spécialité mais
sont moyens partout, ce qui leur permet de faire un bon effet.
Certains ont même crié à l’avènement de l’intelligence artifi-
cielle générale (AGI). Il n’en est rien et les erreurs que nous avons
vu apparaître, d’abord sur ChatGPT, puis avec les déboires de
Google et son modèle Bard, ont montré la limite de ces modèles.
En effet, il faut absolument prendre conscience de ce que repré-
sente l’apprentissage de 500 milliards de mots en se donnant
L’intelligence artificielle pour le manager 53

quelques repères. Un enfant entend 10 millions de mots par an.


À 10 ans, il a entendu 100 millions de mots. Un humain qui
lirait 24 h/7 j pendant un an serait exposé à 130 millions de
mots. 500 milliards de mots représentent donc 50 000 années
de vie humaine ou 3 846 années de lecture 24 h/7 j.
Les LLM auraient-ils appris plus de mots ou de règles qu’un seul
humain dans sa vie ? Y aurait-il des règles issues d’une autre culture
qu’un humain ne pourrait pas avoir eu l’occasion de croiser ? Ces
règles sont-elles utiles ? Cachées ? Peut-on y avoir accès ?
Les LLM sont donc de vraies boîtes noires. Même si les édi-
teurs de modèles publient parfois la liste des datasets sur lesquels
ils ont été pré-entraînés, on ne connaît pas exactement l’impact
qu’ils ont eu sur leurs biais de raisonnement ni le niveau de
dilution des raisonnements toxiques contraires à nos valeurs. De
la même manière, on ne connaît pas l’enchaînement des règles
qui va être utilisé pour réaliser un raisonnement. Commence-
t-on par un raisonnement basé sur des règles américaines, puis
sur des règles issues de la culture hindoue et, enfin, asiatique ?
On ne contrôle donc pas l’enchaînement des règles utilisées
par les LLM pour effectuer leur raisonnement. Ils se basent sur
ce qu’ils ont appris et sur la pertinence statistique de la pro-
chaine règle à utiliser compte tenu des précédentes, sans faire
réellement le lien avec les premières. Ils n’ont pas vraiment ce
que l’on appelle communément « de la suite dans les idées ».
Cela donne parfois des raisonnements erronés plus ou moins
délirants : on parle alors d’hallucinations.
Les LLM génériques ont donc des moments de faiblesse.
Autant ils nous impressionnent par leurs capacités à inférer et
copier des raisonnements humains, autant ils nous font peur
quand ils hallucinent.
54 Guide pratique de l’intelligence artificielle dans l’entreprise

Les LLM génériques font trop d’erreurs

Pour en avoir le cœur net, rien ne vaut de revenir aux bonnes


vieilles méthodes du machine learning. Les LLM ont été testés
avec de vrais datasets de tests comportant des centaines de mil-
liers de questions/réponses.
Les résultats sont édifiants, comme le montre le graphique
ci-après1. Quelle que soit la taille du LLM, en l’occurrence
GPT3, il fait 40 % d’erreurs !

Test de GPT-3 sur un dataset de test


Accuracy (%)

175 B params

No 13 B params

10 1,3 B params

0
0 100 101
Number of examples in context (K)
Source : Open AI

Terrible constat que nous percevions, mais que ces tests viennent
factuellement corroborer. Les 500 milliards de mots du pré-en-
traînement confèrent aux LLM une formidable capacité à inférer.
Toutefois,leur caractère générique,leur savoir trop moyennement

1. D’après Leon Gatys, Bethge Lab.


L’intelligence artificielle pour le manager 55

généraliste, trop global, trop large, les font se perdre en conjec-


tures. Ces tests n’ont pas été faits sur GPT4 par Open AI, qui
ne veut pas dégrader l’image de son modèle. Cependant, même
si l’éditeur était parvenu à diminuer de moitié ces erreurs, ces
modèles resteraient inadaptés à un usage en entreprise, avec un
taux encore compris entre 10 et 20 % d’erreurs !
Les LLM ne sont donc que des moteurs d’inférence capables
d’exécuter des règles. Des règles qu’ils ont apprises lors du
pré-entraînement mais que l’on peut aussi leur apprendre et
qu’ils exécuteront merveilleusement. Cette capacité à intégrer
de nouvelles règles va nous permettre de spécialiser ces LLM
pour les rendre plus pertinents vis-à-vis du cas d’usage sur
lequel ils devront travailler et plus déterministes, voire alignés
avec nos valeurs en les restreignant au contexte et aux règles
sur lesquels ils travaillent.
Ces modèles de fondation, si bien nommés, si puissants, doivent
donc à nouveau être verticalisés sur des tâches comme de vul-
gaires modèles de machine learning. Mais, nous le verrons, leur
extraordinaire puissance d’inférence leur permet d’apprendre
vite et donc à moindre coût : une vraie révolution. Une facilité
toute relative qui, nous allons le voir dans le cycle de vie des
LLM, a un impact très fort sur le choix et l’architecture des
applications à base de LLM.

Le cycle de vie des LLM

Ce premier tour d’horizon pose les grands principes de fonc-


tionnement des LLM et permet de comprendre le paradoxe
entre cette extraordinaire puissance des modèles de fondation
et la nécessité de leur faire subir quelques adaptations pour
qu’ils soient compatibles tout au long de leur utilisation avec
le cas d’usage et l’environnement auxquels nous les destinons.
56 Guide pratique de l’intelligence artificielle dans l’entreprise

C’est ce que l’on appelle « le cycle de vie des LLM », résumé


dans le schéma suivant.
Cycle de vie des LLM
Adaptation et
Choix alignement Intégration
Périmètre
du modèle du modèle aux applicatifs

Prompt
engineering Améliorer
Choisir un modèle Optimiser le modèle et
Définition existant ou Évaluer et déployer développer
du cas entraîner Fine tuning le modèle des
la performance
d’usage son propre du modèle pour applications
modèle Alignement l’inférence basées sur
avec l’IAG
du feedback
humain ou IA

La définition du cas d’usage

Cette phase est primordiale. Elle va permettre d’aller jusqu’à


la décomposition fonctionnelle du cas d’usage pour cibler le
LLM ayant la meilleure performance d’un point de vue fonc-
tionnel, financier, ainsi que sur d’autres critères que cette ana-
lyse permettra de lister et qui rentreront en ligne de compte
dans le choix final du LLM, car la route est longue.

Le choix du modèle

Le choix d’un modèle est un processus itératif, qui s’affine tout


au long des différentes étapes et de l’ajout des contraintes liées
à la définition même du cas d’usage : sa fonction, son ROI
cible, sa performance, sa souveraineté ou pas… Le but étant à
la fin des itérations d’avoir trouvé le meilleur LLM, qui satisfera
au mieux toutes les contraintes. Cela laisse sous-entendre qu’il
sera nécessaire, tout au long de cette démarche exploratoire, de
faire bon nombre d’arbitrages toujours dictés par la valeur que
le AI Product Owner du projet devra réaliser en relation avec
toutes les parties prenantes du projet, et surtout le métier.
L’intelligence artificielle pour le manager 57

Tant que les LLM n’auront pas été caractérisés plus que cela
et qu’ils nous apparaîtront comme de très belles boîtes noires,
il faudra toujours commencer par valider la faisabilité fonc-
tionnelle sur le meilleur d’entre eux. Effectivement, rien ne
sert de s’énerver sur un LLM choisi sur d’autres critères, si le
meilleur d’entre eux n’arrive pas à fournir la fonctionnalité. Il
y a très peu de chances de réussir à trouver la fonctionnalité
sur des LLM moins puissants. Il faudra attendre de disposer de
meilleures caractérisations comme le référentiel FLASK ou de
LLM connus pour leur spécialisation avant de se lancer de but
en blanc sur un LLM en commençant par combiner d’autres
contraintes que celles fonctionnelles.

Le choix du LLM est stratégique dans la réussite d’un cas


d’usage. Il va déterminer la qualité du résultat, sa structure de
coût, sa performance, sa compatibilité avec le ROI attendu et
donc l’effort qu’il faut réaliser pour le spécialiser sur une tâche
ou une nouvelle expertise.

Cdiscount intègre des modèles de LLM


de manière industrielle

Après avoir suivi de très près l’évolution des modèles basés sur les
Transformers, Cdiscount intègre depuis début 2023 des modèles
de LLM de manière industrielle. Une des applications majeures
est la catégorisation des produits, qui permet de répondre au
besoin du client avec le bon produit. Cdiscount catégorise 1 mil-
lion de nouvelles références par semaine et l’utilisation des LLM
permet de diviser par deux le nombre d’erreurs de catégorisation,
sachant qu’un produit bien catégorisé augmente de 30 % le taux
de conversion du parcours.

Cdiscount a testé très rapidement les LLM via Open AI pour valider
la performance additionnelle avant d’industrialiser via Microsoft
Azure (Europe). Cette approche a permis aux équipes Data Science
d’embarquer toute l’entreprise dans la mise en œuvre opéra-
tionnelle de cette nouvelle génération de modèles, qui complète
efficacement les algorithmes déjà exploités.
58 Guide pratique de l’intelligence artificielle dans l’entreprise

‘‘ Cette approche nous a permis d’appréhender les différents


enjeux de l’exploitation de ces modèles, dont celui de la
consommation de ressources. Les volumes couverts sont
rapidement importants et imposent de bâtir le bon équilibre
entre les quantités de données traitées par un LLM et les gains
opérationnels obtenus. ’’
Cdiscount catégorise 1 million de nouvelles références par semaine
et a mis en place un double traitement : la grande majorité est
traitée via des modèles de NLP internes existants et concentre
l’utilisation de LLM uniquement sur les volumes restants. C’est
donc une utilisation complémentaire, ciblée et limitée.

‘‘ Nous commençons maintenant la phase d’optimisation de


nos cas d’usage qui démarre par la recherche du LLM le plus
approprié parmi la myriade de LLM présents sur le marché. ’’
Isabelle Serot, directrice Data et IA, Cdiscount

Les LLM vont se spécialiser, comme on conçoit une voiture


pour son usage en intégrant l’ensemble des contraintes exo-
gènes propres aux environnements dans lesquels elle devra
évoluer : une citadine pour la ville parce qu’elle est petite et
consomme moins, un SUV pour la campagne parce qu’il passe
partout et correspond à d’autres besoins de transport.
Faire le lien entre les besoins fonctionnels d’un cas d’usage
et les capacités d’un LLM est une science à part entière. Leur
compréhension est encore empirique ou reliée aux quelques
cas d’usage académiques déjà publiés, mais des référentiels
voient le jour, comme FLASK.
Sorti en juillet 2023, FLASK1 est une technique d’évaluation
d’un LLM empruntée aux sciences cognitives. Elle couvre
tous les besoins d’un cas d’usage en les segmentant par capa-
cité cognitive : Logical Thinking, Problem Handling, Background

1. Ye Seonghyeon, Kim Doyoung, Kim Sungdong et al., « Fine-grained


Language Model Evaluation based on Alignment SKill Sets », Cor-
nell University, 2023. https://arxiv.org/abs/2307.10928v2
L’intelligence artificielle pour le manager 59

Knowledge et User Alignment. Un premier référentiel dans lequel


nous pourrons décrire les cas d’usage et faire le lien avec les
LLM présents sur le marché.

Le schéma ci-dessous montre l’évaluation de quelques modèles


dans ce référentiel.

Évaluation de LLM dans le référenciel FLASK


Logical robustness
5
Harmlessness Logical correctness
4,5
4
Conciseness Logical efficiency
3

2
1
Readability Factuality

Metacognition Commonsense
understanding

Completeness Comprehension
Insightfulness

Vicuna 13B Alpaca 13B LLaMA2 Chat 70B GPT-3,5


Bard Claude GPT-4

Le choix du LLM pour un cas d’usage n’est donc pas une


chose facile. Nos premières interactions avec les LLM à travers
ChatGPT nous ont laissé croire à l’avènement de la plateforme
dont nous rêvions tous : le LLM à tout faire. La réponse n’est pas
si simple et demande une profonde analyse du cas d’usage qui
pourra être résolu nativement par un LLM habilement choisi,
spécialisé ou réentraîné, voire par plusieurs, en fonction des spé-
cificités de chacun. De nouveaux pipelines vont ainsi voir le jour,
60 Guide pratique de l’intelligence artificielle dans l’entreprise

mettant en œuvre différents LLM et différentes architectures


d’application comme nous le verrons avec les agents autonomes.
C’est la compréhension de l’impact des caractéristiques des
LLM et le caractère itératif des différentes étapes de leur cycle
de vie qui permettront de comprendre la nécessité de leur spé-
cialisation et la micro-segmentation qui en découle, ainsi que
l’émergence de nouvelles architectures applicatives. C’est ce
que nous allons voir dans les pages suivantes avec le réentraî-
nement appelé fine tuning, l’alignement et, enfin, l’optimisa-
tion puis les agents qui viendront résoudre la difficile équation
d’une telle granularité.

Le prompt engineering
L’interaction avec les LLM s’effectue en langage naturel appelé
« prompt » comme l’était le curseur vert clignotant des antiques
VT100 appelé « invite de commande ». Le but du prompt est
d’obtenir le résultat attendu du LLM. Cette requête permet
d’interagir avec le LLM et de déclencher le mécanisme de com-
plétion. Sa structure et la demande qu’il contient vont déter-
miner la réaction du modèle et la qualité du résultat attendu.
Les LLM ont des fonctionnalités natives qui peuvent suffire au
cas d’usage. Elles sont atteignables par des prompts qu’il faut
travailler en fonction du LLM choisi.
Bien qu’ils aient quelques petits défauts, les LLM ont des fonc-
tionnalités natives extrêmement performantes, toujours en
fonction de leur pré-entraînement, bien sûr :
• l’inférence ;
• la synthèse ;
• la classification ;
• l’analyse de sentiment ;
• la décomposition du raisonnement, etc.
L’intelligence artificielle pour le manager 61

Il est donc possible d’avoir accès directement à ces fonctionna-


lités en utilisant un prompt.
Cependant, le caractère non déterministe de ces modèles
« boîtes noires » demande d’adapter son prompt pour réussir
à obtenir exactement ce que l’on veut. Tout cela en langage
naturel, bien sûr, et de manière différente pour chaque LLM
car chaque pré-entraînement aura été différent. C’est ce que
l’on appelle le prompt engineering.
Le prompt engineering est un vaste sujet. Il faut seulement retenir
le fait que l’interaction se fait en langage naturel, qu’il per-
met d’avoir accès à des fonctions natives du LLM, d’insérer
des exemples pour stimuler sa capacité d’inférence et qu’il a
une longueur maximum donnée par le LLM. Ces exemples
permettent d’augmenter le savoir-faire d’un LLM. Les bonnes
pratiques actuelles montrent que si ce dernier n’arrive pas à
acquérir un nouveau savoir-faire avec six exemples, rien ne
sert de lui en donner plus. Il faut donc le réentraîner avec des
datasets d’entraînement comme nous le faisions avec le machine
learning pour lui apprendre à faire une nouvelle tâche. C’est ce
que l’on nomme le fine tuning.

Le fine tuning
Lorsque le prompt engineering n’a pas donné satisfaction, il faut
réentraîner le LLM pour lui apprendre une nouvelle tâche, une
nouvelle expertise appelée aussi « Instruct », afin d’augmenter
la capacité de ces modèles.
Cette partie Instruct est aussi visible dans les offres des éditeurs
de modèles. Certains d’entre eux spécialisent leurs modèles en
les entraînant sur certains usages comme la conversation, par
exemple (le chat).
Meta, notamment, a sorti son modèle Llama-2 dans plusieurs
versions :
62 Guide pratique de l’intelligence artificielle dans l’entreprise

• Llama-2 : le modèle générique ;


• Llama-2-Chat : le même modèle mais réentraîné (« fine
tuné ») avec de nombreux exemples de conversations pour
améliorer son style conversationnel et son alignement.

À la différence de nos bons vieux modèles de NLP qui deman-


daient 10 000 exemples avant d’être capables de faire quoi que
ce soit, il n’en faut que 1 000 pour qu’un LLM commence à
apprendre et donne des premiers résultats. La puissance confé-
rée par leur pré-entraînement leur permet non seulement de
disposer d’une puissance d’inférence sans commune mesure,
mais aussi de minimiser l’effort qu’il faut réaliser pour obtenir
une nouvelle fonctionnalité.

Les LLM se « fine tunent » sur des tâches


très spécifiques

Meltwater (Linkfluence) analyse sous différents angles, plus ou


moins spécifiques selon les demandes clients, 1,3 milliard de
documents par jour pour ses services de social listening.

‘‘ Après deux années d’utilisation intensive des LLM, nous


sommes maintenant en mesure de les fine tuner sur des tâches
très spécifiques pour nos propres services ou pour nos clients et
à un coût optimisé. ’’
Guillaume Decugis, CEO Meltwater (Linkfluence)

Structurellement, le LLM sait reproduire des raisonnements


ou corpus qu’il a pu voir pendant son pré-entraînement. En
revanche, lorsqu’il doit raisonner sur des corpus très spéci-
fiques auxquels il n’a pas été exposé pendant son pré-entraîne-
ment, comme une expertise spécifique dans le nucléaire pour
répondre à des questions sur une réglementation par exemple,
il ne sera pas en mesure d’inférer. Cependant, un simple fine
tuning lui donnant l’occasion d’acquérir le vocabulaire dans
des raisonnements classiques de ce métier, peut lui permettre
L’intelligence artificielle pour le manager 63

à nouveau d’inférer. Finalement, c’est la distance de l’expertise


avec le pré-entraînement qui déterminera notre capacité à le
rendre fonctionnel avec un simple fine tuning ou une distance
telle, en termes de vocabulaire et de raisonnements, qu’il lui
faudra un pré-entraînement spécifique lui permettant d’être
fonctionnel, comme l’a fait Bloomberg avec BloombergGPT
pour l’analyse financière – pour quelques millions de dollars
quand même.

Les LLM sont monotâches. C’est totalement contre-intuitif


après ce que nous avons vu avec ChatGPT, mais c’est la partie
la plus importante peut-être de ce chapitre. Les LLM savent se
concentrer sur une tâche mais, dès qu’on leur demande de faire
plusieurs choses à la fois, l’effort augmente exponentiellement
car on dilue les tâches précédemment apprises. Il faut alors
les faire remonter à la surface avec de nouveaux exemples. Le
multitâche a même une limite que nous ne soupçonnions pas,
tellement nos références à l’intelligence sont anthropomor-
phiques plutôt que statistiques. Au bout d’un certain nombre
d’exemples, non seulement les tâches apprises précédemment
sont noyées mais, en plus, une partie du pré-entraînement peut
être anéantie, perdue, oubliée. C’est ce que l’on appelle dans
la littérature académique des LLM, le « catastrophic forgetting ».

Six mois après le lancement de ChatGPT, des tests ont montré


que son niveau avait baissé. En effet, il avait été surentraîné sur
une typologie de tâches correspondant aux premiers usages,
ses autres capacités ayant été délaissées et moins entraînées.
ChatGPT était atteint de catastrophic forgetting. Le MCI (main-
tien en condition intelligente) sera donc un vrai challenge. Si
ces modèles peuvent apprendre au long court, ils peuvent aussi
se dégrader selon leur usage.

Ce comportement a un impact extrêmement fort sur le design


et l’architecture des futures plateformes de LLM. Si l’optimum
64 Guide pratique de l’intelligence artificielle dans l’entreprise

du rapport qualité/effort est obtenu avec une seule tâche et


que celui-ci se dégrade dès la deuxième tâche apprise, les LLM
seront monotâches et ultraspécialisés. Personne ne s’amusera à
optimiser plusieurs tâches pour gagner quelques gigaoctets de
RAM à 2 € le giga ! Et une maintenance de chaque tâche sera
absolument impossible si elle a un impact, un effet de bord, sur
les autres tâches qu’il faudra aussi modifier en conséquence.
D’une vision simple avec des LLM hypermusclés à la GPT4,
Bard, Falcon et autres Claude, nous passons pour certains de
nos cas d’usage à des LLM spécialisés et optimisés. Ces derniers
vont se segmenter par capacités fonctionnelles, allant des géné-
riques aux hyperspécialisés parce que leur pré-entraînement et
leur fine tuning leur conféreront, dans le cadre du cas d’usage,
une qualité supérieure à un LLM générique, ainsi qu’une taille
moindre et, donc, un coût d’inférence inférieur et une meil-
leure performance. À cette segmentation vont venir s’ajou-
ter de nouvelles catégories, comme la capacité à réaliser de la
planification, démontrée par les LLM génériques supérieurs à
100B de paramètres, pour l’instant payante, car dévolue uni-
quement à des LLM commerciaux. À titre d’exemple, le score
de Llama-2-70B est de 56 % sur cette capacité dans le référen-
tiel FLASK, alors qu’il est de 92 % pour GPT41.
Le fine tuning permet d’obtenir des LLM ultraspécialisés qui
gardent, malgré tout, les stigmates, les biais de leur pré-entraî-
nement qui peut parfois ne pas les rendre compatibles avec un
usage dans l’entreprise. Il faut donc continuer leur éducation
et les cadrer pour qu’ils soient compatibles avec les valeurs,
la communication et la sémantique de l’organisation. C’est ce
que l’on appelle l’alignement.

1. https://ai.meta.com/llama/
L’intelligence artificielle pour le manager 65

L’alignement

Les LLM ont la fâcheuse tendance à utiliser leur propre voca-


bulaire qui dépendra de ce qu’ils auront appris au pré-en-
traînement. Les nouvelles de l’agence France Presse, les livres
d’horreur, policiers, de guerre ou d’espionnage sont effecti-
vement à l’image de ce que l’humain est capable de faire, de
dire, mais peut-être pas à celle de ce que nous attendons de la
réponse de ces modèles pour nos clients ou collaborateurs.

L’enchaînement de leur raisonnement pourra donc les amener


à tomber sur une règle ou un comportement « toxique » et
ceci de manière totalement aléatoire. C’est sur ce principe sta-
tistique qu’ils ont été construits et que les règles s’enchaînent.
Il faut donc, une fois encore, les restreindre et les réentraîner
de nouveau pour s’assurer de la qualité de la forme car, dans
l’entreprise, la forme compte autant que le fond.

Les LLM ne doivent pas utiliser de langage toxique, ne pas don-


ner de réponses agressives ou avoir un comportement agressif
et, enfin, ne pas divulguer des informations dangereuses. Ils
sont conçus pour être aidants (helpfull), honnêtes (honesty) et
sans danger (harmless). Ces trois principes, qui permettent d’ali-
gner au minimum un modèle avec nos valeurs, sont appelés « la
règle des 3H » ou « HHH ».

Les LLM « fine tunés » devront être testés avec des datasets de
tests spécifiques permettant de s’assurer du bon alignement du
LLM sur le HHH, mais aussi sur la communication de l’entre-
prise, son style et sa sémantique.

Les méthodes suivantes permettent de réaliser l’alignement des


LLM :
• un nouvel apprentissage supervisé à partir d’un nou-
veau dataset permettant de lui apprendre « les bonnes
66 Guide pratique de l’intelligence artificielle dans l’entreprise

manières » ou en tout cas la forme que nous souhaitons le


voir utiliser dans ses réponses ou ses interactions ;

• le RLHF pour Reinforcement Learning by Human Feedback,


à savoir l’intervention d’un humain pour indiquer la meil-
leure réponse à donner et ainsi le rééduquer en quelque
sorte. Une autre forme d’apprentissage qui va modifier ses
paramètres mais, cette fois-ci, supervisée par un humain.
Cette méthode est très efficace mais elle coûte très cher car
elle demande l’intervention d’humains sur 10 000 à 20 000
réponses à annoter ;

• le RLAIF pour Reinforcement Learning by AI Feedback, qui fait


intervenir un LLM jouant le rôle de notation de l’humain.
Cette méthode est beaucoup moins chère que le RLHF mais
de beaucoup moins bonne qualité. Le coût en est tellement
bas que l’on pourra parfois accepter de ne faire que du RLAIF
ou peut-être n’aurons-nous que quelques annotations à faire
avec du RLHF après une première passe de RLAIF.

L’alignement est donc un mix de ces trois méthodes. Le but


étant d’aligner un LLM le plus vite possible, au moindre coût
et avec la meilleure qualité possible.Tout sera question d’équi-
libre, encore une fois.

Après le fond et la forme viennent les autres contraintes qui


ont rendu ce cas d’usage éligible, comme son coût et sa per-
formance. Il faut donc évaluer sa performance et bien sûr
l’optimiser.

L’évaluation de la performance

Au-delà de la fonction que l’on aura testée avec les méthodes


classiques de machine learning et des datasets de tests, la perfor-
mance de ces modèles représente également un vrai challenge.
L’intelligence artificielle pour le manager 67

Rien ne sert d’avoir une fonction extraordinaire si un client


doit attendre 30 secondes pour avoir son résultat : il sera parti
depuis longtemps. ChatGPT en a fait les frais à son lancement.
Le service était inaccessible pendant de longues heures.

Ces modèles ont un nombre très important de paramètres


(Large). Il faut donc vérifier que leur performance et le choix
des infrastructures sont compatibles avec les temps de réponse
attendus, le nombre de requêtes concurrentes et les coûts
associés.

Le NLP permet de capter les tendances

Le social listening est une vraie révolution pour le marketing.


Analyser les tendances, comprendre presque en temps réel les
avis de ses clients permet une agilité sans commune mesure.
Meltwater (Linkfluence) analyse pour ses clients 1,3 milliard de
documents par jour.

‘‘ Les coûts de traitement des LLM commerciaux sont encore


trop importants pour beaucoup de nos cas d’usage. À 2 cts la
requête, nous ne pouvons pas nous permettre de les utiliser
sur ces volumes. Néanmoins, nous les utilisons pour le training
de nos modèles NLP historiques et améliorons ainsi leur
performance. Et, par ailleurs, nous utilisons nos LLM (dont nous
avons optimisé le coût) sur des données segmentées (donc des
volumes plus faibles) pour des nouvelles fonctionnalités comme
la synthèse ou la reformulation. ’’
Guillaume Decugis, CEO Meltwater (Linkfluence)

Finalement, il faut donc optimiser les LLM pour les rendre


globalement compatibles avec le cadre du cas d’usage.

L’optimisation

Il est possible de faire maigrir les LLM pour que leur exploi-
tation coûte moins cher et qu’ils soient compatibles avec la
charge attendue :
68 Guide pratique de l’intelligence artificielle dans l’entreprise

• la quantization permet de passer des paramètres représentés


sur 16 bits à 8 ou 4 bits en perdant à chaque fois beaucoup
d’informations, mais en réduisant d’autant la taille du LLM.
Les modèles sont généralement marqués q8 ou q4 pour
indiquer qu’ils ont été quantizés à 8 ou 4 bits ;
• le pruning, quant à lui, permet de détruire certains para-
mètres qui ne servent à rien dans le calcul. Quand un para-
mètre vaut 0, quel que soit le calcul, le résultat sera 0. Il est
donc possible de le supprimer.

À chaque fois, il faut s’assurer que la fonction soit toujours là.


C’est le but des tests de validation.À un moment, le LLM ne saura
plus faire la fonction ou l’alignement. C’est que vous avez atteint
les limites de l’optimisation – un nouveau défi sur la qualité des
datasets de tests permettant d’apprécier le niveau et la variation de
la qualité du modèle pour détecter l’atteinte de ses limites.

L’optimisation est une science en soi, qui va au-delà de la


simple quantization et du pruning.Tout est lié. Un LLM spécia-
lisé, et il y en aura de plus en plus, ne demandera aucun effort
de fine tuning, mais peut-être de l’alignement et aucune opti-
misation, puisqu’il sera déjà optimisé en nombre de paramètres.
Un autre LLM, en revanche, devra être « fine tuné » parce que
la spécialisation, la connaissance ou le corpus sont uniques à
l’entreprise. Seulement, il demandera un gros effort d’optimi-
sation du nombre de ses paramètres pour arriver au plus petit
LLM capable de rendre la fonctionnalité.

L’optimisation des LLM se fait d’abord


par la qualité de leur pré-entraînement

‘‘ La qualité de la constitution du corpus d’entraînement


permet d’avoir des modèles plus performants et de réduire
drastiquement leur taille. LightOn a une expertise unique sur ce
sujet, nous permettant de fournir à nos clients entreprises des
L’intelligence artificielle pour le manager 69

modèles aussi performants que les leaders actuels du marché,


tout en garantissant une certaine forme de souveraineté, tant sur
’’
les valeurs véhiculées que sur l’infrastructure.
Laurent Daudet, co-CEO, LightOn

De manière très contre-intuitive, le choix du LLM va s’orienter


vers le plus petit nombre de paramètres permettant de réaliser
la fonction de manière à optimiser le ratio performance/coût. Il
n’est pas impossible que le travail d’innovation se porte princi-
palement sur les modèles à 7B, 13B ou 40B de paramètres pour
comprendre leur capacité et l’effort à produire (fine tuning), afin
qu’ils réalisent « correctement » une tâche et jusqu’où il est
possible de les faire maigrir avec des optimisations.
Mistral.ai, un éditeur français de LLM, ne s’y est pas trompé et
sort, dès son premier LLM, un modèle de 7B de paramètres,
entraîné pendant trois mois, donc, sur un volume important et
certainement choisi de données. Ce modèle consomme 46 %
de moins que ses pairs à performances égales.
La performance et l’optimisation des LLM est un vrai défi.
Nvidia a été pris de cours par son succès et aura du mal à suivre
la demande. Une chance, car les recherches vont s’orienter sur
la réduction du nombre de paramètres à performance égale, et
permettre à de nouveaux acteurs de percer en venant proposer
de nouveaux processeurs.
Il faut parfois tout refaire pour optimiser un LLM et repartir du
pré-entraînement pour optimiser tous les paramètres. Le fine
tuning, l’alignement et l’optimisation ne permettent pas tou-
jours d’arriver à ses fins. En effet, quand il s’agit de réapprendre
une expertise en entier, un fine tuning peut ne pas suffire ou
générer une forme de catastrophic forgetting. La distance séman-
tique entre l’expertise et le pré-entraînement du LLM est trop
importante. Il faut alors refaire soi-même son pré-entraîne-
ment avec des documents permettant de lui apprendre non
70 Guide pratique de l’intelligence artificielle dans l’entreprise

seulement la capacité à inférer, mais aussi cette nouvelle exper-


tise, utiliser une sémantique et des structures de phrases qui ne
demanderont pas d’alignement, ainsi qu’un nombre minimum
de paramètres qui ne nécessitera peut-être pas d’optimisation.
Bref, un savant mélange.
L’analyse financière est une expertise à part entière. Il s’est
avéré qu’aucun LLM n’était en mesure d’en effectuer une.
Bloomberg a donc décidé d’entraîner son propre LLM avec,
d’une part, des datasets classiques et, d’autre part, toutes les news
de Bloomberg, ainsi que tout le FinancialTimes. BloombergGPT
était né. Un beau bébé de 50B de paramètres, dont les résultats
ont tout de suite surpassé les autres LLM dans le domaine de la
finance, comme le montre le tableau ci-dessous, issu du papier
de recherche de Bloomberg.

Résultats de BloombergGPT sur des tâches financières

Avec son BloombergGPT, Bloomberg a démontré que le


pré-entraînement sur un domaine spécifique donnait d’excel-
lents résultats et a ouvert une nouvelle voie, un nouveau marché
pour des LLM spécialisés sur une expertise. La combinaison de
BloombergGPT et de Copilot Codex, le LLM qui génère du
code, nous permet de penser que de nouveaux LLM experts
verront le jour, permettant de faire d’autres types d’ingénieries.
Une opportunité qui n’est cependant pas à la portée de tous ou
qui devra trouver rapidement un équilibre financier quand on
sait que BloombergGPT a dû couter plus d’un million de dollars.
L’intelligence artificielle pour le manager 71

L’intégration du LLM dans son univers applicatif

Les LLM ne sont d’aucune utilité seuls. ChatGPT est une


application conversationnelle bâtie au-dessus de GPT3.5 et
GPT4. Les LLM sont toujours intégrés dans une application,
que ce soit pour des clients, des métiers, un process ou même
un outil. La complexité de leur intégration vient, d’une part,
de leur déploiement et de leur maintenance, et, d’autre part,
d’un pur point de vue applicatif de leur spécialisation, ainsi
que du fait qu’il en faut certainement plusieurs pour effec-
tuer des tâches complexes dans une application, un outil ou un
processus. Les LLM sont utilisés par des applications, du code
de programmation, des librairies, dans lesquels ils devront être
intégrés pour délivrer les fonctionnalités attendues par le cas
d’usage et le métier.

OUTILS ET AGENTS AUTONOMES,


LE NOUVEL ELDORADO DE L’IA

Un seul LLM ne peut pas tout faire. La spécialisation structu-


relle des LLM oblige à composer avec beaucoup d’autres LLM
pour réaliser des tâches complexes. Ces dernières se décom-
posent en sous-tâches que des outils, équipés de LLM ou pas,
vont venir exécuter. L’agencement de ces outils pour accomplir
l’ensemble des sous-tâches est réalisé par un « agent », qui dis-
tribue les sous-tâches aux outils après avoir demandé à un LLM
orchestrateur la liste des sous-tâches à effectuer et l’ordre dans
lequel appeler les outils. C’est ce que l’on appelle l’orchestration.

Le schéma suivant donne un exemple de ce type d’architecture


logicielle.
72 Guide pratique de l’intelligence artificielle dans l’entreprise

Architecture des applications conversationnelles


basées sur des agents autonomes
<< 100 B

LLM Orchestrateur LLM


Outil 1 1

Outil 2 2
Requête
Agent Outil 3 3
Résultat
Client

Outil n

Les LLM ayant des capacités d’orchestration ont en général


plus de 100B de paramètres. Ces LLM sont capables d’analyser
une tâche et de donner une liste d’actions basée sur la des-
cription en langage naturel des outils à leur disposition pour
obtenir le résultat escompté.

Des prompts très spécifiques sont utilisés par les agents pour
déclencher ces mécanismes de décomposition du raisonne-
ment en étapes actionnables. Le plus connu est ReAct Reasoning
and Acting. Le prompt de cet agent permet d’intégrer le retour
des outils et de décider de proche en proche quelles sont les
prochaines étapes à réaliser et quels sont les outils à utiliser
pour avancer vers le résultat.

Prenons un exemple : « Quelle est la différence d’âge entre


Charles III et son épouse Camilla ? »

Un prompt ReAct est envoyé au LLM orchestrateur avec cette


requête et la déclaration de deux outils. L’un effectuant les
recherches sur Google, l’autre réalisant les calculs qu’un LLM
ne sait pas faire.
L’intelligence artificielle pour le manager 73

L’agent a alors le comportement suivant :


• faire appel à l’outil de recherche sur Google pour connaître
l’âge actuel du roi Charles III ;
• l’outil de recherche sur Google n’a pas trouvé l’âge actuel
de Charles III ;
• faire appel à l’outil de recherche sur Google pour trouver la
date de naissance de Charles III ;
• calculer à l’aide de l’outil de calcul l’âge de Charles III,
connaissant sa date de naissance ;
• chercher sur Google l’âge actuel de Camilla ;
• calculer à l’aide de l’outil de calcul la différence entre l’âge
de Charles III et l’âge de Camilla ;
• résultat : la différence d’âge entre Charles III et Camilla est
d’un an.

Le LLM orchestrateur a donné le bon agencement des outils à sa


disposition à l’agent pour effectuer la tâche qui lui était deman-
dée. Il a même su réagir (Reasoning) quand l’outil de recherche
sur Google n’a pas su trouver l’âge actuel de Charles III. Il lui a
alors demandé de procéder d’une autre manière (Acting).
Cette capacité à raisonner et à agir est une révolution en soi.
Certains y ont vu, avec AutoGPT et BabyAGI, l’avènement de
l’AGI. Il n’en est rien car du fait des hallucinations, les LLM
orchestrateurs se perdent vite en conjectures sur des probléma-
tiques complexes.
En revanche, encore une fois dans un cadre contraint, ce sont
de merveilleux routeurs ou orchestrateurs qu’il faudra challen-
ger avec du « Human in the Loop » tant qu’ils n’ont pas fait
leurs preuves. Ils sont d’ores et déjà capables de comprendre
une question et de router vers le meilleur outil muni du LLM
le plus performant. Enfin, on peut imaginer des métabots : un
74 Guide pratique de l’intelligence artificielle dans l’entreprise

point d’entrée unique, qui analyserait et trouverait le meilleur


candidat à la requête. Ces capacités de routage sont nouvelles
pour nos développeurs car elles font appel à de la logique, de
la sémantique et à une boîte noire qu’est le LLM orchestra-
teur qu’il faut déchiffrer du dehors. En effet, le routage se fait
en comparant la requête et la compréhension que le LLM
orchestrateur peut en avoir et la description fonctionnelle des
outils en langage naturel plus ou moins fine, plus ou moins
exhaustive, plus ou moins compatible avec la « logique » du
LLM orchestrateur. Le problème se pose par exemple pour des
sujets connexes dont il peut être difficile de savoir quel outil
les traite plutôt qu’un autre. Nous avions l’habitude de tracer
mathématiquement des frontières, il nous faut maintenant les
exprimer en langage naturel et finalement revenir à la logique
des prédicats.

Les agents seront structurellement au centre


de tous les développements basés sur les LLM
Nous l’avons vu précédemment, le rapport performance/coût
va, structurellement, contribuer à ultraspécialiser les LLM. Or,
une conversation évoluée fait intervenir des notions différentes.
Dans un même contexte et sur une même interface, ce qui est
le cas dans une conversation avec un interlocuteur, les sujets
abordés peuvent être très variés, allant de la simple informa-
tion à l’information « fraîche » issue d’Internet, d’une base de
données, d’un calcul, d’une analyse de la situation, d’un conseil
ou autre. Celle-ci passe alors par un même point de contact
et ce n’est plus à l’utilisateur de faire l’effort de trouver le bon
chatbot ou la bonne page web qui va répondre à son besoin.
Ce « One Stop Shopping » de l’interaction, cette simplification
presque anthropomorphique de l’interaction, ne sera réalisable
que grâce aux agents qui auront la capacité de nous faire sauter
L’intelligence artificielle pour le manager 75

« du coq à l’âne ». Pour cela, ils n’utiliseront plus des LLM


génériques délirants mais, dans un contexte maîtrisé, des LLM
et des services que nous aurons sélectionnés pour leur qualité.
GPT4 n’est-il pas construit avec huit modèles ? Y aurait-il un
agent pour router les requêtes ?

La révolution de la programmation inférentielle


Les agents représentent une nouvelle étape dans l’évolution de
la programmation.Après avoir programmé de manière conven-
tionnelle, puis avec de la donnée, le machine learning, les moteurs
d’inférence vont orchestrer des tâches y compris programma-
tiques pour obtenir le résultat souhaité. Nous appellerons cette
nouvelle forme de programmation la « programmation infé-
rentielle », car elle provient de la capacité des LLM à inférer
une décomposition de tâches. Nous n’en sommes qu’au début
de cette forme de programmation. Il serait facilement envisa-
geable par exemple de créer des outils spécialisés pour générer
du code, de disposer d’outils capables de générer une UX à la
volée ou de créer des connexions à des back-end APIsés. Peut-
être la vraie révolution…

LLM ET PROSPECTIVES
Les LLM n’en sont qu’au début de leur évolution.L’engouement
général des plus grands laboratoires de recherche produit tous
les jours des nouveautés qui s’intègrent aussitôt à l’innovation
pour être mises en production quelques semaines plus tard.
76 Guide pratique de l’intelligence artificielle dans l’entreprise

La micro-segmentation des LLM va s’accélérer

Open AI avec ses GPT3, 3.5 et 4 a voulu absolument prendre


le leadership de ce marché et s’imposer au plus vite. Il n’a, pour
cela, pas regardé à la dépense et a pris en vrac le maximum de
contenu pour faire le tri dès lors que ses modèles fonctionnent
et brillent à nos yeux. Le reste de l’industrie et de l’open source
s’est engouffré dans cette voie du LLM générique en tentant
de montrer qu’ils pouvaient être aussi bons. Une course sal-
vatrice à la puissance d’inférence mais une incompréhension
de la segmentation du besoin. En effet, tout d’abord, GPT4
a mis tout le monde d’accord en mettant une distance quan-
tique avec ses poursuivants, de l’ordre certainement de deux
ans. De plus, les éditeurs et les laboratoires de recherche ont
démontré la pertinence du travail sur les corpus de pré-entraî-
nement pour créer des LLM plus frugaux, compatibles avec les
coûts et la performance attendus, mais aussi une granularité des
fonctionnalités structurellement dictées par les cas d’usage. Les
exemples sont déjà légion mais prenons-en quelques-uns pour
nous en convaincre.

Microsoft Research par exemple a démontré avec TinyStories


qu’il était possible d’entraîner des LLM de 10 petits millions
de paramètres, uniquement pour raconter des histoires à des
enfants de 3 à 4 ans, mais avec un volume important de don-
nées de pré-entraînement, triées sur le volet. Bert, le LLM de
Google, qui compte 110 millions de paramètres, bat tous les
LLM sur la synthèse extractive, l’extraction brute d’informations
sans reformulation, alors qu’une synthèse abstractive de bonne
qualité, qui reformule, ne peut être réalisée que par des LLM
de plusieurs milliards de paramètres. Ce cas d’usage de synthèse
extractive existe tous les jours, ne serait-ce que pour extraire
des parties de verbatim d’une conversation que l’on souhaite
avoir « en l’état » et surtout pas transformées.
L’intelligence artificielle pour le manager 77

Une hyperspécialisation de LLM hyperoptimisés

Microsoft Research a aussi démontré qu’avec un modèle de


1 milliard de paramètres – Phi-1B, entraîné sur des programmes
savamment choisis – il était possible d’arriver largement au niveau
de Copilot Codex qui, lui, avait été entraîné sur tout GitHub et
fait cogiter TOUS les 175 milliards de paramètres de GPT3.5.
Ce dernier exemple de LLM spécialisé dans le codage va nous
permettre de toucher du doigt le dernier concept de ce chapitre.
Phi-1B permet avec son milliard de paramètres de développer
dans tous les langages de programmation. Fantastique ! Mais
a-t-on jamais vu un développeur passer du Python au Java pour
finir sa journée en C++ ? Oui, parfois, mais très rarement. On
va passer du Python au C++ pour des routines de bas niveau
mais, dans plus de 80 % des cas, un programmeur va se concen-
trer sur un seul langage, au moins pendant un temps, et donc
avoir besoin d’un LLM sachant coder en Python ou en Java ou
en C++, mais pas les trois en même temps. Encore et encore, il
faut donc revenir au cas d’usage, aux besoins du métier.
Les exemples pullulent et ce n’est que le début. Il est certain que
cette micro-segmentation des LLM, dont nous parlions précé-
demment et qui nous était apparue pour des raisons structu-
relles, va s’accentuer grâce à ces recherches sur l’optimisation du
ratio qualité du pré-entraînement/nombre de paramètres. Nous
pouvons faire le pari que, demain, seront disponibles des LLM
pour la programmation Python, d’autres pour le Java et d’autres
encore, peut-être, pour le C++. Mais, une fois de plus, c’est le
besoin métier qui nous drive. Jamais un métier n’acceptera d’al-
ler fouiller dans les milliers de LLM disséminés sur Internet pour
trouver celui qui est optimisé pour son développement du jour.
Il veut un point d’accès, une application, un produit qui lui rend
ce service. Loin de lui nos problématiques d’optimisation dont il
n’a que faire, comme nous nous moquions bien, sur nos voitures,
78 Guide pratique de l’intelligence artificielle dans l’entreprise

du moteur à arbre à cames en tête ou pas, du moment qu’elles


roulaient. Ce sont les agents qui feront ce travail. Capables d’in-
terroger un LLM orchestrateur, ils seront en mesure de diri-
ger la requête vers le LLM le plus à même de la réaliser avec
brio. Autant les agents nous apparaissaient comme de magni-
fiques petites mécaniques qui allaient venir nous enchanter sur
des applications complexes de métabots, autant nous venons de
montrer qu’ils joueront un rôle central dans toutes les applica-
tions à base de LLM à partir du moment où le cas d’usage, le
besoin du métier, fera appel à plusieurs LLM optimisés.
LLM, outils, agents vont donner naissance à de nouvelles archi-
tectures applicatives très proches de ce que nous connaissions
avec les micro-services, mais avec une forme d’intelligence en
plus, le LLM orchestrateur et le prompt qui lui font prendre les
bonnes décisions.

LES AUTRES FORMES D’IA GENERATIVES

Le text-to-text à travers les LLM a montré l’incroyable puis-


sance que l’on pouvait tirer d’apprentissages de datasets géants
sur des modèles de plusieurs milliards de paramètres, mais il
existe d’autres formes d’IA générative mêlant différentes
modalités autres que le texte.

Text-to-image
Les applications directes de design et de text-to-image sont
devenues, en quelques mois, les outils des créatifs des agences
de design, de marketing et de publicité. De nombreux modèles
nous ont permis de nous familiariser avec eux, dont les plus
connus sont Dall•E et Midjourney. Adobe les a immédiate-
ment intégrés à sa suite logicielle Photoshop sous le nom de
Firefly et en a fait un outil classique pour les créatifs.
L’intelligence artificielle pour le manager 79

Les premières campagnes publicitaires ont vu le jour,dès avril 2023,


avec la marque de maillots de bain Undiz. Celle-ci a fait appel à
l’agence Cowboys pour créer des images inédites,avec Midjourney
et Stable Diffusion, destinées à un affichage public. Un nouveau
workflow de création à inventer, faisant intervenir de nombreux
outils de retouche pour rendre ces images générées réalistes.
Au-delà de la simple création, on peut facilement imaginer
que des modèles d’IA générative text-to-image, spécialisés dans
certaines formes d’ingénieries, voient le jour. Un architecte
pourra décrire l’élément d’une maison, disposer de plusieurs
variations de sa proposition, peut-être liées à un contexte, au
même titre que dans un prompt de text-to-text nous donnons
un contexte : « Pour une maison située en Normandie… ».
Toutes les formes d’ingénierie vont pouvoir bénéficier de ce type
de modèle qui non seulement intégrera la partie visuelle, mais
aussi les règles d’ingénierie sous-jacentes, au même titre que le rai-
sonnement pour les LLM ou la manière de programmer pour les
Copilot Codex. Ces modèles sont théoriquement faisables, nous
en avons eu la preuve.Le seul challenge consiste dans la constitution
du dataset de pré-entraînement. Nous avons eu la chance d’avoir
les Book3, Wikipédia et autres Common Crawl pour apprendre
le raisonnement humain ; GitHub pour apprendre à développer ;
Bloomberg et le Financial Times pour réaliser une bonne analyse
financière avec BloomberGPT.Toutefois, réussirons-nous à réunir
ou à créer assez d’informations pour que ces modèles soient en
mesure d’apprendre d’autres formes d’ingénieries ?
Ce sera certainement le défi, mais aussi l’opportunité pour des
Dassault Systèmes d’utiliser tout ce que Catia a conçu dans
l’aéronautique pour en tirer des règles d’ingénierie qui vien-
dront s’intégrer dans Catia, comme Firefly dans Adobe. Des
Bouygues ou des Eiffage auront certainement la possibilité de
se construire leurs propres modèles d’ingénierie pour augmen-
ter la performance de leurs équipes.
80 Guide pratique de l’intelligence artificielle dans l’entreprise

Text-to-video
L’IA générative entraînée sur une vidéo annotée peut générer
des clips vidéo cohérents dans le temps. Des IA comme Gen1
de RunwayML19 et Make-a-Video de Meta peuvent générer
des vidéos de cette manière.
Les industries du cinéma, de l’animation et même du jeu vidéo
trouvent là un nouvel outil de créativité qui nous emmènera
dans de nouveaux univers oniriques.

Image-to-text
Cette catégorie de modèle est essentielle pour beaucoup de
nos applications du quotidien :
• la génération de métadonnées décrivant le contenu d’une
image ;
• la constitution de nos bases de connaissance internes, sur
lesquelles nous rêvons de faire du knowledge mining, que ce
soit sur du texte ou des images ;
• la création de catalogues sur des sites de e-commerce, où la
description du produit est un élément clé de la recherche et
du taux de transformation.

Ces modèles savent décrire une image. De la même manière


que nous décryptons, nous décrivons le contenu d’une image.
Le dernier modèle en date sort des laboratoires de Microsoft
Research Asia, avec Visual ChatGPT1.

1. Wu Chenfei, Yin Shengming, Qi Weizhen et al., « Visual ChatGPT:


Talking, Drawing and Editing with Visual Foundation Models »,
Cornell University, 2023. https://arxiv.org/abs/2303.04671
L’intelligence artificielle pour le manager 81

Architecture de Visual ChatGPT

Ces modèles décomposent l’image avant de la commenter.


GPT4 a directement intégré cette capacité pour devenir un
modèle multimodal. Google et Meta ne sont pas en reste sur
ces modèles qui vont représenter un énorme marché, que ce
soit pour l’entreprise et la description de ses données visuelles,
ou pour tout le webmarketing. Il reste cependant encore beau-
coup de progrès à faire pour avoir des commentaires perti-
nents sur des images complexes ou une compréhension de
graphiques sur des slides PowerPoint.
Nous n’en sommes qu’au début de ces « Large Models » qui
vont revêtir différentes formes et interactions et encore une
fois se spécialiser au fur et à mesure, pour être toujours plus
performants.
Chapitre 2

La révolution de l’IA
est en marche
La révolution de l’IA est en marche 85

LE REVEIL DE L’INTELLIGENCE ARTIFICIELLE

L’IA est restée une technologie hors de portée de l’industrie


jusqu’en 2016. Ce sont encore une fois les GAFAM qui, ayant
choisi l’intelligence artificielle comme axe stratégique de déve-
loppement, ont commencé à en faire la promotion. Google,
après avoir lancé Google Brain, a fait l’acquisition de la société
anglaise DeepMind, spécialisée dans le deep learning. Elle a
démontré en 2016 avec son programme AlphaGo la supério-
rité de l’intelligence artificielle sur l’homme au jeu de go en
battant à plusieurs reprises le champion du monde, Lee Sedol.
En médiatisant cet événement, comme seuls les Américains
savent le faire, Google a permis au monde entier de com-
prendre qu’une rupture technologique était sur le point de se
transformer en révolution, avant que ChatGPT et Microsoft ne
prennent le relais en 2022.
Aujourd’hui, la révolution est en marche. Les fonds de capi-
tal-risque investissent massivement dans des start-up plus inno-
vantes les unes que les autres. Les solutions sur étagère sortent
progressivement. Reste désormais aux entreprises à intégrer
cette nouvelle transformation dans leurs stratégies comme
l’ont fait bien avant elles les marques de la grande consomma-
tion avec Siri, Instagram et les voitures assistées.

L’INTELLIGENCE ARTIFICIELLE EST DEJA PARMI NOUS

Les biens de grande consommation

C’est la sortie de Siri dans l’iPhone en octobre 2011, inventé


par un Français, Luc Julia, lorsqu’il était directeur d’un labo-
ratoire du SRI (Stanford Research Institute), qui a marqué le
début de l’introduction de l’intelligence artificielle dans les
86 Guide pratique de l’intelligence artificielle dans l’entreprise

biens de grande consommation. Le téléphone mobile a été


le premier vecteur de l’IA dans nos vies. De nouvelles fonc-
tionnalités sont apparues, comme la possibilité de classer auto-
matiquement nos photos selon les personnes présentes dessus
(classification d’image non supervisée), puis de les personna-
liser en temps réel dans Snapchat et Instagram avec de l’IA
générative, que nous ne soupçonnions même pas.

L’IA s’est donc immiscée dans notre quotidien de manière


très naturelle. Désormais, c’est sur nos postes de travail qu’elle
arrive en fanfare avec la découverte des extraordinaires capaci-
tés de ChatGPT, merveilleux démonstrateur et précurseur du
potentiel de l’IA générative.

L’entreprise

L’entreprise a adopté, plus tardivement que le grand public,


l’intelligence artificielle. Les directions métiers ont bien sou-
vent été les premières à introduire des algorithmes d’IA dans
leurs pratiques. C’est le cas notamment du marketing qui a, très
tôt, utilisé le machine learning dans les moteurs de recommanda-
tion produit de ses sites web, ou encore optimisé le contenu de
ses messages publicitaires.

Ces quatre dernières années ont marqué une vraie prise de


conscience du potentiel de l’IA en termes d’efficacité opéra-
tionnelle. La majeure partie des grands groupes a intégré l’ap-
port de la data et de l’IA à ses objectifs stratégiques et mis en
œuvre des programmes de transformation incluant un volet
Data IA. Ces entreprises ont structuré leur CDO Office pour
être en mesure de déployer industriellement des algorithmes
de machine learning qui, aujourd’hui, jouent un rôle central dans
leur stratégie de croissance.
La révolution de l’IA est en marche 87

Les assistants IA des forces commerciales et des téléconseillers


sont maintenant des compagnons indispensables. La révolution
est en marche après l’évangélisation réalisée par Open AI avec
ChatGPT. Son appropriation massive en quelques mois n’est
pas un hasard et marque le début d’une nouvelle ère dans l’en-
treprise où l’intelligence artificielle a d’ores et déjà démontré
sa pertinence.

L’ETAT DES LIEUX DANS LES ENTREPRISES :


L’ENTREPRISE ENCORE EN MODE MANUEL ?

Les années 1970 ont marqué un vrai tournant dans l’indus-


trie en introduisant des robots partout où cela était possible,
permettant ainsi de réduire les coûts de production et d’aug-
menter la qualité. S’en est suivie, dans les années 1990, la diffu-
sion massive de logiciels de gestion d’entreprise encore appelés
ERP. L’Europe peut s’enorgueillir d’être le berceau du leader
mondial SAP. Ces outils permettent de structurer les process
et surtout de rassembler, d’unifier et de stocker les données
de l’entreprise. Cela n’a cependant pas suffi ! Contrairement à
la digitalisation à outrance des usages auprès du grand public,
l’entreprise est encore, toutes choses égales par ailleurs, à l’âge
de pierre. Les tâches manuelles y sont légion et certaines ne
sont même jamais réalisées, faute de moyens.
Le contrôle de la paie est effectué tous les mois par un contrô-
leur, qui compare deux écrans quand ce ne sont pas des papiers.
La réponse aux questions juridiques des commerciaux est,
quant à elle, communiquée à des juristes par téléphone ou par
mail, au cas par cas…
La liste est longue et fait apparaître une succession de tâches à
faible valeur ajoutée que nous ne soupçonnions pas. Celle-ci
laisse entrevoir le peu de temps qu’il reste à ces personnes pour
88 Guide pratique de l’intelligence artificielle dans l’entreprise

créer de la valeur. En effet, chaque métier dispose d’un réser-


voir de valeur lorsqu’on l’analyse et qu’on l’optimise. Encore
faut-il pouvoir se détacher des basses œuvres ou disposer des
moyens de le faire. Au-delà de l’aspect manuel, le traitement
de la donnée est encore balbutiant. La business intelligence a déjà
nettement fait progresser l’entreprise dans sa capacité à visuali-
ser ses données pour les analyser.Voir c’est bien, analyser c’est
mieux. Et analyser exhaustivement et de façon automatisée
pour prendre des décisions, c’est encore mieux ! C’est ainsi
que l’on gagne en compétitivité.

L’IA, LA SUITE LOGIQUE


DE LA TRANSFORMATION DIGITALE

La transformation digitale a consisté depuis quelques années


à transformer l’expérience client, en s’assurant de la rendre a
minima digitale et en faisant évoluer les process internes grâce
à des suites logicielles orientées métier. L’idée étant de s’assurer
de l’uniformisation des process plutôt que de leur performance.
Cette première étape a déjà modifié l’entreprise en profondeur,
la faisant rentrer de plain-pied dans l’ère numérique, qu’elle
n’avait jusqu’alors qu’esquissé à travers la mise en place de son
système d’information.

La vague du Big Data initiée en 2009 avec la sortie des pre-


mières versions de Hadoop, une librairie open source permettant
de distribuer des fichiers sur différents serveurs, dont personne
à l’époque ne comprenait réellement la portée, a permis de
faire entrer dans les mœurs l’importance des données de l’en-
treprise. Pour autant, celle-ci n’a donné lieu à aucune initiative.
Il a d’abord fallu la prise de conscience de l’utilité de cette
vision analytique des activités de l’entreprise (voir plus loin le
développement sur l’Homo analyticus), rendue possible par les
La révolution de l’IA est en marche 89

outils de business intelligence, pour réveiller les entreprises en


leur faisant intégrer la valeur de leurs données en termes d’ac-
tifs stratégiques. L’arrivée de l’IA vient renforcer l’impérieuse
nécessité de la disponibilité de données de qualité au sein de
l’entreprise, afin que les processus et les métiers puissent avoir
accès à de plus grandes et sophistiquées capacités de traitement
pour laisser place à la performance.
Ces nouvelles capacités de traitement prennent la forme d’ou-
tils du quotidien, intégrés dans le poste de travail et les process
métier. Bien que faisant appel à de nouvelles technologies, elles
sont intégrées de manière très classique au système d’informa-
tion, afin qu’elles fassent partie, à part entière, de l’outil de pro-
duction et de gestion de l’entreprise. L’humain bénéficie d’une
nouvelle aide dans son travail à travers ces nouveaux systèmes
embarquant une forme très primitive d’intelligence mais de
grandes capacités de calcul, de recherche et de stockage.
En replaçant l’IA dans son contexte, et bien qu’elle soit une
réelle rupture technologique, on s’aperçoit qu’elle n’est au
fond qu’une continuité logique de la transformation digitale
déjà initiée. L’IA peut ainsi être vue comme une nouvelle
« strate1 » apportant de nouvelles notions de performance et
de compétitivité.

LE DANGER DE NE PAS INTEGRER L’IA


DANS LA TRANSFORMATION DIGITALE

Les potentiels de gain de productivité et d’augmentation des


profits sont tels que l’IA représente une opportunité unique
pour les nouveaux entrants, les followers, les challengers, de ravir

1. Erik Bryjolfsson et Andrew McAfee, Le Deuxième Âge de la machine,


Odile Jacob, 2015.
90 Guide pratique de l’intelligence artificielle dans l’entreprise

des parts de marché, voire le leadership aux belles endormies.


Celles qui l’intégreront dans leur stratégie de développement
assez tôt, en transformant et en optimisant leurs métiers, pour-
ront se prémunir contre de nouveaux entrants et garder le
même niveau de compétitivité face à leurs concurrents qui
s’équiperont à leur tour.

L’IA est aussi une opportunité unique de créer de nouveaux


revenus et de se déplacer sur sa chaîne de valeur. Le constructeur
de drones toulousain DelAir vend ses produits, mais propose
aussi l’analyse des vidéos rapportées par ses drones. Celles-ci
permettent, par exemple, de déterminer le besoin d’élagage des
voies TGV, en reconnaissant la vitesse de pousse des espèces
végétales présentes sur le parcours. Airbus, avec son service
Skywise, développe des services payants de maintenance pré-
dictive sur les pièces détachées de ses avions, afin d’augmenter
leur durée de vie plutôt que de les mettre au rebut sur la base
de durées de vie fixes. La liste est déjà longue et ces revenus,
que nous appelons AI First, car il n’était pas possible de les ima-
giner et de les produire sans l’IA, sont désormais à la portée de
toutes les industries, ainsi que des nouveaux entrants.

Se déplacer sur sa chaîne de valeur permet de faire du défen-


sif et d’empêcher le développement de nouveaux entrants qui
viendraient capter la valeur, comme ce fut le cas de toutes les
start-up qui ont pris les positions laissées libres par les leaders.

Il faudra prêter une attention toute particulière à la relation


avec ses clients finaux, car l’IA est un fantastique accélérateur
de désintermédiation du fait de ses facultés d’interaction et de
personnalisation. C’est ce qu’ont parfaitement réussi à faire les
Uber ou AirBnB en désintermédiant la relation client. Avec
l’arrivée de l’IA, toutes les industries vont être concernées. Si
elles ne se positionnent pas d’elles-mêmes, d’autres viendront
le faire à leur place et capteront la valeur.
La révolution de l’IA est en marche 91

L’asset management va se désintermédier

‘‘ C’est la structure de coûts, mais aussi toute la relation client


qui va se transformer dans l’asset management. L’IA va permettre
à ces sociétés de changer leurs modes de commercialisation,
mais aussi de modifier la fréquence de leurs interactions avec
les clients. Dans une offre très complexe, le client aura le choix
de son canal d’achat et disposera d’outils de conseil pour accéder
aux recommandations de fonds les plus adaptés à son profil
d’investissement, mais aussi réaliser sa propre simulation de
performance de portefeuille. Ce type d’interaction fera progresser
plus vite la culture financière de nos clients qui pourront être plus
réactifs et quitteront des supports obsolètes plus rapidement. ’’
Christophe Bonnefoux, Chief Data Officer,
BNP Paribas Asset Management

Il y a enfin un enjeu culturel à démarrer sa transformation Data IA.


Avec le changement de paradigme qu’elle porte, et son utilisation
massive des données, elle transforme en profondeur la modélisa-
tion que chacun peut avoir de l’entreprise. La vision analytique et
transversale de cette dernière devient une nécessité pour tout un
chacun, afin de réussir cette ultime transformation et de lui don-
ner corps. Les entreprises qui n’auront pas fait ce virage culturel et
intégré l’IA avec la bonne célérité sortiront du marché.

L’IA MODELISE LA REUSSITE ET L’OPTIMISE

L’IA ne se limite pas à des applications ponctuelles d’augmen-


tation de la productivité ou de création de nouveaux revenus.
Elle permet aussi de modéliser la réussite de toute une entre-
prise quand les algorithmes peuvent prendre en compte l’en-
semble des paramètres qui contribuent à sa réussite.
Toutes nos entreprises sont construites sur le même modèle
séquentiel de la production à la vente avec, entre les deux, une
succession infinie de tâches que nos organisations en silo ont
92 Guide pratique de l’intelligence artificielle dans l’entreprise

du mal à faire travailler entre elles. Nous optimisons de proche


en proche mais rarement sur toute la chaîne et jamais avec
des informations externes, celles de la vie courante, comme les
actualités ou la météo, qui pourtant ont un impact sur notre
production, les segments, les stocks, la vente…
L’IA, et le machine learning en particulier, permettent d’intégrer
toutes ces données transversalement pour créer des modèles
d’optimisation et ainsi, enfin, modéliser la réussite.

L’IA, L’ENTROPIE ET LA LONG TAIL


Toutes les organisations humaines font de leur mieux face à la
masse de travail que génère la qualité, mais aussi la complexité
de nos organisations modernes. Le syndrome « font de leur
mieux » se traduit au quotidien par le traitement de grandes
masses, de gros montants, de grosses erreurs, pour minimiser le
risque de l’entreprise. C’est la fameuse constante universelle, la
proportion magique 80-20 : 20 % des achats représentent 80 %
du montant des achats. Ces 20 % sont traités avec le maximum
de process, tandis que les 80 % le sont de manière inégale, en
fonction des moyens ou du temps disponibles. C’est ce que
nous appelons la long tail ou « longue traîne » en français.

Longue traîne
La révolution de l’IA est en marche 93

Le traitement ou plutôt le non-traitement de la long tail dans


toutes les fonctions de l’entreprise est un puits sans fond, qu’au-
cune organisation ne sait chiffrer. Elle fait partie intégrante de
la vie de l’entreprise.

Gros, petit, moyen, long, cher, l’IA ne fait pas de différence.


Elle réplique le process et la stratégie de l’entreprise. Elle les
uniformise en s’affranchissant du coût et de la complexité de
traitement, et cela de manière continue.

Reprenons l’exemple des achats. Après un certain temps, toute


entreprise soucieuse de sa bonne gestion fait appel à un cabinet
de consulting spécialisé dans la réduction des coûts, le cost cutting,
pour « nettoyer », remettre au carré. Des consultants, chacun
spécialisé dans l’optimisation de catégories d’achat, viennent
dans l’entreprise et appliquent leur expertise pour optimiser les
dépenses. Ce coup de « rabot » salvateur et nécessaire, compte
tenu de la complexité des environnements dans lesquels les
entreprises évoluent, est réalisé ponctuellement, voire périodi-
quement, mais seulement sur les catégories d’achat « rentables »
pour le consultant et pour l’entreprise. Aucune organisation ne
va faire travailler ses collaborateurs à plus de 1 000 € la journée
sur des gains de 100 €, qu’il faut deux jours pour trouver. Et
pourtant qui sait dire combien il y en a ?

L’IA n’a pas de problématique de ROI. Son coût est fixe, sa


disponibilité totale et continue et son temps infini. Il n’y a pas
de « petites » catégories d’achat pour l’IA.Toutes seront consi-
dérées de la même manière. Seule compte la disponibilité de
l’expertise qui aura été digitalisée dans les outils basés sur l’IA.

L’overpayment, l’impossibilité d’optimiser tout ou partie de


l’entreprise et le concept même de long tail abandonné à son
propre sort, caractérisent parfaitement ce que l’on pourrait
appeler l’entropie de l’entreprise.
94 Guide pratique de l’intelligence artificielle dans l’entreprise

Il s’agit là de son pire ennemi, une lutte quotidienne. Une


lutte qui nous essouffle. Elle vient principalement de ces 80 %
que nous laissons dériver au gré de nos capacités de traite-
ment. L’IA, capable d’exécuter uniformément les tâches com-
plexes d’optimisation pour un coût marginal, permet de lutter
contre l’entropie et de réaliser d’énormes gains de productivité
jusqu’alors insoupçonnés et insoupçonnables.

LA NECESSAIRE CONVERGENCE
DU DIGITAL ET DE LA DATA

Le digital, par essence, a toujours porté en lui une vision analy-


tique.Tout d’abord, de ses parcours avec les données remontées par
Google Analytics qui ont permis d’améliorer le taux de transfor-
mation, puis avec les données clients qui ont donné la possibilité
d’augmenter les paniers moyens. L’IA s’est donc plus rapidement
que partout immiscée dans le digital, puisque, finalement, toutes
les données étaient présentes et générées au fil de l’eau.
Un constat valable pour tous les sites de e-commerce malgré
une mise en œuvre beaucoup plus compliquée pour les exten-
sions digitales des business classiques, dont la donnée client est
répartie sur un nombre très important et hétérogène de ser-
veurs. Heureusement, le développement de l’IA a demandé un
gros effort de data management, qui a permis de désiloter et
d’agréger les données de toute l’entreprise grâce aux customer
data platforms.

La donnée transforme les parcours clients

La MGEN a entrepris de refondre totalement ses parcours de vente


en ligne et son espace client. La donnée client intervient à tous les
niveaux, à la fois pour proposer une meilleure expérience client
et pour mieux servir les métiers en interne. Ces derniers y voient
désormais un réel apport et non plus une contrainte.
La révolution de l’IA est en marche 95

‘‘ L’intégration de la data dans le digital permet de passer à une


nouvelle étape de la transformation digitale. Celle-ci nécessite
un gros niveau d’expertise car c’est l’apport de nouvelles
technologies adaptées aux enjeux et besoins des métiers qui
change la donne. Pour nos clients, la fluidité des parcours clients
omnicanaux permise par les LLM nous fait entrer aussi dans
nouvelle phase rendant l’expérience plus engageante. ’’
Françoise Ly, directrice du digital, MGEN

La conjonction de l’arrivée de technologies augmentant la


qualité de l’interaction avec les LLM et l’uniformisation de
l’accès aux données va révolutionner le digital en profondeur,
imposant des standards d’interaction encore plus sophistiqués.
Un vrai défi pour les business classiques face aux digital natives
qui ont été très vite et l’ont déjà mis en place.

L’IA EST UN ENABLER


Extraire les informations, comprendre le sens, répondre à une
question, prédire d’après un historique (intégrer l’expérience),
classer, etc., étaient jusqu’alors des tâches uniquement dévolues
à l’humain et que les machines ne savaient pas reproduire. En
mettant à la disposition des systèmes d’information ces nou-
velles capacités de perception, d’apprentissage et de décision,
l’IA donne la possibilité de digitaliser de nouvelles tâches et de
nouveaux process que seul l’humain était jusqu’alors capable
de réaliser. C’est en cela que l’IA est un enabler.
Ce nouvel enabler va intervenir à trois niveaux dans l’entreprise :
1. L’interaction entre l’homme et la machine ;
2. L’augmentation des capacités de l’humain avec la mise à
disposition d’assistants digitaux ;
3. Le déploiement de processus intelligents doués
d’actionnabilité.
96 Guide pratique de l’intelligence artificielle dans l’entreprise

Ce sont ces trois fonctions que nous allons retrouver plus ou


moins combinées entre elles dans l’ensemble des nouvelles
briques qui vont venir compléter nos systèmes d’informa-
tion, nos processus et nos workflows, mais aussi transformer les
métiers.

L’IA ET LES MÉTIERS


Les métiers vont se transformer et jouer un rôle central dans
le déploiement de l’IA dans l’entreprise. Comme à chaque
révolution industrielle, ils vont évoluer vers le haut, vers plus
de valeur ajoutée et devenir moins fastidieux. Aidés de leurs
assistants ou relayés par des systèmes qui prendront en charge
une partie du process, ils vont pouvoir s’attacher au cœur du
problème et créer de la valeur, être plus performants, plus
productifs.
Les métiers vont être au cœur du déploiement de l’IA. Tout
d’abord dans l’émergence des cas d’usage et de leur déploie-
ment. Autant la direction générale et le management peuvent
avoir une vision globale, une volonté de transformer, autant
le métier sait exactement où et comment il peut être aidé et
ce dont il a besoin pour augmenter sa productivité. En effet,
la connaissance de son environnement de travail et sa com-
préhension analytique de son activité vont lui permettre, s’il
est formé un minimum, de devenir ce que nous appellerons
un révélateur. Il jouera ainsi un rôle actif dans cette nouvelle
transformation.
Cette transformation data et IA donne aussi une nouvelle res-
ponsabilité au métier dans le rôle qu’il va jouer vis-à-vis de
la donnée qu’il produit et dont il va avoir la responsabilité de
la qualité. Ce sont ces nouveaux rôles de Data Steward et ces
La révolution de l’IA est en marche 97

concepts de Data-as-a-Product qu’il va falloir intégrer mais aussi,


même si on l’oublie trop souvent, financer.
Cependant, l’IA est d’abord un challenge pour le middle
management.

UN CHALLENGE POUR LES DIRIGEANTS


ET LE MANAGEMENT

Transformer une entreprise classique en une entreprise data


driven, pilotée par le traitement de la donnée, quel qu’en soit le
niveau, est un objectif très ambitieux qui passe par de profonds
changements organisationnels. Ceux-ci doivent d’abord être
portés au plus haut niveau, par les dirigeants et le management.
Réussir une telle transformation demande en premier lieu d’en
avoir intégré les enjeux économiques et stratégiques, mais aussi
les prérequis comme le CDO Office, sa gouvernance, le data
management et le modèle opérationnel de déploiement. Ceci,
afin que les moyens puissent être mis en regard, les bonnes
priorités choisies et, enfin, que les métiers et les porteurs de
projets se sentent soutenus dans cette démarche.
La direction générale, qui prendra le rôle de visionnaire, devra
convaincre le management de jouer son rôle de courroie de
transmission dans le cadre de cette nouvelle transformation.
Elle n’aura pas le choix que d’imposer à l’organisation une
nouvelle fonction en charge de ces profondes transformations :
le Chief Data Officer ou CDO.
Il faudra ensuite accompagner ce changement en dédramati-
sant, en expliquant les tenants et les aboutissants de l’IA, mon-
trer que l’humain reste au centre et maître de son activité. C’est
dans cette perspective que les directions générales doivent
prendre conscience des enjeux et se préparer à déployer l’IA,
98 Guide pratique de l’intelligence artificielle dans l’entreprise

tout en formant leurs salariés à ses grands principes pour qu’ils


adhèrent au mieux à cette nouvelle collaboration entre l’hu-
main et la machine.

SOUS QUELLE FORME, L’IA DANS L’ENTREPRISE ?

Après avoir été bercés pendant de longues années par l’image


anthropomorphique de l’intelligence artificielle, on peut à
juste titre se poser la question de la forme qu’elle va revêtir
dans l’entreprise.

L’IA est polymorphe

Dans tous les cas, au cœur de l’intelligence artificielle se


trouvent toujours les mêmes algorithmes dont nous avons vu
les grands principes au chapitre 1 et qui constituent l’intelli-
gence de la machine que l’on nomme aussi « smart machine ».
C’est dans la fonction qu’elle va occuper ou l’interactivité
qu’elle devra avoir avec l’homme que sa forme va changer.
Une smart machine ou « machine intelligente » qui anime un
robot est appelée « robot » même si elle est intelligente. La par-
tie IA est transparente, intégrée au robot. Cette smart machine,
si elle ne doit plus donner directement les ordres au robot mais
à un opérateur humain du robot, sous la forme de recomman-
dations, s’appelle un « assistant digital intelligent » de l’opé-
rateur et prend la forme d’une application interactive. De la
même manière, l’automatisation d’une tâche administrative,
par exemple, peut être considérée comme un assistant digital
intelligent si elle permet de renseigner un opérateur. Elle peut
également être simplement une smart machine qui automatise
un process de manière transparente et qui est intégrée à un
système d’information.
La révolution de l’IA est en marche 99

L’intelligence artificielle, le machine learning, le deep learning et


l’IA générative sous toutes ses formes sont donc polymorphes,
dépendants de l’interaction ou pas que l’homme souhaite avoir
avec la smart machine. Elle sera parfois complètement transpa-
rente et invisible, intégrée entre le back-office et le front-office,
ou présentée comme une nouvelle application interactive dans
l’environnement de travail ou la relation client.

L’assistant digital permet de faire du coworking


Au-delà d’automatiser certaines tâches, l’intelligence artificielle
est un merveilleux assistant digital intelligent doté de facul-
tés de recommandation et de prédiction qui permettront à
l’humain de maîtriser un environnement dont la complexité
le dépasse complètement. Cette notion d’« augmentation » est
apparue récemment pour illustrer et aider à l’acceptation de la
puissance de ces nouveaux outils. Il convient de les dédramati-
ser et de les replacer dans le contexte des systèmes d’informa-
tion, en se rappelant que, depuis leur apparition, ils sont là pour
nous aider, nous permettre d’aller plus vite et être plus perfor-
mants. L’IA n’est qu’une nouvelle technologie avec une puis-
sance d’un nouvel ordre de magnitude qui va nous mener plus
loin dans l’assistance que ces systèmes peuvent nous apporter.

Améliorer les conditions de travail


des téléopérateurs avec l’IA

‘‘ La déclaration du sinistre est le moment critique de la relation


avec nos clients. Dans nos call centers, nous allons déployer
de l’assistance par l’intelligence artificielle pour simplifier le
travail de nos opérateurs qui ont des métiers aux exigences
opérationnelles très rudes. Ils doivent traiter en temps réel des
dossiers complexes avec la nécessité d’avoir de la disponibilité
pour le client qui potentiellement se trouve dans une situation
difficile à ce moment-là. C’est d’abord de la satisfaction client
mais aussi potentiellement des gains de productivité. ’’
Guillemette Picard,ex-Head of Big Data and IA, Allianz France
100 Guide pratique de l’intelligence artificielle dans l’entreprise

Pour résumer, nous retrouverons les smart machines dans l’en-


treprise sous des formes différentes suivant leurs usages : des
assistants digitaux intelligents qui interagiront avec l’humain,
des automates appelés « robots logiciels » ou « bots » qui seront,
eux, totalement intégrés et transparents.

DU PREDICTIF AU PRESCRIPTIF

L’un des principaux reproches faits aux prédictions du machine


learning et du deep learning est que l’on ne puisse pas com-
prendre comment la décision a été prise. C’est la fameuse
« boîte noire » ou black box, nommée ainsi à cause de son
manque de transparence. Cette opacité est due, en grande par-
tie, à l’historique du développement de l’IA, mais elle n’est en
rien une fatalité. La traçabilité et le devoir d’explication sont
une nécessité pour que certains déploiements soient conformes
à la réglementation.

En effet, les algorithmes utilisés dans le machine learning sortent


tout droit des laboratoires de recherche académique où seul
le résultat comptait jusque-là. Pendant de longues années,
la bataille a fait rage et engagé les plus gros laboratoires du
monde dans des concours appelés Kaggle pour gagner toujours
quelques pourcentages de précision.Vous pensez bien que, dans
ces conditions, expliquer le pourquoi des résultats est le cadet
de leurs soucis.

En utilisant les librairies issues de l’univers académique, repris


par les GAFAM qui n’ont pas plus réfléchi à la chose, l’indus-
trie a hérité de ce biais. Les prédictions du machine learning et
du deep learning ne sont pas expliquées. Il n’existe pas de traça-
bilité du raisonnement comme on pouvait le trouver au temps
des systèmes experts.
La révolution de l’IA est en marche 101

Pour autant, cet effet boîte noire n’est pas une fatalité, comme
pouvait le laisser croire il y a encore quelques mois Yann
Le Cun, le pape français du deep learning et lauréat du prix
Turing 2019. En analysant l’action des différents paramètres, il
est possible de mettre en exergue ceux qui ont le plus compté,
ainsi que leur sensibilité à la décision. Cette fonctionnalité
viendra de la demande du marché, lui-même contraint par le
cadre réglementaire.

L’explicabilité est une nécessité dans l’entreprise

‘‘ Quel que soit le cas d’usage, les décisions qui sortent


des algorithmes doivent pouvoir être comprises par les
professionnels qui les utilisent. Dans le cas contraire, la mauvaise
compréhension du fondement de la décision ne leur permettra
pas de la valider et d’engager leur responsabilité. Finalement,
ils n’adhéreront pas à ces nouveaux outils. L’explicabilité est
une nouvelle science. ’’
Nicolas Meric, CEO, DreamQuark

Dans l’entreprise, l’explicabilité est donc une nécessité pour


que la machine puisse s’intégrer dans le process de décision au
côté de l’humain. Il en va de même pour les décisions qu’elle
prendra pour les clients de l’entreprise. En cela, l’article 22 du
RGPD1 est très clair : « La personne concernée a le droit de ne
pas faire l’objet d’une décision fondée exclusivement sur un traitement
automatisé, y compris le profilage, produisant des effets juridiques la
concernant ou l’affectant de manière significative de façon similaire. »
Le régulateur ne s’est donc pas contenté de si peu de transpa-
rence et impose un droit à l’explicabilité que les entreprises
devront mettre en œuvre pour répondre aux demandes de
leurs clients.

1. www.cnil.fr/fr/reglement -europeen-protection-donnees/
chapitre3#Article22
102 Guide pratique de l’intelligence artificielle dans l’entreprise

La transparence des recommandations au cœur


des préoccupations des utilisateurs
DreamQuark propose une plateforme appelée Brain, qui permet
au métier de construire sa propre application basée sur du deep
learning. Ce workflow couvre toutes les étapes du cycle de vie d’une
application, du travail sur ses données et ses algorithmes, à travers
une couche d’abstraction qui automatise jusqu’à la mise en forme
du résultat et son explicabilité. Le métier développe et produit
un package avec Brain, que la DSI réintègre dans ses systèmes.
Les algorithmes proposés par DreamQuark sont reconnus pour leur
efficacité à déceler les comportements avec une granularité plus
fine qu’un système conventionnel. GAN Prévoyance se base sur les
scores d’appétence générés par la solution, afin d’identifier plus
finement les besoins en prévoyance, retraite ou épargne et ainsi,
faciliter les démarches des conseillers et optimiser ses campagnes.
En plus de la performance de la solution, la filiale de Groupama s’est
intéressée à la transparence offerte par la solution DreamQuark.
Pour chaque client, une explication des critères de score est don-
née par l’application, permettant aux conseillers de clientèle de
comprendre les motifs qui ont mené à chacun des scores.

‘‘ À travers sa stratégie UnisVers 2020, GAN Prévoyance a


pour ambition d’être un précurseur dans la transformation
digitale des métiers de l’assurance. Cela passe, entre autres,
par l’adoption des nouvelles technologies et en particulier
l’application de l’intelligence artificielle à diverses problématiques
métiers. DreamQuark a été identifié comme un partenaire
de choix, grâce à ses performances et à la transparence
des recommandations de l’algorithme. ’’
Benoît Douxami, ancien directeur général adjoint, GAN Prévoyance

Il faut donc, dès aujourd’hui, intégrer ce devoir de traçabi-


lité et d’explicabilité de la décision dans les projets pour qu’ils
soient conformes à la réglementation quand ils ont trait à des
décisions qui impactent les clients. Ils doivent également être
transparents lorsqu’ils doivent être validés et engager la respon-
sabilité d’une hiérarchie.
La sortie de ChatGPT a été, en cela, une vraie révolution, avec
100 millions d’utilisateurs en quelques mois, soit l’adoption d’un
La révolution de l’IA est en marche 103

service web la plus rapide de tous les temps. Et, pour cause, nous
avions accès pour la première fois à une forme de service capable
de nous délivrer un résultat immédiat, alors que nous étions
habitués à analyser les liens fournis par les moteurs de recherche.
ChatGPT a bouleversé les paradigmes
des moteurs de recherche

Liste de liens URL


L’humain doit faire sa propre analyse

Propositions de solutions
Liste pertinente et argumentée de restaurants répondant aux critères demandés
104 Guide pratique de l’intelligence artificielle dans l’entreprise

Cette capacité à fournir un résultat argumenté plutôt qu’une


liste de liens à analyser est en soit une révolution. Elle marque
une étape fondamentale dans l’évolution de l’IA : le passage du
prédictif au prescriptif.

Évolution des analytics


Valeur
3

2 Prescriptif
Définit les actions futures
Prédictif i.e. « Que faire après »
1
Dire ce qui est Sur la base d’une
analyse des données
Descriptif susceptible
actuelles, de plans,
de se produire
Basé sur des données de buts et d’objectifs
Basé sur des données
en temps réel prédéfinis pour l’avenir
historiques et dans
Précis et facile Algorithmes avancés
l’hypothèse d’un
d’utilisation pour pour tester les résultats
plan/modèle statique
du management potentiels de chaque
Aide à automatiser
d’opération décision et recomman-
les business decisions
Facile à visualiser der le meilleur plan
à l’aide d’algorithmes
d’action

Complexité

Évolution des analytics

C’est que nous appelons dans le référentiel Data Analytics de


Gartner, le prescriptive analytics. Le machine learning, dans sa pre-
mière version, s’était arrêté à la prédiction sans vraiment don-
ner d’arguments. Les LLM au contraire ont cette capacité et
nous font rentrer dans l’ère du prescriptive analytics.

En ce sens, l’IA générative et les LLM constituent un vrai


progrès. Leurs capacités de raisonnement permettent à tout
moment de disposer d’un résultat argumenté. Un progrès
extraordinaire au moins pour la partie NLP. Un gros défi reste
cependant à venir pour le reste de l’IA. Si aujourd’hui nous
sommes ébahis par le résultat, demain nous aurons besoin de
le justifier.
La révolution de l’IA est en marche 105

UN CHALLENGE A LA PORTEE DES ETI ET DES PME

Avant d’être une opportunité, l’IA est un vrai challenge pour


les ETI et les PME comme l’est déjà, même si nous ne nous en
rendons pas compte, l’implantation de leurs systèmes d’infor-
mation. Des solutions existent qui vont venir immédiatement
leur donner un nouveau souffle.
En venant radicalement changer les structures de coûts opé-
rationnels, l’IA va permettre à ces acteurs essentiels du tissu
industriel de baisser structurellement le coût du travail, de
retrouver une nouvelle phase de croissance et de générer de
nouveaux revenus. En effet, comme leurs grandes sœurs, elles
pourront rapidement mettre en œuvre des solutions qui vien-
dront augmenter la performance de leur core business, puis allé-
ger leurs coûts fixes liés à la gestion de l’entreprise, dès que
l’IA sera intégrée nativement dans les suites logicielles qu’elles
utilisent au jour le jour. Copilot 365 en est le meilleur exemple
même si ses coûts sont, pour l’instant, prohibitifs pour ce type
d’entreprise.
Bien que l’arrivée des LLM soit un vrai axe de démocrati-
sation de l’IA, la solution viendra de l’adoption massive par
les ETI et les PME de solutions en SaaS (Sofware as a Service),
hébergées dans le cloud. En plus d’être simples à mettre en
œuvre, car elles demandent de moins en moins de configura-
tion, leur ROI est positif quelle que soit la taille de la société,
facilitant ainsi leur adoption. Les grands noms de l’industrie du
logiciel déploient cette stratégie, à l’image de Microsoft avec
Copilot 365 ou Salesforce avec Einstein et EinsteinGPT.
La déferlante d’investissement dans l’IA, et plus particulière-
ment l’IA générative, va générer de nouveaux services en ligne
qui viendront démocratiser toutes les applications maintenant
si faciles à mettre en œuvre. Mendable.ai, par exemple, permet
106 Guide pratique de l’intelligence artificielle dans l’entreprise

ainsi, en quelques clics, de créer un chatbot sur ses bases de


données, ses documents, sa base de clients ou ses produits.
ChatPDF.com donne la possibilité, avec un simple copier-col-
ler, de discuter avec un PDF, une facture, un contrat, une
réglementation… La démocratisation de l’IA est en marche et
permettra aux PME de s’équiper, enfin.
Reste les développements sur mesure liés au core business de
ces ETI et PME qui seront eux plus compliqués à financer, et
sur lesquels le ROI devra être clairement établi pour emporter
l’adhésion du dirigeant. Ces coûts de développement spéci-
fiques vont rapidement baisser avec l’apparition de plateformes,
notamment celles basées sur AutoML, qui facilitent et réduisent
les coûts de Data Science, mettant ces outils à la portée de tous,
y compris des PME.
Il n’en reste pas moins qu’il faut aider ces entreprises et leurs
dirigeants, habitués à investir avec parcimonie, les former à ce
nouveau paradigme et à cette utilisation des mathématiques
dans la vie de tous les jours. Il s’agit de leur donner confiance
dans ces nouveaux outils et leurs potentiels, dans l’investisse-
ment qu’ils auront à faire et dans leur ROI. Et l’éducation,
c’est l’État. Quoi qu’on en dise, il faut accélérer pour ne pas
tout perdre, après avoir regardé bêtement la production partir
à l’étranger. L’État devra s’investir à travers une agence ou un
plan industriel comme il l’a fait dans d’autres ruptures qu’il a
su surmonter, comme la crise énergétique. L’ADIA, l’Agence
pour le développement de l’intelligence artificielle, que j’ap-
pelle de tous mes vœux1, permettra d’intervenir au bon niveau
dans tous les domaines. En effet, même si des générations

1. Stéphane Roder, « Pour une Agence du développement de


l’intelligence artificielle », Fondation Jean-Jaurès, mai 2018.
www.jean-jaures.org/publication/pour -une-agence-natio-
nale-de-developpement-de-lintelligence-artificielle/
La révolution de l’IA est en marche 107

entières ont cru dans cette vision libérale, la main invisible de


notre cher Adam Smith ne saura pas aller assez vite, et nous ne
pouvons pas attendre dix ans que nos PME s’équipent comme
pour le Web.
L’IA est donc dès aujourd’hui à leur portée. Elles pourront
s’inspirer de la méthodologie donnée dans ce livre pour trou-
ver de nouveaux gisements de progression de leur efficacité
opérationnelle, mais aussi d’augmentation et de génération de
revenus, en adaptant l’IA à leur taille.

UNE OPPORTUNITE POUR LES ENTREPRISES


L’introduction de l’IA dans nos organisations préfigure l’in-
dustrie 4.0, l’entreprise numérique de demain, entièrement
connectée au-dedans comme au dehors, capable d’interagir
avec son environnement, ses fournisseurs et ses clients. Les
entreprises ont une chance unique de se donner un second
souffle et une nouvelle croissance avec l’arrivée de l’intelli-
gence artificielle. Le potentiel de transformation de l’IA va
changer leur physionomie, leurs structures de coûts et de reve-
nus, mais aussi leurs collaborateurs qui vont évoluer dans des
univers plus analytiques, moins fastidieux et entièrement dédiés
à la création de valeur.

On ne reconnaîtra pas l’assurance


dans quelques années

‘‘ L’assurance va complètement se transformer avec la mise en


production de l’IA dans nos process et dans les interactions avec
nos clients. De la personnalisation des offres à l’amélioration des
prises en charge, l’IA va simplifier la vie de nos collaborateurs et
nous rendre plus compétitifs. ’’
Guillemette Picard, ex-Head of Big Data and IA, Allianz France
108 Guide pratique de l’intelligence artificielle dans l’entreprise

Nous allons dans le chapitre suivant parcourir les différents


métiers pour illustrer par quelques exemples les opportunités
et cas d’usage qui s’offrent à nous dès aujourd’hui. Puis nous
nous doterons d’une méthodologie de déploiement à travers le
schéma directeur Data IA.
Chapitre 3

L’IA transforme
les métiers de l’entreprise
L’IA transforme les métiers de l’entreprise 111

Si l’entreprise se transforme avec l’IA, les métiers aussi. À cha-


cune des étapes de l’industrialisation, l’homme s’est libéré pro-
gressivement des tâches ingrates qu’il effectuait pour les confier
à la machine. Il en va de même pour l’IA, à qui il va confier
des tâches intellectuelles simples mais répétitives, ou simples
mais demandant une grande puissance de traitement dont il
ne dispose pas. On parle d’« homme augmenté », mais ce serait
sublimer l’IA plus qu’il n’en faut. En effet, toutes les étapes de
l’industrialisation ont fait de nous des « hommes augmentés ».

L’IA va venir assister les métiers


dans leur capacité à prendre des décisions

‘‘ Le métier de l’expert, la décision à dire d’expert a évolué.


Il y a vingt ans, ces métiers étaient en mesure d’intégrer
les informations de leur environnement. Ce n’est plus vrai
aujourd’hui du fait de la quantité d’informations disponibles,
la célérité avec laquelle elles évoluent, la rapidité avec laquelle
ils doivent délivrer dans un monde où tout s’accélère. L’expert
doit être aidé, assisté dans sa prise de décision avec des outils
à la hauteur du changement que son métier a subi. C’est le rôle
de l’intelligence artificielle. ’’
Pierre-Étienne Bardin, Chief Data Officer, La Poste

Les capacités de recommandation, d’optimisation et d’auto-


matisation de l’IA vont venir s’insérer dans tous les processus
et workflows de l’entreprise pour améliorer la performance de
chaque métier. Les métiers vont se transformer, intégrer ces
nouveaux workflows rendus possibles par ce fantastique enabler
qu’est l’IA et les projeter dans une nouvelle dimension d’excel-
lence au service de la compétitivité de l’entreprise.

À travers l’analyse de quelques métiers et process de l’entre-


prise, ce chapitre donnera une vision concrète de quelques cas
d’usages de l’IA, de leur performance et de l’application des
grandes familles d’algorithmes vues au chapitre 1. Cette vision
112 Guide pratique de l’intelligence artificielle dans l’entreprise

d’ensemble permettra à chacun de se projeter dans son propre


environnement et de percevoir les ordres de grandeur des
potentiels gains de productivité réalisables grâce à des solutions
déjà sur le marché. Puis nous nous attaquerons aux développe-
ments spécifiques liés au core business de l’entreprise.

FINANCE
En donnant une meilleure maîtrise du cash et du risque, l’IA va
permettre aux collaborateurs de la direction financière d’être
plus présents dans l’entreprise et de renforcer leurs positions.
Un grand nombre de tâches effectuées par ces métiers est
encore manuel, chronophage et répétitif. La direction financière
subit, elle aussi, la dure loi de l’entropie et de la long tail1. Elle
fait de son mieux pour limiter le risque, gérer les plus grandes
masses et donner la meilleure vision possible aux dirigeants.
L’introduction de l’IA dans ces métiers va changer la donne.
L’apparition de la BI2 a été une première étape, apportant une
vision plus analytique de la santé financière de l’entreprise, lui
permettant de faire le lien entre sa vision comptable et la réa-
lité de chaque métier. Aujourd’hui, l’IA vient augmenter cette
performance en réalisant des prévisions plus justes, notamment
sur la trésorerie, en assistant la direction financière sur la partie
recouvrement, ou encore en mettant à sa disposition des assis-
tants digitaux d’optimisation de chacune de ses fonctions. Ces
soutiens technologiques vont renforcer l’ensemble des missions
clés de la direction financière, tout en lui donnant une plus
grande capacité d’exécution.
Parcourons ensemble quelques exemples significatifs.

1. Voir au chapitre 2, « L’IA, l’entropie et la long tail ».


2. Voir au chapitre 1, « La business intelligence : première étape de l’IA ».
L’IA transforme les métiers de l’entreprise 113

Comptabilité
La partie saisie va être la plus impactée par l’arrivée de l’IA.
Finis l’externalisation, le vidéo-codage, les templates, l’OCR et
autres process cauchemardesques. Des solutions déjà utilisées
par certains cabinets comptables vont faire leur apparition très
prochainement dans l’entreprise. Elles permettront de traiter
la facture en amont, quel que soit son format, et de l’intégrer
immédiatement aux workflows de la direction financière, grâce
à la capacité des LLM et de certains modèles spécialisés dans la
lecture de ces documents complexes.
La comptabilité va se fluidifier, se simplifier pour permettre
aux équipes de se concentrer sur des tâches et des projets à plus
forte valeur ajoutée. Grâce à cette transformation, elles vont
ainsi pouvoir passer d’un métier comportant 50 % de pure sai-
sie à un métier d’optimisation à plein temps.

Prévention de la fraude
Avec le nombre croissant d’escroqueries, de vols de données,
de demandes de remboursement frauduleuses dans les orga-
nisations, les entreprises sont obligées de mettre en place des
process de contrôles lourds et complexes. En utilisant l’IA et
le machine learning pour analyser les demandes et les comparer
avec le comportement classique des comptes de la société, il est
possible de détecter instantanément les potentielles transactions
frauduleuses. Cette analyse se base sur du machine learning qui
aura intégré une vision statistique de l’historique des comptes
et des transactions, devenant ainsi capable de détecter une tran-
saction qui sort de « l’ordinaire ». Toute activité inhabituelle
qui va à l’encontre des politiques de l’entreprise ou de son
comportement habituel peut être portée à la connaissance de
la direction, tandis que le paiement peut être retardé ou stoppé.
114 Guide pratique de l’intelligence artificielle dans l’entreprise

Cette capacité d’analyse va rendre de nombreux services et


peut être utilisée dans de nombreux cas d’usage. L’exploration
du contenu des mails, de leurs expéditeurs et de leurs pièces
jointes par des LLM spécialisés va permettre, notamment, de
réduire drastiquement les risques de fishing auxquels les entre-
prises sont de plus en plus exposées.
La recherche de fraude dans les services financiers, qui faisait
auparavant partie du travail de chaque collaborateur sans tou-
tefois pouvoir être réalisée exhaustivement faute de temps et
de moyens va, elle aussi, profiter de l’arrivée de l’IA. Grâce à
elle, la détection de la fraude est intégrée à la manière d’une
fonction de base dans les workflows de la direction financière.
Elle vient ainsi suppléer à la vigilance humaine pour un risque
mieux maîtrisé.

Mitigation du risque
Les agents pourvus d’outils dopés aux LLM sont capables de
capter des informations en temps réel et d’en comprendre la
portée. Ils peuvent faire le lien avec une activité ou une matière
première et en déterminer le niveau de criticité. Ainsi, comme
nous pouvons le faire avec de l’IoT dans une usine ou une
chaîne de production, il sera possible d’aller chercher de l’in-
formation quantitative mais aussi qualitative. Ces modèles sont
capables de la classifier, pour l’intégrer dans des modèles de
prévision et de mitigation du risque. De la data interne à la data
publique sur Internet en passant par l’open data, les agents et
leurs capacités de recherche et d’interprétation vont constituer
une vraie révolution pour la gestion du risque.
L’IA transforme les métiers de l’entreprise 115

Trésorerie et recouvrement
Cash is king ! L’optimisation du cash va devenir l’enjeu majeur
de l’IA pour la direction financière, compte tenu de son ROI
immédiat.
La gestion de la trésorerie va se voir dotée d’assistants digitaux
intelligents permettant d’optimiser au mieux le cash, y compris
sur la partie recouvrement.

L’efficacité des actions de relance améliore


le taux de recouvrement d’au minimum 57 %

La réduction des retards de paiement est sans aucun doute l’un


des principaux enjeux des directions financières. Le DSO (Day
Sales Outstanding), qui correspond au nombre de jours de chiffre
d’affaires non encore encaissés, en est l’indicateur clé. Celui-ci
est à la fois tributaire des conditions de règlement négociées
avec le client et du retard éventuellement constaté par rapport
à ses engagements. Dans ce domaine, les entreprises subissent
en général beaucoup plus qu’elles ne maîtrisent : les conditions
financières sont justifiées par les clients sur la base de conditions
générales d’achat prétendument identiques pour tous leurs four-
nisseurs, et les retards de paiement donnent parfois lieu à des
actions correctives, mais rarement préventives.
L’intelligence artificielle détecte toute nouvelle information sur
un client pour proposer un ajustement du processus de gestion
de son compte. L’entreprise a enfin l’assurance d’actionner la
stratégie de relance la plus adaptée à ses enjeux.
Grâce à des algorithmes entraînés sur les résultats de millions
d’actions de recouvrement, il est possible de prescrire les meil-
leurs scénarios de relance en tenant compte des comportements
de paiement passés et des ressources humaines effectivement
disponibles pour les exécuter ou en assurer le suivi.
Toutes ces techniques conduisent à changer en profondeur les
processus de recouvrement au sein des directions financières,
en automatisant les tâches à faible valeur ajoutée, afin que les
équipes puissent se consacrer à ce qu’elles savent le mieux faire,
à savoir négocier de vive voix avec les clients.
116 Guide pratique de l’intelligence artificielle dans l’entreprise

‘‘ Avec l’adoption des technologies d’intelligence artificielle,


les entreprises peuvent désormais aller au-delà et bénéficier
de la puissance des algorithmes pour déclencher, selon le client,
la meilleure action de relance au meilleur moment. Aujourd’hui,
nous constatons que les sociétés s’appuyant sur l’intelligence
artificielle augmentent de 50 à 70 % l’efficacité des actions
de relance réalisées par leurs équipes de recouvrement. ’’
Olivier Novasque, président, Sidetrade

ACHAT
La fonction achat va, quant à elle, enfin connaître la notion
d’exhaustivité. Limitée par ses effectifs et la charge de travail
quasi manuel, elle va pouvoir imprimer de façon uniforme sa
stratégie sur toute l’organisation.
Cette fonction recèle d’importants gisements de gain de pro-
ductivité. Après avoir intégré qu’il lui fallait avoir une vision
plus analytique de son activité, grâce à l’analyse de ses dépenses
par catégorie d’achat avec le spend analysis, l’acheteur va se
doter, avec l’IA, d’assistants digitaux intelligents qui vont lui
permettre d’obtenir une vision exhaustive, analytique, de toute
son activité et de s’affranchir des tâches fastidieuses.
C’est ainsi tout le process achat qui va bénéficier de l’apport
de l’IA, du sourcing à la contractualisation en passant par la
génération et la synthèse quasi automatique d’appels d’offre.
L’intégration à la décision de données pertinentes externes,
la classification automatique, la digitalisation d’expertises, les
recommandations basées sur l’historique, l’intégration impli-
cite de la stratégie de l’entreprise… sont autant de fonction-
nalités permises par l’IA et mises à la disposition des acheteurs.
L’IA transforme les métiers de l’entreprise 117

Le cognitive sourcing discovery réduit de 95 %


le temps passé à chercher des fournisseurs

Le sourcing discovery est la partie amont du process achat. Il intègre


la recherche de nouveaux fournisseurs et leur évaluation, grâce à
des informations de marché (market intelligence).
La fonction discovery du sourcing reste totalement à la charge de
l’acheteur dans un environnement encore très manuel, qui fait
intervenir de nombreux outils, fragmentant la tâche et augmen-
tant sa difficulté. Cette recherche se fait généralement dans de
grandes bases de données intégrées dans les logiciels dédiés
aux achats, appelés aussi « solutions de procurement ». C’est le
cas, par exemple, du précurseur SAP Ariba Network, qui laisse
le soin à l’acheteur de trier les résultats et de réaliser sa propre
évaluation financière des sociétés.
L’IA et la compréhension naturelle du langage (NLU pour Natural
Language Understanding) permettent de dénicher des informations
pertinentes et de les intégrer au processus de recommandation de
nouveaux fournisseurs. Elles sont également utiles pour simplifier
la relation à l’outil en autorisant la formulation de demandes com-
plexes. Les métiers, clients de la direction achats, peuvent ainsi
exprimer directement leur besoin, lancer la recherche de fournis-
seurs en fonction de leurs critères et de la politique d’achats de la
société, que l’outil aura intégrée avec des données connexes d’aide
à la décision comme les informations de market intelligence des
fournisseurs concernés. À aucune étape de ce processus l’acheteur
n’aura besoin d’intervenir, sauf s’il souhaite pouvoir valider, dans
le cadre d’un process, que la solution a bien été mise en place.

Air France – Silex


La société Silex fournit en SaaS une solution de cognitive sourcing.
Son utilisation ne nécessite que le chargement du référentiel des
fournisseurs existants. Les résultats des recherches peuvent être
transmis si nécessaire vers les suites de procurement du marché pour
s’assurer de la cohérence des données tout au long du process d’achat.

‘‘ Les acheteurs du groupe Air France s’appuient sur la technologie


Silex pour les aider à identifier les bons prestataires et fournisseurs
sur des segments d’achats aussi variés que le marketing,
les services industriels ou la formation. Avec des scores
de satisfaction supérieurs à 90 %, ils ont ainsi réduit de 95 %
le temps qu’ils octroyaient à la recherche de fournisseurs.’’
Magali Viala-Breger, directrice des Achats, Air France
118 Guide pratique de l’intelligence artificielle dans l’entreprise

Ces nouveaux assistants digitaux intelligents, non contents de


faire gagner du temps, vont aussi améliorer la performance en
permettant aux acheteurs de se concentrer sur leur cœur de
métier, la négociation. Une compétence que l’IA ne maîtrise
pas encore.

JURIDIQUE
La LegalTech, dopée par l’arrivée des LLM, va elle aussi faire
une entrée en force dans le métier de juriste d’entreprise
délaissé depuis trop longtemps par le digital et s’appuyant seu-
lement sur quelques bases de données.

Le support juridique
Avec 15 % de la charge dédiés au support, ce sont tout d’abord
les chatbots qui vont venir alléger le quotidien des services juri-
diques. La première génération de chatbot juridique était tota-
lement inutilisée, puisqu’il fallait presque connaître la réponse
pour la retrouver dans l’arborescence. L’arrivée des chatbots
de seconde génération, boostés aux LLM, a permis d’obtenir
une meilleure interaction et, surtout, une meilleure prise en
compte de la question posée, ainsi qu’une réponse argumentée,
voire d’engager une conversation pour obtenir les recomman-
dations les plus adaptées. Ces chatbots sont aussi en mesure de
renvoyer la question vers un expert juridique lorsqu’ils sont
mis en défaut, créant ainsi un niveau 2 du support juridique.

Les contrats
Les directions juridiques ont recours à de nouveaux outils pour
accélérer leur processus de négociation des contrats lors de
L’IA transforme les métiers de l’entreprise 119

l’entrée en relation. Des assistants digitaux intelligents comme


LawGeex réalisent ainsi l’analyse, la révision et la production des
contrats. Au travers de l’exploitation des bases de données de
chaque entreprise, ces outils permettent d’intégrer directement
aux contrats les clauses juridiques les plus pertinentes, selon
la qualité de la contrepartie et le risque associé. Ces solutions
dans lesquelles les cabinets d’avocats et les services juridiques
auront investi compte tenu du gain de productivité généré par
l’IA vont s’étendre tout le long de la chaîne juridique opéra-
tionnelle, en intégrant des fonctionnalités pratiquement à coût
marginal pour donner naissance à des suites métiers dédiées au
juridique comme il en existe pour les achats et les RH.

Bien que les LLM soient d’un apport non négligeable, y com-
pris sur des fonctions d’ingénierie juridique que nous n’au-
rions jamais pu soupçonner, ils ne permettront pas de tout faire.
En effet, la négociation de contrats complexes et la prise en
compte de tous les leviers resteront un art dévolu à l’humain
pour longtemps encore.

Le contentieux

Les solutions dites de « justice prédictive » proposent des outils


intégrant de l’IA, capables d’analyser les décisions de justice
rendues publiques grâce à l’open data (loi Lemaire 2015). Ils
sont ainsi capables d’évaluer les risques judiciaires d’un cas de
contentieux spécifique, que cela porte sur la potentialité de
gains ou de pertes, aussi bien que sur le montant moyen de
l’indemnisation. Les directions juridiques peuvent s’appuyer
sur ces analyses pour déterminer la meilleure stratégie à adop-
ter concernant leurs dossiers de contentieux, afin de prendre la
bonne décision : transiger ou poursuivre devant les tribunaux
compétents.
120 Guide pratique de l’intelligence artificielle dans l’entreprise

La déjudiciarisation permet de faire baisser


les frais juridiques de 12 %

Predictice propose une solution d’analyse des décisions de justice.


En s’appuyant sur sa capacité à traiter et à analyser les 5,2 millions
de décisions annuelles rendues par les tribunaux français, elle
en délivre une vision analytique, remonte celles qui concernent
un sujet précis, délivre les arguments les plus pertinents ou, au
contraire, ceux ayant servi à récuser une demande en fonction
du juge. Enfin, Predictice analyse le risque de certaines clauses
de contrats.

Les outils de justice prédictive permettent de rationaliser la prise


de décision, en évaluant notamment la « difficulté » statistique
de régler un contentieux : vaut-il mieux abandonner, trouver un
accord, s’associer les services d’un avocat ou non ? Une utilisation
efficace de ces outils va permettre d’établir des profils de risque
selon le secteur d’activité, l’entreprise, la convention collective
concernée et les autres caractéristiques du litige, aidant ainsi la
direction juridique à prendre des décisions stratégiques et à éviter
des coûts superflus.

Grâce à l’alliance de l’open data et de l’IA, Predictice permet aux


juristes d’abandonner les tâches fastidieuses pour devenir de
vrais stratèges, de provisionner si besoin et, enfin, d’optimiser
leur stratégie contentieuse. Au-delà de toute l’automatisation
apportée, c’est, pour la première fois, le risque de la société qui
va être presque maîtrisé.

‘‘ Un des cas d’usage courant de Predictice est


celui de l’inexécution contractuelle de la part d’un
de nos cocontractants. Cette hypothèse amène la question
suivante : faut-il procéder à une résiliation anticipée du contrat
ou initier une transaction ?
Grâce aux informations chiffrées extraites de Predictice,
j’ai pu obtenir une estimation du montant moyen d’indemnité
accordé par le juge à titre d’indemnité de rupture anticipée,
et cela m’a aidé à encourager le règlement amiable du
différend. En effet, négocier avec des données chiffrées
permet véritablement de donner du poids à son argumentaire
et de rationaliser la prise de décision. ’’
Alexandre Morey, ancien directeur juridique, SNCF Transilien
L’IA transforme les métiers de l’entreprise 121

Cette partie doit être traitée avec la plus grande prudence car
toutes les IA ne se ressemblent pas et n’ont pas la même valeur.
Les solutions comme ChatGPT ou à base de LLM sont entraî-
nées sur des datasets qui peuvent ne pas être conformes avec le
droit français et comporter des biais. Il faudra absolument se
tourner vers des services spécialisés pour s’assurer que la ques-
tion n’est pas traitée avec un droit inapproprié. Au même titre
que Bloomberg a sorti BloombergGPT pour la finance, il faut
espérer qu’un acteur du juridique ait les reins suffisamment
solides pour financer un LLM spécialisé dans le droit et ce,
pour chaque pays. Un marché peut-être trop fragmenté pour
être rentable au vu du coût du pré-entraînement d’un LLM.
Souhaitons que ces investissements soient à la portée des édi-
teurs en devenir des futures suites logicielles juridiques.

La conformité réglementaire
Les obligations de conformité réglementaire (compliance) sont,
elles aussi, extrêmement consommatrices de temps pour les
services juridiques, ainsi que pour certains secteurs (santé,
nucléaire…). Encadrés par une réglementation toujours plus
stricte, les organes de contrôle des risques, de validation de la
conformité juridique et réglementaire sont désormais un pas-
sage obligé pour de nombreuses industries.

Faire passer l’analyse d’un prospectus de fonds


d’investissement, consistant en la détection
et l’implémentation des règles d’investissement,
de 12 jours à 30 secondes

La solution Innova de la société Fortia permet d’automatiser et


de digitaliser l’ensemble des processus métier du département
conformité. L’utilisation d’algorithmes de machine et de deep
learning permet de respecter les exigences croissantes dans ce
domaine et de gérer la hausse importante des volumes de données,
122 Guide pratique de l’intelligence artificielle dans l’entreprise

à laquelle font face les banques dépositaires comme BNP Paribas


Securities Services.

La technologie que propose Fortia est basée sur des applica-


tions NLP (Natural Language Processing), destinées à l’extrac-
tion d’informations d’un texte écrit. Une fois réalisée, d’autres
méthodes d’intelligence artificielle sont appliquées, afin de valider
ces informations.

‘‘ La solution Innova de Fortia s’attaque à deux défis bien réels


pour les sociétés des services financiers et les investisseurs
institutionnels – la croissance des exigences réglementaires
et du volume des données – en mettant en œuvre de nouvelles
technologies de façon intelligente et innovante. ’’
Jean Devambez, ancien responsable mondial des
solutions produits et clients, Asset and Fund Services,
BNP Paribas Securities Services

Tout le réglementaire, quel que soit le secteur d’activité, va gagner


en productivité avec l’arrivée massive de l’intelligence artificielle.
Tout d’abord, dans sa capacité à retrouver des documents régle-
mentaires comportant des clauses connexes, mais aussi à générer
automatiquement des documents réglementaires. Les métiers de
la banque, de l’assurance, du nucléaire et de la santé vont voir
leur productivité augmenter du jour au lendemain.
Ces nouvelles solutions allégeront le travail des juristes tout
en leur donnant une vision exhaustive et mieux maîtrisée des
risques qu’ils doivent gérer quotidiennement.

RESSOURCES HUMAINES

Les ressources humaines, parents pauvres de la digitalisation,


vont franchir un cap avec l’arrivée de l’IA.Tant le recrutement
que l’administratif vont être impactés, permettant pour les uns
de se concentrer sur le fond et l’humain et, pour les autres,
d’avoir le temps d’optimiser.
L’IA transforme les métiers de l’entreprise 123

Après avoir fait de lourds investissements ces dix dernières


années sur leur SIRH et leur moteur de paie, les ressources
humaines doivent désormais réussir à appréhender les nou-
veaux enjeux liés à l’optimisation de leurs process administratifs
et de recrutement pour se concentrer sur la gestion anticipée
des talents.

Le recrutement

Les LLM vont révolutionner le recrutement grâce à leur capa-


cité à raisonner par similarité. Ils vont offrir une vision globale
des CV, mais aussi du métier recherché et non plus uniquement
des mots-clés.
Le parcours de consultation des offres d’emploi va s’inverser.
Sur la page recrutement de l’entreprise le candidat n’aura plus
à chercher l’annonce qui lui correspond. Il lui suffira de four-
nir son CV pour se voir proposer celles qui sont susceptibles
de l’intéresser. L’employeur s’assure ainsi qu’un bon candidat a
accès à la bonne offre d’emploi, augmentant mécaniquement
son taux de transformation. Plusieurs grandes entreprises fran-
çaises ayant régulièrement de nombreux postes à pourvoir,
comme la SNCF, ont déjà mis en place ce système.
La chasse de talents ou talent acquisition est un métier ingrat qui
va être totalement révolutionné – du collaborateur qui fait des
copier-coller sur Internet pour faire sa description de poste au
Talent Acquisition Specialist qui doit décoder les compétences
et chercher les bons mots-clés pour effectuer ses recherches
dans l’antique barre LinkedIn. Les LLM et leur incroyable
capacité d’inférence vont révolutionner tout ce process artisa-
nal. Une simple requête sur un ChatGPT interne vous don-
nera un premier jet de description de poste, si ce n’est une
description complète, tandis que la recherche ne s’effectuera
124 Guide pratique de l’intelligence artificielle dans l’entreprise

plus par mots-clés mais avec du matching réalisé par un LLM


spécialisé. Il y a fort à parier que LinkedIn, qui, ne l’oublions
pas, appartient à Microsoft, intégrera les LLM d’Open AI pour
proposer une version Copilot LinkedIn, comme il l’a fait avec
sa suite bureautique Microsoft 365.

L’administration du personnel

Les métiers de la gestion et de l’administration du personnel


vont eux aussi profiter des formidables avancées de l’IA. Ils
auront accès à des assistants digitaux intelligents dédiés qui
vont venir fluidifier l’usage des SIRH, comportant encore de
nombreuses tâches manuelles, parfois très complexes et rébar-
batives, mais aussi permettre certaines optimisations.
Ce sont tout d’abord les chatbots destinés à répondre aux ques-
tions du personnel sur leurs droits qui vont venir alléger la
charge des ressources humaines. La première génération don-
nait de piètres résultats et était finalement très peu utilisée.
L’arrivée des chatbots de deuxième génération, boostés aux
LLM, permet d’obtenir une bien meilleure interaction, mais
surtout, une prise en compte efficiente de la question, ainsi
qu’une réponse argumentée, voire d’entretenir une conversa-
tion pour obtenir davantage d’informations.

Un contrôle de paie automatisé


pour des déclarations cohérentes

La vérification de la paie est nécessaire car, d’un mois sur l’autre,


elle n’est jamais la même (les populations changent, les règles
évoluent avec la législation et les accords, les primes diffèrent
d’un mois sur l’autre…). Elle revêt aujourd’hui une importance
particulière, notamment vis-à-vis de l’obligation faite aux entre-
prises de transmettre mensuellement leur déclaration sociale
nominative (DSN) directement à l’État. Dans celle-ci figurent
non seulement les informations de paie, mais aussi toutes les
L’IA transforme les métiers de l’entreprise 125

déclarations afférentes. Cette législation oblige les entreprises


à faire des déclarations cohérentes entre les différents systèmes
de paie, URSSAF, DGFIP et Pôle Emploi, sous peine de se voir
redresser par l’administration fiscale.

Que la paie soit interne ou externalisée, la vérification des bul-


letins de paie s’effectue manuellement, en comparant celui du
mois précédent avec celui du mois à venir. Le système de paie
est ensuite corrigé et de nouveaux bulletins sont émis et vérifiés
jusqu’à obtenir un document correct.

En digitalisant, dans un moteur de règles, toutes les expertises


nécessaires à la correction des bulletins de paie et des déclara-
tions (URSSAF, conventions collectives…), en laissant l’entreprise
écrire ses propres règles et en intégrant l’évolution du cadre légal,
l’IA simplifie ces processus. Sous la forme d’un assistant digital
intelligent, elle délivre une paie exempte d’erreurs et contrôle la
cohérence de tous les systèmes de déclaration, en proposant les
corrections et les optimisations nécessaires, pour un résultat
cohérent et juste.
Conciliator™ PAY intègre plus de 1 000 règles tenues à jour et
s’utilise en ligne sous la forme d’un SaaS. Cet assistant digital
intelligent de contrôle de paie n’exige aucune installation ni inter-
connexion et délivre ses recommandations sur simple téléchar-
gement du fichier DSN et des bulletins de paie. Conciliator™ PAY
permet de réaliser une économie de 30 % sur le temps passé par
les contrôleurs de paie sur ce sujet et d’éviter les pénalités, ainsi
que les redressements liés aux erreurs DSN.

‘‘ Le Club Med gère un volume de 55 000 paies par an au


travers de 4 filiales pour 66 établissements. Du fait du caractère
saisonnier de notre activité, nos gestionnaires de paie reçoivent
beaucoup de contrats courts et disposent de peu de délai
pour les traiter. Avant Conciliator™ PAY, nous étions incapables
de renseigner toutes les données. Nous avons créé des contrôles
de paie selon nos besoins, afin d’atteindre notre objectif
du zéro faute. ’’
Jérôme Gosselin, ancien responsable paie, Club Med

Le machine learning vient optimiser la gestion du personnel. La


prédiction des absences, par exemple, permet de contrecarrer
leur caractère aléatoire, qui peut venir grever la rentabilité de
126 Guide pratique de l’intelligence artificielle dans l’entreprise

certaines activités. Certaines entreprises recourent régulière-


ment et en urgence à l’intérim, comme la manutention, qui
facture alors jusqu’à 2,1 fois le salaire d’un salarié classique. La
prédiction des absences, possible avec du simple machine lear-
ning, va permettre de ne pas dégrader la rentabilité de l’activité.

La gestion des talents et la formation


Dans le domaine de la gestion des talents, l’IA a déçu. La
méthode qui consistait à prévoir le départ des collaborateurs en
leur posant tous les jours quelques questions générait un stress
intense et biaisait toutes les réponses, rendant ce cas d’usage
totalement contre-productif.
La formation quant à elle peut bénéficier de recommandations
de parcours quand les formations alimentent un référentiel de
compétences. Il est alors possible de générer des modèles de
recommandation liés à des trajectoires professionnelles. Une
modélisation encore très rare car elle demande d’uniformiser
les informations permettant de caractériser chaque formation
dans le même référentiel.
Ces quelques exemples montrent que toutes les activités des
ressources humaines vont être impactées par l’arrivée massive
de l’IA. Elles le seront de manière différente suivant qu’elles se
situent dans les 80 % communes à toutes les directions RH,
avec la possibilité de recourir à des produits sur étagère, ou dans
les 20 % liées au cœur de métier de l’entreprise et qu’il faudra
développer sur mesure.
En venant réaliser la plupart des tâches ingrates, l’intelligence
artificielle va simplifier les métiers des ressources humaines,
voire les augmenter en leur permettant de se focaliser sur la
valeur des femmes et des hommes dont ils ont la charge, ainsi
que sur le nouveau challenge de la gestion des talents.
L’IA transforme les métiers de l’entreprise 127

DSI
Après avoir automatisé une grande partie de son déploiement et
de sa supervision, la DSI va enfin bénéficier de l’apport de l’IA.

Le développement

Non content de proposer un changement de paradigme avec


ChatGPT, Microsoft a immédiatement montré qu’il était pos-
sible de créer une application métier complète. En l’occur-
rence, il a choisi le développement. Fort de tout le code dont
il disposait avec ou sans licence sur GitHub, Microsoft à fait
apprendre à un LLM la manière dont l’humain développait des
programmes informatiques.
Les résultats sont impressionnants car après six mois d’utili-
sation, les développeurs utilisent au minimum 26 % du code
proposé par Copilot Codex. Une opportunité en or pour nos
DSI de faire baisser les coûts de développement faramineux
des systèmes d’information et un positionnement immédiat en
top priorité des cas d’usage à évaluer par tous les CDO Office.
Un succès immédiat, donc, pour une des toutes premières
applications métier de LLM, qui laisse entrevoir de vraies
opportunités sur d’autres verticales de l’ingénierie.

La cybersécurité

Les cyberattaques sont malheureusement devenues monnaie


courante. Un vrai business : on se croirait presque revenu au
temps des attaques de diligences.
Pour se défendre au même niveau que leurs attaquants, les
entreprises doivent se réapproprier les théories de Carl von
128 Guide pratique de l’intelligence artificielle dans l’entreprise

Clausewitz décrites dans son ouvrage De la guerre (1832).


L’auteur y présente un modèle où chaque belligérant met
toutes ses forces dans la bataille, ce qu’il appelle très explicite-
ment « l’ascension aux extrêmes ». Pour espérer l’emporter, il
faut au moins disposer de la même puissance de feu que son
ennemi.

Les entreprises se sont donc équipées pour résister, entraînant


en parallèle la montée en puissance de la menace. Aujourd’hui,
grâce à l’IA, analyser une infrastructure, un système d’infor-
mation et développer automatiquement du code pour l’at-
taque est tout à fait possible. Copier un comportement ou une
conversation devient si facile que les attaques malveillantes se
multiplient, devenant toujours plus complexes à contrer.

Technologies dernier cri contre les cyberattaques

La complexité des cyberattaques est telle que de nouvelles plate-


formes se créent, capables de les devancer. Elles engagent un
nouveau mix d’expertises mêlant cyber et IA dernier cri.

‘‘ Notre Cyber Defense Center intègre les toutes dernières


technologies d’intelligence artificielle, qui permettent de détecter
les cyberattaques réalisées avec de nouveaux moyens offensifs
basés sur l’IA.’’
Guillaume Guilhen et Paul Daubié, fondateurs de U.NEAT

INGENIERIE

Copilot Codex a démontré qu’en pré-entraînant un LLM sur


une quantité suffisante de règles d’ingénierie, comme peuvent
l’être les lignes de codes informatiques, il était possible de
reproduire une ingénierie et surtout d’obtenir un taux d’ac-
ceptation minimum de 26 %.
L’IA transforme les métiers de l’entreprise 129

Il en serait donc de même avec de l’ingénierie financière ou


juridique, s’il était possible de réunir assez d’exemples pour
pré-entraîner un modèle. Une démonstration réussie par
Bloomberg avec BloombergGPT, qui a dû prendre toutes ses
news et l’intégralité du Financial Times pour arriver à entraîner
un LLM spécialisé.
La voie est donc ouverte, si tant est que l’on dispose du bon
volume d’informations. Une opportunité pour bon nombre
d’éditeurs spécialisés, comme Dalloz, dès que les prix du pré-en-
traînement ne seront plus prohibitifs, afin que ces LLM spécia-
lisés puissent atteindre rapidement leur seuil de rentabilité.
Pour les autres formes d’ingénierie moins « littéraires », comme
l’électricité ou le BTP, il faudrait au préalable traduire des plans
ou des règles d’ingénierie mathématiques en langage naturel :
un domaine de recherche à notre portée.

PRODUCTION

La production a toujours intégré des techniques d’optimisation.


L’IA va lui faire passer un nouveau cap en intégrant encore plus
de données et en prenant directement des décisions dans des
domaines tels que l’optimisation des process de production,
l’automatisation à travers des robots plus intelligents et la main-
tenance prédictive de l’outil de production.

Les processus de production

Les processus de production vont bénéficier des mêmes amé-


liorations que leurs cousins, les processus administratifs. Partout
où la donnée et le modèle sont présents, la tâche est manuelle
et répétitive, l’expertise, digitalisable, l’IA va prendre le relais : le
130 Guide pratique de l’intelligence artificielle dans l’entreprise

deep learning pour augmenter la qualité en améliorant la détec-


tion de pièces défectueuses avec une meilleure acuité que l’œil
humain et à des rythmes bien supérieurs ; le machine learning
pour prendre en considération les données provenant des dif-
férents capteurs et optimiser ainsi en temps réel chaque élé-
ment des chaînes de production, de l’amont vers l’aval sur des
dimensions intégrant aussi la partie RSE. Enfin, l’IA, avec ses
capacités de décision et sa vision globale, pourra gérer les objets
connectés et, plus globalement, toutes les ressources qui inter-
viennent dans les process de production. C’est précisément
cette numérisation intégrant l’IA qui permettra de déployer la
smart factory de l’industrie 4.0.

La robotisation

En ce qui concerne la robotisation, l’IA sera un enabler


puisqu’elle va rajouter des fonctions de perception ou de
décision au robot. Toutefois, cela ne viendra pas améliorer la
difficulté intrinsèque liée au déploiement de robots dans des
environnements industriels. En effet, développer ce type de
technologie, aussi intelligente soit-elle, prend des années avant
qu’elle ne soit opérationnelle et compatible avec les exigences
de stabilité et de qualité de l’industrie manufacturière.
Les grands acteurs de ce secteur ont développé depuis long-
temps des robots sur leurs chaînes d’assemblage. Ils ont mis des
années à les mettre au point. Ils vont maintenant pouvoir les
faire évoluer en leur adjoignant des facultés liées à l’IA. C’est
ce qui s’appelle dans le langage industriel « l’évolution incré-
mentale », à savoir passer d’un état à un autre par petites étapes.
L’évolution de l’outil industriel est donc, par nature, incré-
mentale et cette notion vient contredire la croyance populaire
qui voudrait faire de l’IA un facteur de prolifération rapide
L’IA transforme les métiers de l’entreprise 131

des robots dans l’industrie. Bien au contraire, il va falloir com-


prendre le comportement et les interactions de ces nouveaux
outils propulsés par des algorithmes, qui prendront des déci-
sions au lieu d’être programmés de manière déterministe.

L’IA va cependant clairement améliorer la performance des


robots, permettre d’en créer de nouveaux AI First. Il faut tou-
tefois s’attendre, contrairement à tous les autres métiers de
l’entreprise, à une très lente pénétration de ces technologies.
Les robots vendus sur étagère savent faire des choses simples,
comme transporter un colis d’un point A à un point B, recon-
naître un objet et le mettre dans le bon bac, mais ils sont encore
incapables d’effectuer des tâches complexes d’un claquement
de doigt.

L’outil de production va bénéficier


d’une maintenance prédictive

La dimension « prédictive » de l’IA va également révolutionner


la maintenance industrielle. Plus question de subir quand il sera
possible de prévoir. Les services de maintenance, qui interve-
naient jusque-là en mode « pompier », vont devenir de grands
orchestrateurs, insérés dans les process de production.

Le machine learning permet de tirer parti des


signaux faibles que l’homme ne peut pas analyser

L’industrie pétrolière a des contraintes de production et de main-


tenance spécifiques. La production est réalisée dans des environ-
nements souvent hostiles comme les plateformes offshore ou la
jungle, loin des entrepôts de pièces détachées. De plus, les forages
mettent à rude épreuve les pompes qui se trouvent au fond des
puits. La détection des pannes sur ces équipements représente
un réel défi pour les sociétés qui exploitent ces puits de pétrole,
sachant que leur arrêt rend impossible la production.
132 Guide pratique de l’intelligence artificielle dans l’entreprise

Avec l’habitude et l’apparition de signes objectifs de faiblesse de


ces pompes, les exploitants savent prévoir la rupture 10 jours avant
et font acheminer juste à temps le matériel, pour des montants
exorbitants.

L’utilisation de l’intelligence artificielle permet de prendre en


compte un grand nombre de données de surface et de fond de
puits, puis de les corréler entre elles pour mieux appréhender
les signaux faibles, précurseurs d’une panne. Dorénavant, ces
modèles prédictifs basés sur du machine learning peuvent détecter
des fonctionnements anormaux ou de futures pannes avec 40 jours
d’avance. Grâce à ce nouveau délai, l’arrêt de l’exploitation peut non
plus être imposé mais programmé, soit avec d’autres opérations de
maintenance, soit à un moment qui minimise l’impact, permettant
de revenir à des coûts d’acheminement standard.

La société FiledBox.ai propose des solutions d’intelligence artifi-


cielle dédiées aux problématiques des productions industrielles.
À travers une plateforme spécialisée dans la récupération de
données provenant de ces environnements et leur exploitation
par des modèles autonomes drivés par les données, FieldBox.ai
optimise l’efficacité opérationnelle en optimisant en permanence
à la fois le fonctionnement des machines et celui des opérations.

‘‘ La difficulté pour les ingénieurs de production est


de se concentrer sur les puits présentant des problèmes.
Pour certains projets, nous pouvons avoir jusqu’à 30 000 points
de données. Il est difficile de détecter où se trouve le problème
et d’anticiper les problèmes. Nous avons fourni des données
à FieldBox.ai pour qu’ils puissent construire le modèle.
Ils ont pu vérifier les corrélations et identifier les paramètres clés
pour produire des résultats très intéressants. ’’
Cédric Picher, ingénieur Performance Wells, Total Énergies

Malgré les apports indéniables de la transformation Data IA,


les directions industrielles font encore parfois de la résistance.
Les procédés sont si complexes et la qualité si compliquée à
maintenir, que toute intervention est vécue comme une forme
de mise en péril d’une production acquise de haute lutte. Dans
l’industrie pharmaceutique, par exemple, les processus de pro-
duction sont validés par des pharmaciens plus soucieux de
L’IA transforme les métiers de l’entreprise 133

perdre leur agrément vis-à-vis des autorités réglementaires que


d’optimiser la production. L’optimisation quelle qu’elle soit est
aussi parfois subie comme un affront au savoir de l’ingénieur,
qui considère qu’« on a déjà essayé » mais que « ça n’a rien
donné ».
Les directions industrielles peinent donc à intégrer l’IA sur leurs
chaînes de production pour ces différentes raisons qu’il faudra
un jour dépasser. C’est aux directions générales de s’emparer
du sujet en lançant des politiques volontaristes de change mana-
gement. Ce sera l’unique moyen de rester dans la compétition.

SUPPLY CHAIN

La supply chain ou « chaîne d’approvisionnement » doit


aujourd’hui être en mesure de s’adapter dynamiquement à la
demande commerciale sans gonfler démesurément les stocks
des magasins. La logistique et la vente sont deux mondes qu’il
faut réconcilier dans un nouvel univers multicanal. Les orga-
nisations ne sont pas en mesure de collecter et de traiter les
retours journaliers des points de vente pour adapter les stocks
en conséquence. Pour prévoir les ventes, la plupart des distri-
buteurs utilisent des méthodes empiriques, prenant pour réfé-
rence le volume de vente de l’année, du mois ou de la semaine
précédente, en le faisant progresser de quelques pourcents. Ils
prennent le risque de s’exposer au surstock ou à la rupture
de stock en maintenant une déconnexion entre les prévisions
amont et aval.
Le machine learning permet de pallier efficacement ces diffi-
cultés en faisant tourner des modèles de prévision de stocks
basés sur l’historique des ventes, la saisonnalité, les commandes
clients, les campagnes promotionnelles, ainsi que des données
externes comme la météo, les commentaires sur les réseaux
134 Guide pratique de l’intelligence artificielle dans l’entreprise

sociaux… Les informations des points de vente sont intégrées


automatiquement et en temps réel dans ces modèles et per-
mettent d’affiner au maximum les prévisions de stock.
Dans sa capacité à intégrer la totalité des paramètres du succès,
le machine learning permet de faire le lien entre tous les élé-
ments et les intervenants qui contribuent à la croissance des
ventes. En permettant aux modèles de supply chain d’avoir une
vision globale des paramètres de l’entreprise, l’IA vient récon-
cilier toutes les contraintes et autoriser des prédictions au plus
proche de la réalité de chaque métier.

L’IA peut réduire les stocks jusqu’à 30 %

Vekia propose de passer à la supply chain de demain. Sa solution


optimise les approvisionnements, les stocks et les prévisions de
vente grâce à la puissance de l’IA. Elle améliore jusqu’à 90 % les
prévisions de stock, réduit jusqu’à 30 % les stocks et augmente
de 10 % la productivité immédiate de la logistique.

‘‘ Le stock est le premier poste d’investissement de la société.


Pour réaliser des prévisions de vente et des suggestions
de commandes aux chefs de rayon, chaque matin, l’outil
prend en compte l’historique des ventes, les stocks des
magasins et les opérations commerciales en cours, mais aussi
les événements futurs (vacances, promotions à venir…) et
calcule les commandes optimales à passer pour en minimiser
le coût global (chiffre d’affaires perdu en cas de rupture, frais
logistiques, marge d’erreur…). Grâce à Vekia, nous avons pu
détecter des stocks faux et faire baisser, en trois ans, de 8 %
notre niveau de stock et réallouer ce gain de temps pour nos
équipes à nos clients. D’autre part, nous avons réduit de 50 %
les commandes modifiées pour permettre aux responsables
de rayons de passer le moins de temps possible sur leur PC. ’’
Luc De Rycke, manager organisation supply chain, Leroy Merlin

Les métiers de la supply chain vont être renforcés dans leurs


capacités de prévision, passant d’une activité faite d’ajustements
itératifs et perçue comme un coût nécessaire à la limitation du
L’IA transforme les métiers de l’entreprise 135

risque, à un métier venant contribuer grandement à la perfor-


mance de l’entreprise.

MARKETING
L’IA va permettre au marketeur d’être encore plus en prise
avec son marché. Le marketing classique qui avait intégré la BI
(business intelligence) mais ne disposait pas de suffisamment de
données va enfin pouvoir maîtriser son environnement. De son
côté, le marketing digital, qui comme son nom l’indique était
déjà bien équipé, va passer dans une autre dimension, celle de
l’hyperpersonnalisation. De grands changements s’annoncent
donc pour ces métiers, qui vont commencer à converger.

Le marketing classique devient analytique grâce à l’IA


Le « marketing à papa » a longtemps souffert de ne pas avoir
un accès direct à ses consommateurs comme le permettent le
Web et le e-commerce. L’IA et le NLU (Natural Language
Understanding) couplés aux incroyables capacités de traite-
ment des données du Web vont complètement changer l’uni-
vers du marketeur et lui donner, enfin, une vision analytique
de son marché, de sa communication et de sa marque. Une
situation qui va lui permettre, non seulement d’optimiser ses
coûts, mais aussi d’augmenter son efficacité.

Augmenter la performance de ses investissements


marketing grâce à l’IA

‘‘ Pernod Ricard dépense plus de 2 milliards d’euros en


marketing chaque année dans plus de 75 pays et nous utilisons
l’IA au cœur d’une application d’efficacité marketing, que nous
avons nommée Matrix. Basé sur trois années d’historique
de campagnes et de ventes, l’outil aide nos équipes à trouver
136 Guide pratique de l’intelligence artificielle dans l’entreprise

le meilleur niveau d’investissement pour chacune des marques


du portefeuille. L’application recommande aussi le bon mix
entre les canaux de communication et les actions en points de
vente, de façon à engager les consommateurs toujours désireux
de convivialité autour de leurs marques préférées.

Cet outil, qui identifie les corrélations entre marketing, ventes


et performances financières, permet de nouveaux dialogues
au sein des comités de directions et a, par exemple, permis
de doubler l’impact des campagnes média sur les ventes
aux États-Unis en 24 mois d’utilisation. ’’
Pierre-Yves Calloc’h, Chief Digital Officer, Pernod Ricard

La révolution du social listening


L’IA permet désormais d’analyser, mais aussi de réaliser à
grande échelle et en continu du social listening. Le marketeur
ne travaillera plus à l’aveugle mais avec une vision précise de
son environnement. Il pourra ainsi détecter les tendances, mais
aussi prendre de meilleures décisions et être beaucoup plus
réactif, en disposant d’une meilleure compréhension de son
audience, des moments de consommation et de l’analyse des
impacts de ses campagnes marketing.

Les catégories de produits ayant bénéficié du social


listening ont vu leur part de marché progresser
de 4 à 13 %
La plateforme Radarly Consumer Insight, solution de social
data intelligence de Linkfluence-Meltwater, capte et analyse au
quotidien 150 millions de conversations en temps réel (blogs,
réseaux sociaux, forums, sites web, etc.) dans plus de 78 lan-
gues et 190 pays. Elle les restitue en KPI opérationnels au sein de
tableaux de bord intuitifs. Linkfluence utilise des technologies de
deep profiling, c’est-à-dire du profiling sur de la donnée remontée
par du NLP (Natural Language Processing), afin de dessiner, par
exemple, le portrait précis des influenceurs ou des concurrents.
La solution permet également de détecter ceux que l’entreprise
doit cibler pour accroître son reach (sa portée).
L’IA transforme les métiers de l’entreprise 137

‘‘ La plateforme de Social Data Intelligence de Linkfluence-


Meltwater nous permet au quotidien d’analyser notre
e-réputation, de nous comparer à nos concurrents et de
mesurer le social reach à travers l’ensemble des réseaux
sociaux et ce, pour toutes les marques de Danone Eaux.
Le plus de la plateforme : la multitude de requêtes possibles
et la pertinence des insights qui nous permettent d’identifier
les tendances du secteur et les influenceurs clés pour nos
marques. En recourant au social listening, nous avons réalisé
que la naturalité est d’ores et déjà un sujet phare, ce qui nous
a aidé à dégager de nouvelles stratégies, nous permettant
d’adresser cette tendance. ’’
Christian Veysseyre, Director
of Social Media Intelligence, Danone

Le marketing digital bénéficie


de la démocratisation de l’IA

Le métier du marketing digital n’en est qu’au début de sa trans-


formation. Il a pour lui un avantage indéniable sur tous les
autres : être par nature analytique. Le webmarketeur baigne dans
cet univers de la data, qu’il exploite actuellement avec ses outils
de base, tels que Google Analytics et autres Alexa. Demain, l’IA
va lui permettre de changer de magnitude, en mettant à sa dispo-
sition de nouvelles solutions d’analyse, qui lui permettront d’ap-
prendre du comportement de ses visiteurs, de leurs échanges sur
les réseaux sociaux, des tendances émergentes. Elles proposeront
ou prendront des décisions sur tous les leviers du marketing
digital, dans le but d’augmenter le taux de transformation et
de faire baisser le coût d’acquisition. Enfin, le marketeur digital
pourra maîtriser la combinatoire de tous ses leviers.

Ces technologies, jusqu’alors réservées à de grands groupes


comme Amazon ou Netflix, sont désormais à la portée de tous
et sur tous les canaux de communication et d’influence.
138 Guide pratique de l’intelligence artificielle dans l’entreprise

La recommandation personnalisée influence le choix


des visiteurs dans plus de 15 % des commandes

Avec sa solution « Recommend », Target2Sell propose un moteur


de recommandation perfectionné et ouvert. Celui-ci ne se contente
pas de personnaliser, il donne aussi la main aux équipes e-mer-
chandising, afin qu’elles puissent intégrer leurs propres règles
métiers, issues de leur expérience en magasin. Les algorithmes
de marketing prédictifs de Target2Sell calculent en temps réel une
liste de produits à recommander pour chaque visiteur, à chaque
étape de sa navigation. La solution prend en compte, dans sa déci-
sion, la navigation en temps réel des utilisateurs, ainsi que leurs
précédents achats en ligne, mais aussi d’autres données beaucoup
moins classiques comme les ventes réalisées par l’internaute en
magasin et du social listening comme les avis clients. En effet, pour
faire la meilleure recommandation, il faut rentrer dans la logique de
l’internaute et comprendre, au-delà du simple produit, dans quelle
démarche il se trouve et quelle est son intention : rééquipement
de la cuisine ou réaménagement de toute la maison, par exemple.
En faisant travailler ses modèles de prédiction sur des données
décrivant au plus près la réalité de l’environnement de l’internaute,
Target2Sell met à la disposition des sites de e-commerce des
technologies de personnalisation très pointues.

‘‘ Avec Recommend de Target2Sell, nos équipes


e-merchandising ont pu se concentrer sur la génération de règles
métiers et ont fait évoluer leur expertise grâce à cet outil
de merchandising personnalisé qui leur permet d’influer
sur le choix du consommateur. En moyenne, aujourd’hui, plus
de 15 % des commandes sont aidées via la recommandation
de produits, ce qui montre son importance pour l’expérience
utilisateur. L’IA permet des arbitrages objectifs et a transformé
progressivement ce métier au bénéfice de chacun : l’enseigne,
le client et l’employé.’’
Thierry Lernon, directeur général e-commerce, But

Au-delà de la recommandation produit, le parcours et la


présentation des produits sont aussi de vrais enjeux pour les
acteurs du e-commerce. En effet, quel webmarketeur n’a pas
optimisé son parcours client avec du A/B testing pendant de
longs mois avant d’arriver à un optimum uniquement pour
L’IA transforme les métiers de l’entreprise 139

son cœur de cible ? L’IA permet d’adapter dynamiquement


du contenu et des parcours pour chacun des segments. Cette
hypersegmentation est rendue possible par les capacités d’ana-
lyse et de segmentation de l’IA avec les techniques de clustering1
de l’apprentissage non supervisé.
Qui n’a pas rêvé de proposer un magasin adapté à chaque client
tout en ayant intégré ses propres codes de merchandising pour
augmenter sa probabilité de vente ? Personnaliser à l’extrême,
réaliser l’hyperpersonnalisation, c’est ce que permettent des
solutions qui, en fonction de l’historique de navigation, y com-
pris des toutes dernières secondes, vont adapter le contenu des
pages, la navigation, la présentation ou les enchaînements pour
optimiser l’expérience de l’internaute et augmenter le taux de
transformation d’un site.
En apprenant de l’historique des meilleurs rendements de
chaque type de navigation et en y intégrant l’expérience de
l’enseigne, ces solutions permettent de réaliser des segmenta-
tions auxquelles seront proposées des parcours de plus en plus
optimisés. Ces solutions basées sur du machine learning et de
l’apprentissage permettent un réel coworking entre la machine et
l’humain pour réintégrer des savoir-faire qui ont fait le succès
de ces enseignes depuis des décennies.

En transposant notre merchandising


dans le digital, nous avons obtenu 14 %
d’augmentation du taux de conversion

Avec sa solution « Organize », Target2Sell propose de modifier


l’ordonnancement des produits dans les pages de catégorie ou
les résultats du moteur de recherche des sites en fonction du
comportement de l’internaute. Organize détermine le profil des
visiteurs et leur propose l’expérience la plus adaptée. Les sites

1. Voir au chapitre 1, « Le machine learning et l’apprentissage non super-


visé ».
140 Guide pratique de l’intelligence artificielle dans l’entreprise

de e-commerce ainsi équipés proposent une expérience unique


pour chaque client en respectant les codes de la marque ou de
l’enseigne grâce :
• à une analyse des parcours de navigation et d’achat de centaines
de milliers d’internautes en temps réel ;
• au calcul pour chaque internaute de sa sensibilité aux produits,
sur des centaines de milliers de références ;
• à des stratégies de personnalisation qui s’adaptent en fonction
du comportement du client, tout au long de sa vie en ligne, avec
des mécanismes d’auto-apprentissage rendus possibles grâce
au machine learning.

‘‘ L’expérience en magasin de Galeries Lafayette est centenaire


et unique : des parcours clients travaillés soigneusement, pour
faire naviguer le client d’univers en univers, d’étage en étage,
lui donner à voir la curation et le savoir-faire de sélectionneur
d’offres des Galeries Lafayette. Nous avons travaillé à transposer
ce savoir-faire dans l’univers digital avec ses contraintes propres,
tout en l’optimisant pour une efficacité business maximale :
la plateforme IA de Target2Sell a été clé pour résoudre cette
équation. En disposant d’un merchandising digital non plus
statique “rule driven” mais dynamique “data driven”, nous
avons pu piloter les modèles de personnalisation et y intégrer
notre expérience. Après plusieurs semaines d’A/B testing, nous
avons obtenu une augmentation de 14 % du taux de conversion
générant donc une amélioration durable de la satisfaction client. ’’
Caroline Delorme, directrice du digital, Galeries Lafayette

Le marketing, du fait de son caractère analytique avec le web-


marketing, a été le premier et reste le plus grand utilisateur
de l’intelligence artificielle. La première génération de machine
learning avait déjà donné d’excellents résultats, mais ce métier
est en train de subir sous nos yeux une vraie révolution, au
point que des métiers disparaissent et que de nouvelles capaci-
tés que nous n’aurions pas soupçonnées sont en train de naître.
L’IA transforme les métiers de l’entreprise 141

VENTE

Le métier de la vente va subir sa deuxième révolution digitale.


Ce métier qui autrefois était plutôt une sorte de « don » va se
transformer en une activité où la prospection et l’acte de vente
seront à leur tour intégrés dans un process « accompagné » par
un assistant digital intelligent. Le vendeur ne sera plus livré
à lui-même, il connaîtra ses cibles et objectivement les para-
mètres de réussite d’une vente.

Optimiser son coût d’acquisition

C’est tout d’abord en amont du process de vente et en entrée


du CRM que le commercial va recevoir une aide précieuse.

La qualification automatique de prospects réduit


le CAC (coût d’acquisition client) de 30 %

Finies les listes – plus ou moins bien – ciblées de prospects dans


lesquelles le commercial devait faire le tri. En venant comprendre
le profil des clients existants, un assistant digital spécialisé est
capable de repérer automatiquement sur Internet les sociétés ayant
les mêmes caractéristiques. Il proposera une liste de prospects
qualifiés qui auront une proximité optimale avec les clients exis-
tants, augmentant d’autant la probabilité de signature et réduisant
le coût d’acquisition client. Ces recommandations seront bien sûr
affinées à l’usage en y intégrant les retours des commerciaux, per-
mettant ainsi à l’algorithme de mieux cerner encore le profil idéal
recherché et d’accroître la pertinence de ses recommandations.

La société Sidetrade fournit en SaaS la solution de marketing et


ventes prédictives « Customer Intelligence », qui repose sur ce
type d’approche et permet aux commerciaux de concentrer leurs
efforts sur les marchés offrant le meilleur potentiel pour ensuite
prioriser leur prospection sur les comptes à haute probabilité de
signature.
142 Guide pratique de l’intelligence artificielle dans l’entreprise

‘‘ Les équipes BNP Paribas en charge d’un projet prospectif et


disruptif se sont appuyées sur Sidetrade pour accélérer la mise
en œuvre de nouveaux usages sur de nouveaux marchés. ’’
André-Louis Valière,
Managing Director Corporate Finance EMEA, BNP Paribas

L’IA, le nouvel assistant du commercial


Après avoir révolutionné les techniques de recherche de pros-
pects et de génération d’intérêt (lead generation), l’IA va « indus-
trialiser » le cross selling en proposant des recommandations aux
forces de vente, basées sur l’analyse de l’historique des ventes et
des cross selling réussis.
Il n’y a pas de hasard et encore moins avec le machine lear-
ning. En utilisant les données internes du CRM, des données
publiques prises sur le Web, connexes à l’écosystème des clients,
ainsi qu’une veille automatique aussi appelée market intelligence,
les modèles d’intelligence artificielle analysent les facteurs
de succès des ventes précédentes et utilisent leur capacité de
généralisation pour créer de véritables systèmes de recomman-
dation. Il est possible de réagir au bon moment, sur le bon
prospect avec le bon produit et la bonne action commerciale.
Le déploiement des suites logicielles de CRM (Customer
Relationship Management), ces dix dernières années, a révo-
lutionné le métier de la vente en structurant le processus de
vente et en le rendant homogène dans l’entreprise. Ces outils
ont fourni aux managers et aux commerciaux d’excellents ins-
truments de pilotage analytique et leur permettent aujourd’hui
de disposer d’un historique des ventes que l’IA viendra digérer
et exploiter.
L’IA transforme les métiers de l’entreprise 143

Des recommandations suivies à 80 %


par les commerciaux
Pernod Ricard dispose de l’un des portefeuilles les plus prestigieux
et les plus diversifiés du secteur des vins et spiritueux mondiaux :
plus de 240 de ses marques premium sont distribuées dans plus
de 160 marchés. L’une de ses forces est d’avoir adopté très tôt le
numérique et l’intelligence artificielle pour soutenir ses objectifs
de croissance, sa rentabilité, ses avantages concurrentiels et
s’adapter aux besoins de consommateurs multiples. Toutes ses
applications d’aide à la décision sont basées sur des moteurs d’IA
tournés vers l’avenir et sont déployées à grande échelle.

‘‘ Nous avons plus de 2 000 commerciaux qui visitent les points


de vente de nos clients à travers le monde. Nous avons créé et
déployé pour eux un assistant personnel qui les aide chaque
semaine à identifier les points de vente où ils auront le plus
d’impact. L’outil leur propose une liste des cinq meilleures
actions commerciales à effectuer lors de chaque visite.
Lorsque l’on compare des régions où l’outil est déployé
par rapport à des zones similaires non optimisées, on mesure
des ventes additionnelles qui peuvent aller jusqu’à 80 %.’’
Pierre-Yves Calloc’h, Chief Digital Officer, Pernod Ricard

Cette fonctionnalité de « next best action » va devenir une


fonctionnalité native des suites de CRM, comme le fait déjà
Salesforce. Cependant, Pernod Ricard l’a démontré, une base
de données convenablement populée de toutes les interactions
clients est nécessaire mais ne suffit pas. Il faut intégrer des don-
nées locales dans les modèles pour obtenir des recommanda-
tions optimales.
Les capacités de synthèse et d’extraction des LLM vont venir
prêter main-forte aux forces de vente. En effet, quoi de plus
rébarbatif que de venir faire la synthèse d’un rendez-vous dans
le CRM ? Une application à base de LLM peut reprendre une
conversation, en faire la synthèse et extraire les points clés puis
l’intégrer au CRM.
144 Guide pratique de l’intelligence artificielle dans l’entreprise

Salesforce ne s’y est pas trompé et a sorti EinsteinGPT début


2023. Tout d’abord pour proposer les messages ayant le plus
de chances de « transformer » et certainement pour populer
automatiquement leur CRM. Le cadre législatif de l’entre-
tien téléphonique devra certainement évoluer ou être rendu
compliant avec le RGPD, grâce à un opt-in quelconque, si des
informations sont extraites d’une conversation téléphonique.
Cette intégration de l’IA à toutes les étapes du processus de
vente va permettre à ce métier de profiter pleinement et natu-
rellement de toute la puissance de l’intelligence artificielle
pour gagner en efficacité. Loin d’être de la science-fiction, ces
outils font leur apparition sur le marché et révolutionnent les
métiers de la vente.

La vente en ligne

Le e-commerce est passé en vingt ans d’une innovation à un


mode de consommation. Il représente aujourd’hui 20 % des
ventes mondiales et ne cesse de croître.Tout d’abord réservée au
webmarketing, l’IA s’insinue au cœur de l’acte de vente en ligne.

Une nouvelle segmentation exigeante

Le confinement lié au Covid-19 a radicalement changé les


comportements et la relation client-fournisseur. D’un digital
réservé à une population digitale native des générations X, Y,
Z++, nous sommes passés en quelques jours et dans le monde
entier, à un taux de pénétration maximum de la population
pratiquement identique à celui du téléphone mobile. Une
digitalisation massive de l’acte d’achat dans tous les secteurs
mais surtout une population beaucoup plus exigeante sur la
qualité de l’interaction, que ce soit pendant l’acte d’achat ou
dans l’après-vente.
L’IA transforme les métiers de l’entreprise 145

Les parcours assistés par des LLM ont le même taux


de transformation qu’avec des humains
Lors de la consultation d’une des 250 000 fiches produits et l’in-
terrogation des caractéristiques du produit, Cdiscount propose
à ses clients une interaction soit avec un humain, soit avec un
chatbot basé sur des LLM.

‘‘ L’utilisation des LLM pour notre nouveau chatbot est une vraie
réussite. Un parcours client accompagné par le chatbot atteint
une conversion de 20 % comme avec un être humain. ’’
Isabelle Serot, directrice data et IA, Cdiscount

Qualité du parcours, omnicanalité, continuité multicanale et


personnalisation sont devenus des incontournables que seule
l’IA peut rendre possibles, comme nous l’avons vu au cha-
pitre 2 sur la nécessaire convergence du digital et de la data.

De l’intention naît l’acte d’achat


Nous rentrons dans les magasins physiques avec un intérêt, une
attirance, une intention. Le vendeur, la vendeuse, sont là pour
faire naître cette intention si elle n’est pas encore là, à travers
une conversation pour qu’elle ait le plus de chances de se trans-
former en acte d’achat.
Toute cette mécanique si bien huilée dans les ventes physiques
n’en est qu’à ses balbutiements dans le monde digital. Les sites
e-commerce les plus en pointe nous profilent pour nous pro-
poser quelques produits selon nos derniers achats ou produits
visités. Ils nous laissent ensuite seuls face à leur magnifique barre
de recherche, nous dépatouiller avec des propositions envoyées
aussi explicites que des liens d’un moteur de recherche.
Les moteurs de recherche justement sont en pleine révolution.
Satya Nadella, le CEO de Microsoft, a entrepris de les révolu-
tionner en intégrant des LLM dans leur parcours et en chan-
geant radicalement la forme de l’interaction. En passant d’une
146 Guide pratique de l’intelligence artificielle dans l’entreprise

requête donnant une liste de liens à la Prévert à une interaction


conversationnelle qui peut être affinée pour déboucher sur une
forme de résultat, la machine vient à l’écoute de notre désir,
que nous pourrons exprimer à loisir.
Ce désir, cette envie, ne sont-ils pas eux aussi à l’origine de
l’intention ? « Dans mon métier, ce qui compte, c’est le désir »
aime à dire Bernard Arnault. Ce combat de Titans ne laissera
pas indemne les parcours vieillissants du e-commerce. Il ouvre
au contraire de nouveaux horizons. Tout le parcours, toute
l’interaction sont à réinventer avec cette nouvelle vision pour
venir minimiser la distance entre notre désir et sa transforma-
tion en acte d’achat. Cette transformation ne fait que com-
mencer. Elle s’opère sous nos yeux, rendue possible par ces
modèles de langage d’un nouveau genre donnant libre cours à
notre créativité pour créer l’interaction de demain, créatrice de
davantage de valeur.

RELATION CLIENT

Le succès de ChatGPT a montré à quel point l’humain adhère


à une conversation de qualité. Après des années d’errements, la
relation client entre dans un nouvel âge d’or avec l’arrivée des
LLM. Leurs incroyables capacités permettent de changer tous
les paradigmes et de donner à chacun satisfaction.
Que ce soit en ligne sous forme de chatbot ou sous forme
d’assistant digital intelligent pour un téléconseiller, le LLM et
sa capacité à ingurgiter de la documentation et des règles spé-
cifiques, mais aussi de construire des argumentaires pertinents,
transforme la relation client.
L’IA transforme les métiers de l’entreprise 147

La qualité de l’interaction remet


les chatbots au goût du jour

‘‘ Grâce à la qualité de l’interaction délivrée par les LLM,


nos clients choisissent pour 40 % d’entre eux une interaction
avec notre nouveau chatbot basé sur un LLM développé
par la société IAdvize. Nous obtenons un taux de satisfaction
de 70 % alors qu’il était trois fois moindre avec les chatbots
de la génération précédente. ’’
Isabelle Serot, directrice data et IA, Cdiscount

Les selfcares, eux aussi, deviennent du jour au lendemain réelle-


ment opérationnels et permettent même de détecter le moment
où il faut passer la main à un téléconseiller. Les téléconseillers
pour leur part sont munis d’assistants permettant, pratiquement
en temps réel, de disposer d’une réponse correcte et argumen-
tée, augmentant ainsi la satisfaction client mais, surtout, faisant
baisser drastiquement leur stress et le coût unitaire de l’appel.

Dans le secteur assurantiel, les téléconseillers sont confrontés


à un pic de demandes au moment de l’envoi des nouvelles
polices d’assurances en début d’année. En effet, pour une raison
ou pour une autre le tarif change et certains assurés veulent
en connaître la cause. Ce genre d’appel complexe prend en
moyenne 25 minutes parce qu’il nécessite de recourir à plu-
sieurs applications, dont le contrat de l’assuré et la nouvelle
tarification. Un assistant basé sur un LLM ayant accès à la nou-
velle grille de tarification, au contrat de l’assuré et aux quelques
informations communiquées sur l’évolution de la situation de
l’assuré pourra donner au téléconseiller une réponse argumen-
tée et lui permettre de clore l’appel en moins de 5 minutes. Le
stress du téléconseiller baisse, sa charge mentale aussi, la qualité
de sa réponse augmente et est homogène, la satisfaction client
progresse et le coût des appels diminue au point de devenir
acceptable.
148 Guide pratique de l’intelligence artificielle dans l’entreprise

Les LLM vont donc permettre de garder l’humain au centre


de la relation client et de laisser l’utilisateur choisir son canal
de communication en fonction de son usage, de sa tranche
d’âge et, peut-être, de passer de l’un à l’autre dans les différents
parcours.
Chapitre 4

L’IA transforme
les process de l’entreprise
L’IA transforme les process de l’entreprise 151

L’IA DECLOISONNE L’ORGANISATION

Les fonctions de l’entreprise travaillent aujourd’hui en silo avec


leurs propres données et référentiels. L’intelligence artificielle
ne se soucie pas des frontières. Elle intègre toutes les données
qui font la réussite1 d’une tâche, quelles que soient leurs sources.
Cette vision globale des données de l’entreprise permet à l’IA
d’utiliser de nouvelles corrélations inimaginables jusque-là
mais qui, pour finir, sont le reflet d’une réalité opérationnelle.
Cette capacité à utiliser ces nouvelles corrélations n’est en fait
que le reflet des interactions fortes qui existent entre toutes les
entités de l’entreprise pour réussir. La vision transversale qu’a
l’IA sur l’entreprise permet de redonner du sens au travail de
chacun et à chaque contribution, mais aussi d’unifier, de rendre
homogènes la vision et les référentiels de toute l’entreprise.
Prenons l’exemple classique des achats et de la comptabilité.
Les achats achètent et la comptabilité classe les factures cor-
respondant aux achats. Encore faut-il que l’un et l’autre com-
prennent dans quelles catégories classer ces dépenses et avec
quelle granularité. Après des années de travail, les directions
achats ont gagné de haute lutte la mise en place d’un réfé-
rentiel achats qui correspond peu ou prou à leurs catégories
d’achat. De leur côté, les comptables ont mis en place depuis
bien longtemps leurs plans comptables et analytiques. Il n’y a
tout d’abord pas forcément de lien entre la catégorie d’achat
et le plan comptable, ce qui oblige le comptable à rentrer au
chausse-pied certaines catégories d’achat dans son plan comp-
table et inversement ; le détail des factures n’étant pas pris en
compte mais affecté en globalité à une catégorie d’achat, il ne
permettra ni à l’acheteur ni au comptable d’avoir une vision
analytique des dépenses.

1. Voir au chapitre 2, « L’IA modélise la réussite et l’optimise ».


152 Guide pratique de l’intelligence artificielle dans l’entreprise

L’utilisation d’une solution basée sur l’IA permet de construire


simultanément les deux plans et de les faire vivre. En inté-
grant une vision globale des factures, et finalement en fondant
le process sur la donnée brute que sont les factures, les plans
seront homogènes. La nécessité d’avoir une vision détaillée
des dépenses, au sens analytique, pourra être répercutée sur les
achats à qui l’on demandera de répartir le détail des achats dans
des sous-catégories.

L’utilisation de ce type de solutions basées sur les datas qui sont


à la base des process a permis à une grande banque française
d’unifier en quelques clics les trente référentiels d’achats de ses
trente filiales et à un grand opérateur de télécommunication de
s’apercevoir qu’il n’avait jamais pu regarder, faute d’en avoir les
moyens humains, le poste formation de ses call centers que ses
sous-traitants chargeaient allégrement.

L’IA RÉINVENTE LES PROCESS

Cette nouvelle capacité à appréhender de manière globale et


pragmatique les process va obliger les entreprises à les repenser.
En effet, ceux-ci ont été mis en œuvre dans chacun des silos
et ont beaucoup de mal à interagir pour se nourrir simultané-
ment les uns des autres autrement que d’une manière unique-
ment séquentielle.

Contrairement à la RPA (Robotic Process Automation), qui


ne fait que reproduire et automatiser des process existants, l’IA
ne s’embarrasse pas des frontières et vient donner des solutions
qui impacteront globalement les silos et les obligeront à travail-
ler ensemble sur des données communes, des référentiels et des
process autrefois parallèles, qu’il va falloir désormais partager
et unifier.
L’IA transforme les process de l’entreprise 153

Le BPO (Business Process Outsourcing) et les centres de ser-


vice ont été une première étape dans la rationalisation des
moyens et des process des entreprises. L’IA et ses puissants ena-
blers vont générer un nouveau cycle où l’entreprise et ses pro-
cess vont devoir se réinventer.

AI BY DESIGN OU COMMENT
PENSER LES PROCESS

La maîtrise du potentiel de l’IA et de ses applications per-


met de repenser ou même de créer de nouveaux process en
y incluant immédiatement de l’intelligence artificielle et non
plus a posteriori. L’IA est un fantastique enabler qui peut rendre
un process ou un business immédiatement rentable, alors qu’il
ne l’aurait jamais été avec un traitement classique. C’est donc se
donner des opportunités extraordinaires que d’intégrer immé-
diatement l’IA au moment de la phase de design du process ou
de l’offre.
L’assureur Lemonade.com, par exemple, insurtech américaine
créée en 2015, entièrement basée sur le traitement de ses pro-
cess par de l’IA, rembourse un dégât des eaux en 90 secondes
dans 70 % des cas juste en vous demandant quelques photos
et une description des dégâts. Une révolution qui a permis à
cette société d’acquérir 1,9 million de clients avec une crois-
sance annuelle de 21 % et de développer son offre sur toutes
les autres verticales de l’assurance comme l’automobile, la vie
et les animaux.
L’IA au sein des process du core business est une révolution
comme l’ont été les systèmes d’information au cœur des socié-
tés. Les distributeurs qui n’ont pas intégré de systèmes d’infor-
mation au centre de leur activité peinent face à un Amazon
qui « drive » tout son business par un système d’information,
154 Guide pratique de l’intelligence artificielle dans l’entreprise

sur lequel il connecte maintenant toute l’IA qu’il veut pour


optimiser encore et encore. Il y a fort à parier que ce modèle
data driven que nous fait miroiter la transformation Data IA soit
une transformation beaucoup plus profonde de nos modèles
d’entreprise.
Chapitre 5

Les acteurs internes


de cette nouvelle transformation
Les acteurs internes de cette nouvelle transformation 157

La transformation digitale liée à l’IA n’est autre qu’une nou-


velle étape du change management dans laquelle, au-delà du diri-
geant et du Chief Data Officier, l’ensemble des collaborateurs
tiendra un rôle. Il faut comprendre celui qui sera dévolu à cha-
cun et la mission des postes clés.

LE VISIONNAIRE
Les leaders ont une vision stratégique à long terme de l’évo-
lution de leur entreprise. Il doit en être de même de l’ap-
port de l’IA pour l’impulser dans leur entreprise. Ce sont les
« visionnaires ».
Pour commencer, le visionnaire comprend les enjeux liés à
l’introduction de l’IA dans l’entreprise. Il connaît la pertinence
de cette technologie et son potentiel de gain de compétitivité.
Il a une compréhension globale de ce que sont les technolo-
gies de l’IA, des cas d’usage et de leurs différentes applications.
Il doit intégrer dans sa mission cette nouvelle transformation
et en être le porte-drapeau pour ses équipes. Ce sera bien
sûr le rôle central du Chief Data Officer (CDO), mais avant
tout du dirigeant, qui devra être à l’origine de cette prise de
conscience. À terme, et c’est le but du CDO, tout le manage-
ment devra revêtir ce rôle de visionnaire, chacun à son niveau
pour s’investir et devenir la courroie de transmission de cette
transformation.

LE REVELATEUR
Le « révélateur » sera notre phare dans cet océan des possibles
que sont les cas d’usage de l’IA dans l’entreprise. En effet,
au-delà des cas d’usage classiques de l’IA, ce sont les métiers
158 Guide pratique de l’intelligence artificielle dans l’entreprise

qui vont être en mesure de proposer des utilisations qui font


sens dans leur quotidien.
Le révélateur est le profil charnière de l’entreprise. Il connaît le
cœur de métier de l’entreprise, son propre métier et le process
dont il est le client. Il a intégré les grands principes et les usages
génériques des grandes familles d’algorithmes qui font l’intel-
ligence artificielle d’aujourd’hui.
Dans une démarche bottom-up, c’est ce type de profil qui sera
force de proposition. En ayant acquis seulement les grands
principes de l’IA du chapitre 1, il comprendra qu’un de ces
algorithmes peut lui apporter des gains de performance.
Le révélateur n’a pas la vision globale du schéma directeur Data IA
mais il en sera l’un des contributeurs actifs. Force de proposition
au moment de l’état des lieux et de la récolte des besoins, il repré-
sente un gain de temps, mais surtout le savoir de l’entreprise.

La demande doit venir des métiers

‘‘ Une grande partie de ma semaine, je suis à l’écoute


des fonctions métiers qui viennent me voir pour être
accompagnées dans la transformation de leurs métiers.
La demande existe car j’ai pu, dès le début, les intégrer
dans ma démarche en leur parlant non plus de l’expérience client
mais de l’expérience data, et en me mettant à leur service. ’’
Christophe Bonnefoux, Chief Data Officer,
BNP Paribas Asset Management

Ce profil demande un investissement de la part de l’entre-


prise. Il faut en effet former la personne, non pas sur la partie
mathématique et logique de ces algorithmes, mais sur leurs cas
d’usage. Pas de programmation ici, mais une compréhension
des principes et des applications de l’IA, permettant de détecter
une application potentielle dans son travail quotidien. Le révé-
lateur projette l’IA dans son métier.
Les acteurs internes de cette nouvelle transformation 159

L’UTILISATEUR

L’« utilisateur » est le personnage central de cette transforma-


tion. Il n’a pas besoin de comprendre les tenants et les abou-
tissants de l’IA. Quel utilisateur de Google connaît les bases
de données ou l’algorithme MapReduce ? Quel conduc-
teur connaît l’algorithme Djikstra de son GPS embarqué ?
Personne ! Nous sommes tous des utilisateurs.
Nous connaissons notre métier et notre besoin : cela suffit. L’IA
doit être intégrée à nos postes de travail pour que nous puis-
sions l’utiliser comme monsieur Jourdain fait de la prose, c’est-
à-dire de la même façon que toutes les autres briques logicielles
qui font notre quotidien et avec la meilleure interface qui soit.
En revanche, l’utilisateur doit être en mesure d’accepter ce que
l’IA va lui apporter. C’est la valeur perçue. Rien ne sert de
faire un investissement si le résultat est laissé de côté, si la valeur
ajoutée produite n’est pas perçue comme un réel apport et
utilisée. L’utilisateur a donc un rôle essentiel à jouer dans l’ex-
pression du besoin.
Le seul bémol porte sur l’absence de besoin d’une formation
de l’utilisateur. Nous l’avons vu, ce dernier peut être amené à
compléter l’apprentissage du modèle. En effet, on peut ima-
giner que des modèles soient développés pour des situations
standard du métier et que l’utilisateur puisse les adapter à son
tour à son environnement, à sa manière de travailler, à ses réfé-
rentiels… Cette adaptation se fera au travers d’un complément
d’apprentissage que le modèle proposera, soit au début de son
utilisation, soit au fil de l’eau pour s’adapter encore et encore.
Il faudra ici que l’utilisateur comprenne bien la portée de ses
choix sur les nouveaux apprentissages et surtout la notion de
biais, le plus gros écueil de ces technologies d’IA basées sur du
machine learning.
160 Guide pratique de l’intelligence artificielle dans l’entreprise

En parallèle, il sera utile de reprendre les bonnes vieilles


méthodes de change management qui ont fait leurs preuves et
que l’on appellera cette fois immersion data1, pour accompagner
ces utilisateurs dans la transformation qui leur sera imposée. Ils
vont, en effet, devoir se familiariser avec les nouveaux process
générés par l’IA, comme le management de la donnée, ainsi
que les différents rôles de responsable de la qualité des données,
les Data Stewards2. Ces rôles propres à la production de don-
nées se prolongeront par l’intégration des concepts de Data-as-
a-Product issus de la vision produit du data mesh3.
Le rôle du CDO sera de placer l’utilisateur au centre de la
transformation Data IA.

LES DIRIGEANTS ET LE COMITE DE DIRECTION


Les dirigeants, comme les managers, doivent être des vision-
naires. Au-delà d’être les Homo analyticus4 de toute leur
entreprise, il leur faudra parfaitement intégrer les enjeux de
l’introduction de l’intelligence artificielle pour donner les
moyens à leur entreprise et à ses principaux acteurs d’effec-
tuer leur transformation. Pour cela, une formation de quelques
jours sera nécessaire, afin qu’ils deviennent, s’ils ne le sont
pas déjà, des visionnaires. Cela leur permettra d’acquérir de
manière synthétique les bases, puis les prérequis de l’IA, son
potentiel et ses grands domaines d’application. Une fois ces
concepts bien assimilés, ils auront la possibilité de se projeter

1. Voir au chapitre 6, « L’immersion data et IA ».


2. Voir « Data Governance: Types of Data Stewards », in DAMA Inter-
national, DAMA-DMBOK: Data Management Body of Knowledge,
Technics Publications, 2017.
3. Voir au chapitre 6, « Du data management au data mesh ».
4. Voir au chapitre 8, « L’Homo analyticus ».
Les acteurs internes de cette nouvelle transformation 161

dans leur transformation Data IA et sur la manière dont elle


viendra servir les objectifs de l’entreprise, avant d’embarquer le
reste de la société.

Une transformation Data IA doit d’abord être portée


par la direction générale

‘‘ Le Chief Data Officer doit absolument bénéficier


du sponsorship de son Comex, si ce n’est du CEO. Dans le cas
contraire, il ne pourra malheureusement rien faire si ce
n’est quelques projets anecdotiques et qui n’ont rien à voir
avec la transformation Data IA d’une entreprise. Nous avons
cette chance à La Poste d’avoir un Comex entièrement acquis
à la cause. ’’
Pierre-Étienne Bardin, Chief Data Officer, La Poste

C’est dans cette configuration que l’entreprise et son mana-


gement pourront le mieux se préparer à se déployer, tout en
sensibilisant leurs salariés aux grands principes de l’IA, aux
objectifs que cette transformation viendra servir pour qu’ils
adhèrent au mieux à cette nouvelle collaboration entre l’hu-
main et la machine.

LE CHIEF DATA OFFICER (CDO),


RESPONSABLE DE LA TRANSFORMATION DATA IA
Le CDO est le « champion » désigné de la data et de l’IA. Ce
nouvel acteur dans l’organisation prend en charge une vraie
mission de change management, que la donnée et ses différentes
phases de déploiement imposent aux organisations.
Ce poste a été créé pour mettre en œuvre l’organisation néces-
saire à la réalisation d’une transformation Data IA réussie, que
nous détaillerons au chapitre 6. Au-delà de l’aspect purement
technique, qu’il va déléguer au fur et à mesure à la DSI, le
162 Guide pratique de l’intelligence artificielle dans l’entreprise

CDO a un rôle stratégique. Celui-ci est tout d’abord défensif,


car il doit remettre à niveau l’empreinte Data et IA de l’en-
treprise pour lui faire reprendre pied dans sa chaîne de valeur,
mais aussi offensif, à travers la mobilisation de toutes les forces
vives, comme la stratégie et le marketing, afin de ne pas repro-
duire les erreurs d’antan.
Cela implique bien sûr une autonomie maximale (empower-
ment), qui place souvent le CDO comme directement ratta-
ché, à travers son comité de direction, au dirigeant. Ce dernier,
dans son rôle de visionnaire, l’imposera au reste de l’organisa-
tion. Le CDO, grâce à l’aide apportée par le schéma directeur
Data IA dont il a la responsabilité, pourra changer la culture de
l’organisation pour la rendre data driven, afin d’être en mesure
de déployer ces nouveaux composants qui créeront la future
valeur de l’entreprise. Atteindre cette ambition demande aussi
au CDO de faire connaître à l’ensemble des métiers son rôle
et sa mission pour que la transformation Data IA prenne corps.
La mission du CDO se voit donc élargie à de nouvelles res-
ponsabilités qui lui donnent un rôle stratégique et lui permet-
tront, à terme, de livrer une nouvelle entreprise data driven.

LA DSI
La DSI a un rôle primordial à jouer, que ce soit pour la mise
en œuvre du socle technique qui sous-tend toute la gestion
de la donnée au sens large, la Self-Serve Data Platform du data
mesh1 et la gestion opérationnelle des modèles d’IA de l’entre-
prise. En effet, ces derniers occupent une place toujours plus
centrale dans le business et l’opérationnalité des sociétés. Les
forces commerciales de Pernod Ricard seraient perdues sans

1. Voir au chapitre 6, « Du data management au data mesh ».


Les acteurs internes de cette nouvelle transformation 163

leur assistant D-Star. Les téléconseillers de la MAIF ne pour-


raient plus répondre ou perdraient leur exceptionnel niveau de
qualité si leur assistant n’était plus disponible.
En effet, la DSI est « l’opérateur » du système d’information.
L’IA, une fois développée, doit rejoindre la cohorte des services
gérés par la DSI avec le bon SLA (Service Level Agreement,
ou « niveau de service négocié »), négocié par les métiers.
L’ensemble de l’outil « système d’information » doit garder
une cohérence, rester fiable et performant pour que l’IA ne
soit qu’un enabler qui vienne enrichir les workflows existants,
et non pas créer une infrastructure parallèle dont la qualité ne
serait pas maîtrisée. Le cloud et les services en SaaS ont permis
à la DSI de mettre en place des bonnes pratiques adaptées à
ces nouveaux services et de passer, en quelques années, d’un SI
monolithique à un ERP hybride1.
Nous devons à la DSI, et à la longue évolution de son métier,
la qualité actuelle de nos systèmes d’information. Et même
si l’agilité a pris le dessus, nous nous appuierons sur cet
acteur incontournable et emprunterons quelques-unes de ses
méthodes qui ont fait leurs preuves.
La DSI sera donc impliquée dès le début des projets, apportant
sa vision globale et sa maîtrise des systèmes, mais aussi comme
garant de la cohérence et de l’interopérabilité de ces nouveaux
systèmes.

1. Gartner, « Strategic Roadmap for Postmodern ERP », 2018.


Chapitre 6

Comment implanter l’intelligence


artificielle dans l’entreprise
Comment implanter l’intelligence artificielle dans l’entreprise 167

Les applications de l’intelligence artificielle sont multiples et


pratiquement infinies dans l’entreprise. Partout où il y a des
documents, de la data, de l’interaction et de l’action, il peut
y avoir potentiellement de l’IA. Cependant, les moyens de
l’entreprise sont limités, tous les chantiers ne peuvent pas être
démarrés en même temps. Il faut donc se donner des priorités
et une méthodologie pour aller à l’essentiel : servir les objectifs
business de l’entreprise.
Nous verrons dans ce chapitre qu’il existe trois temps forts
dans l’arrivée d’une technologie dans l’entreprise : les phases
d’innovation, de création de produit et d’industrialisation, puis
de commoditisation que nous adapterons à la transformation
Data IA.
Commençons par étudier le cycle de vie d’une telle transfor-
mation, avant de voir plus en détail chacune des méthodes et
les rôles nécessaires au bon déroulement de chaque phase.

LE CYCLE DE VIE DE LA TRANSFORMATION DATA IA


La data et l’IA n’échappent pas à la trajectoire classique de l’in-
troduction des technologies dans l’entreprise. Celle-ci démarre
par une phase d’innovation où l’on teste sa pertinence, se pour-
suit par une phase de conception du produit et d’industriali-
sation pour se conclure par le déploiement, afin de profiter du
potentiel de valeur. Ce déploiement passe aussi par la structu-
ration d’une organisation dédiée, le CDO Office, si la phase
d’innovation a été probante, et se termine toujours par une
forme de commoditisation menant à terme à une autonomi-
sation quasi complète des métiers. C’est le cycle de vie des
technologies dans l’entreprise que nous allons appliquer spéci-
fiquement à la data et l’IA et sur lequel nous allons appuyer la
transformation Data IA de l’entreprise.
168 Guide pratique de l’intelligence artificielle dans l’entreprise

Le schéma ci-dessous montre chacune de ces étapes et leurs


déclinaisons.
Innovation Schéma directeur Structurer Déployer
Data IA le CDO Office industriellement

• Acculturer • Cartographier • Gouvernance • AI & LLM Product Owners


• Favoriser l’émergence • Évaluer, Qualifier • Data management vers data mesh • Rôles Hybrides
• Choix des sand boxes • Impacts, Make or Buy • Modèle opérationnel • Combiner valeur, technique
• Qualifier, valoriser • Prioriser, Trajectoire de déploiement et inductrialisation
• Offre de service • Kits méthodologiques

Ces étapes sont des passages obligés pour prendre en compte


une technologie complexe comme la data et l’IA, l’intégrer à la
stratégie et au business de l’entreprise, qui va se structurer pour
la déployer et bien sûr créer de la valeur. Ce lien étroit entre
technologie et business, que nous appelons donc la création de
valeur, passe par une vision très analytique de l’apport de la data
et de l’IA pour être en mesure de prendre les bonnes décisions
d’investissement et de positionnement de son entreprise. La
réussite fulgurante des entreprises du digital nous a montré à
quel point il était important d’ancrer l’apport des innovations
dans sa stratégie et de disposer d’une vision globale. C’est donc
sous cet angle que nous allons entrevoir la transformation Data
IA.

INNOVATION DATA IA

L’innovation a, de tous temps, été le moteur de la croissance.


Le numérique au sens large, à la fin du siècle dernier, est venu
accélérer de manière exponentielle les cycles de transformation
dont nos entreprises subissent depuis toujours les soubresauts.
Il ne faut donc pas rater une opportunité de faire bon usage
Comment implanter l’intelligence artificielle dans l’entreprise 169

d’une technologie, mais aussi d’en apprendre les limites pour


éviter de mauvais usages que l’on appelle des « gouffres ». C’est
le rôle des directions de l’innovation à qui l’on confie la lourde
tâche de dénicher et d’intégrer de plus en plus vite la pépite
qui viendra soutenir mais surtout accélérer la croissance.

L’innovation

‘‘ La mission de l’innovation est de répondre à l’enjeu


de l’accélération des cycles d’innovation pour soutenir
nos business models existants, augmenter la performance
du groupe ou explorer de nouvelles opportunités de croissance.

Notre objectif est d’apporter au groupe la possibilité de se positionner


comme un acteur innovant dans les transitions énergétiques, environ-
nementales et sociétales que nous sommes amenées à subir. L’IA n’est
qu’une composante de cette transformation que l’on va aborder de la
même façon que les autres usages avec un enjeu de transformation,
d’ancrage dans les bonnes pratiques et de diffusion dans le groupe.

L’IA et la célérité avec laquelle elle se développe demandent une


veille toute particulière pour être en mesure de l’approprier et être
suffisamment agiles pour en tirer le meilleur parti à tout moment. ’’
Nathalie Collignon, directrice de l’innovation, Orano

Cette phase de veille technologique ne doit absolument pas


être délaissée car elle permet de valider l’apport business d’une
technologie, mais aussi de commencer une courbe d’apprentis-
sage qui permettra, le jour venu, d’être encore plus rapidement
opérationnel et adapté au contexte spécifique de l’entreprise.
Elle est tout d’abord axée sur l’obtention de la fonctionnalité
que viendra étayer ensuite la vision produit en intégrant des
notions de performance et de ROI pour pouvoir envisager le
passage à l’industrialisation.
170 Guide pratique de l’intelligence artificielle dans l’entreprise

Gouvernance de l’innovation

Dans ce contexte d’adoption effrénée, illustré par l’enthou-


siasme généré par ChatGPT, il est nécessaire d’adopter une
gouvernance inclusive en organisant une structure claire et
robuste, afin de guider l’innovation. Celle-ci va non seulement
faciliter la capitalisation sur l’ensemble des initiatives, stimulant
un apprentissage collaboratif, mais aussi permettre d’éliminer
les doublons et de rationaliser les infrastructures techniques qui
vont être sollicitées pour les POC (proof of concept).
Cinq chantiers clés structurent cette gouvernance :
1. Veille et innovation : pour rester à la pointe des avancées
technologiques et des tendances du marché.
2. Acculturation et formation : pour continuer à fami-
liariser les métiers avec les nouvelles technologies et
méthodologies.
3. Émergence et cas d’usage : pour identifier et qualifier
les applications potentielles ;
4. Expérimentations et développements : pour tester et
affiner.
5. Communication : pour assurer une diffusion claire et
transparente des informations, embarquer les métiers et la
direction générale.

Face à l’afflux de propositions, il est essentiel de les traiter, de les


évaluer et de les qualifier. La gouvernance offre un cadre per-
mettant d’assurer des retours circonstanciés, basés sur des critères
transparents, à ceux qui proposent des idées ou des projets. Elle
guide également les décisions d’investissement, en privilégiant
les cas d’usage les plus pertinents d’un point de vue business, et
affinitaires avec le métier de l’entreprise pour qu’ils soient « par-
lants » aux collaborateurs, tout en encourageant la libre initiative
Comment implanter l’intelligence artificielle dans l’entreprise 171

et en garantissant une connaissance des initiatives en cours.


Pour assurer un apprentissage exhaustif, il faut aussi intégrer les
erreurs à ne pas faire et capitaliser sur les POC réussis autant que
sur ceux qui ont démontré une immaturité technologique ou
organisationnelle.Toute l’organisation apprendra d’autant.
Avec une solide gouvernance de l’innovation en place, l’en-
treprise est mieux préparée pour intégrer la valeur des inno-
vations et, tout en assurant une communication efficace avec
la direction générale, projeter l’entreprise dans une dynamique
d’« entreprise apprenante », industrialisant le processus d’inno-
vation pour le maintenir dans la durée.

Acculturation

L’acculturation doit intervenir dès le lancement de la démarche


d’innovation dans l’entreprise. Si les innovateurs n’ont besoin de
personne pour découvrir une technologie, tout le monde n’a pas
cette possibilité ou même le temps de s’intéresser aux innovations
qui pourraient potentiellement révolutionner leur travail. Il faut
parfois être proactif et stimuler cette rencontre. La data et l’IA
sont porteuses de nouveaux concepts et paradigmes qui néces-
sitent, pour certains métiers, du temps pour les assimiler et se pro-
jeter. L’acculturation est donc une étape essentielle dans laquelle il
faudra faire preuve d’imagination et savoir susciter l’intérêt.
Les directions de la stratégie sont trop souvent les oubliées de cette
acculturation. Elles sont pourtant le moteur de la croissance orga-
nique de l’entreprise. La data et l’IA permettent de générer de
nouvelles offres, de nouveaux revenus, de valoriser des assets de
l’entreprise, de se déplacer sur la chaîne de valeur et de contrer une
éventuelle réintermédiation. L’acculturation va permettre de les
intégrer au plus vite dans ce cycle d’innovation, afin qu’elles soient
parties prenantes de cette transformation plutôt que de la subir.
172 Guide pratique de l’intelligence artificielle dans l’entreprise

Favoriser l’émergence
Seuls les métiers de l’entreprise sont vraiment capables de
prendre en compte et de valider la création de valeur d’une
technologie, si tant est qu’on leur donne un cadre méthodo-
logique leur permettant de factualiser cette validation. Il faut
donc aller vers eux et leur permettre d’en tester la pertinence,
afin de recueillir le fruit de leurs réflexions et d’être en mesure
d’en faire profiter, dans les meilleurs délais, une direction géné-
rale qui seule donnera les moyens de la généraliser au titre de
la croissance de l’entreprise.

L’impact de l’IA générative doit être envisagé


dans sa globalité

‘‘ Le sujet de l’IA générative est un sujet sensible, complexe,


notamment en termes d’éthique et de sécurité. Il y a des
questions sur les emplois et beaucoup d’incompréhensions,
de méconnaissances et de peurs. Pour identifier des cas d’usage
cohérents avec la stratégie à court terme, il est important
de ne pas faire que du top-down mais aussi du bottom-up
avec les points de douleur exprimés par les collaborateurs. ’’
Siddhartha Chatterjee, Global Chief Data Officer, Club Med

Ce processus bottom-up s’appelle l’« émergence » et doit être


adapté à la culture de l’entreprise. Il s’agit de mettre en place les
bons leviers qui vont déclencher l’appétence des métiers à l’in-
novation, afin que celle-ci s’intègre naturellement à la propre
démarche d’amélioration incrémentale de chacun. Cette agilité
demandée aux métiers dès la phase d’innovation s’apparente à
une forme de lean management intégrant la data et l’IA.

Le collaborateur doit devenir acteur de l’innovation

‘‘ Dans des environnements qui ne sont pas forcément


enclins au changement, l’innovation managériale et culturelle
permet à chaque collaborateur de devenir acteur de
Comment implanter l’intelligence artificielle dans l’entreprise 173

l’innovation et de se sentir le droit de transformer son métier.


Un travail de longue haleine qui passe par l’inspiration,
le partage, la collaboration et la prise en compte de ces
propositions, y compris le droit à l’erreur. Ce qui compte,
c’est de tirer les enseignements de ces essais. ’’
Nathalie Collignon, directrice de l’innovation, Orano

L’acculturation au machine learning a pris de longues années et


coûté des fortunes en sessions de formation, en ateliers d’idéa-
tion, en « Call for AI » et en mise à disposition d’environnements
de tests, les fameux « bacs à sable ». Elle s’est par contre réalisée
en quelques mois pour l’IA générative avec un Open AI et un
Microsoft qui ont réalisé pour nous l’évangélisation des métiers,
mis à disposition le plus grand bac à sable du monde, ChatGPT,
et emporté l’une des adoptions des plus rapides de l’histoire.
Ce n’est qu’après avoir obtenu des résultats concrets à travers
des POC (proof of concept) issus de l’émergence, qu’il faudra
aussi acculturer les directions générales en leur apportant des
preuves factuelles et quantifiées de l’apport de ces technolo-
gies, car la science-fiction ne les intéresse pas. Elles attendent
du concret en lien avec leurs objectifs à court terme et leur
stratégie. C’est le moment clé qui permettra de passer à l’étape
suivante dans laquelle, convaincues du potentiel de valeur, les
directions générales demanderont de pouvoir évaluer une tra-
jectoire et son ROI à travers un schéma directeur Data et IA
préparant la phase de déploiement industriel.

Projeter la valeur au-delà de l’innovation

L’innovation est une phase bottom-up qui doit donc fortement


intégrer les métiers, afin d’assurer une pertinence opération-
nelle. Le « up » arrive rarement jusqu’à la direction géné-
rale alors qu’elle a besoin de la visibilité sur ce que produit
174 Guide pratique de l’intelligence artificielle dans l’entreprise

l’innovation sur une technologie pour, le cas échéant, être en


mesure d’accélérer la phase d’industrialisation. Il faut donc
communiquer tout au long du processus d’innovation vis-à-
vis d’elle, afin qu’elle puisse identifier le potentiel de création
de valeur généré par les initiatives des métiers. Cela nécessitera
parfois de passer par des POV (proof of value). C’est là, la clé de
la réussite.
Cet effort ne doit pas rester lettre morte et ne servir qu’à une
validation, bien au contraire. Il est le fruit d’un travail de fond
des métiers qui se seront beaucoup investis et auront produit
quelques pépites. Ces dernières ne demanderont qu’à être
industrialisées dans une démarche projet concrète et structurée.
C’est le but de la première étape du schéma directeur Data IA,
qui consiste à faire l’état des lieux et à intégrer l’existant. Une
phase absolument nécessaire qu’il faudra ensuite industrialiser,
elle aussi, car l’innovation n’est pas un instant mais un flux qui
ne s’arrête jamais.

DU PRODUIT A L’INDUSTRIALISATION

Le passage de l’innovation vers l’industrialisation ne se fait


qu’après que la direction générale a été convaincue de la perti-
nence de l’apport factuel de cette technologie à la stratégie et
aux objectifs de l’entreprise. C’est alors que l’innovation doit
passer la main au Chief Data Officer qui va affiner et impulser
une vraie vision produit pour que la data et l’IA se déploient
de manière industrielle dans l’entreprise.
Cette décision émane du top management qui, après avoir posi-
tionné un Chief Data Officer, lui donnera comme mission
de revenir avec une trajectoire permettant à l’organisation de
se projeter dans sa transformation Data IA. Cette trajectoire
intégrera l’évolution des compétences et de la culture, le socle
Comment implanter l’intelligence artificielle dans l’entreprise 175

technique, le data management et la gouvernance à mettre en


place, ainsi que l’identification des cas d’usage à forte valeur.
C’est la raison d’être du schéma directeur Data IA.
Après une innovation bottom-up, le passage à l’échelle et l’indus-
trialisation de la transformation Data IA passent par cette phase
top-down qui va permettre à l’entreprise de franchir toutes les
étapes que nous allons décrire.

Le CDO Office

Le déploiement industriel de l’intelligence artificielle ne se


décrète pas. Il s’organise car son impact est si profond qu’il faut
embarquer un nombre incalculable de parties prenantes. Afin
d’assurer cet embarquement, le CDO devra s’entourer de rôles
et compétences clés qui viendront constituer son CDO Office.

La qualité des équipes est un facteur clé de succès

‘‘ Il faut savoir aller chercher des talents et s’entourer


d’équipes pluridisciplinaires. Cela passe par l’attractivité
de l’entreprise pour les recruter, mais surtout par la montée
en compétences des expertises internes sur ces nouveaux
métiers. Il s’agit de diffuser le plus largement possible le savoir-
faire et les compétences pour gagner en autonomie partout
dans l’entreprise. ’’
Pierre-Étienne Bardin, Chief Data Officer, La Poste

Le rôle du CDO Office, porté par le CDO, peut se décompo-


ser en trois piliers majeurs :
1. Valeur et usage : construire la vision Data IA et assurer la
création de valeur avec des schémas directeurs holistiques.
2. Socle et gouvernance : mettre en place des socles et
piloter la transformation par une gouvernance claire, un
176 Guide pratique de l’intelligence artificielle dans l’entreprise

modèle opérationnel partagé, et un data management à l’état


de l’art.
3. Culture et capital humain : accompagner et animer la
transformation de culture et de compétences pour tendre
vers une entreprise data driven.

Un programme dévolu au CDO, qui doit mettre en place des


feuilles de route, des comités, des process, des rôles et des indi-
cateurs qui lui permettront, à différents niveaux, d’industriali-
ser cette transformation pour qu’elle tienne ses promesses et
s’inscrive dans la durée.
La structure du CDO Office

métiers
Direction

CDO Office

Engineer

Machine Learning
Engineer

Opération
Data

A Owner

Owner Analyst

Déclinaison
Réalisations
des schémas des schémas directeurs
IA IA priorisés
Comment implanter l’intelligence artificielle dans l’entreprise 177

Le schéma directeur Data IA


La mission première du CDO Office sera de créer une vision
de la transformation Data IA et de définir une trajectoire : le
schéma directeur Data IA.
Pour autant, l’intelligence artificielle n’est qu’une nouvelle
étape dans la vie des systèmes d’information. Elle s’inscrit dans
la continuité de la transformation digitale et de l’excellence
opérationnelle. Ces nouvelles solutions, basées sur des modèles
prédictifs que l’on ne programme pas mais qui apprennent, une
fois mises au point sont intégrées dans les workflows et les sys-
tèmes d’information de l’entreprise. C’est donc bien d’inté-
gration d’éléments de systèmes d’information classiques dont
il s’agit et qu’il faut remettre dans un formalisme qui a fait ses
preuves : le schéma directeur.
Les schémas directeurs informatiques ont structuré la démarche
de générations d’informaticiens et de DSI en leur permet-
tant, face à la montagne de travail qui les attendait, de mener
à bien des projets pharaoniques. C’est de cette méthode que
nous allons nous inspirer ici sans toutefois reprendre ses for-
malismes, mais pour donner un cadre au déploiement de l’in-
telligence artificielle et faire gagner rapidement l’entreprise en
compétitivité.

Pourquoi un schéma directeur pour la data et l’IA ?


Il existe d’innombrables possibilités de déployer de l’IA dans
l’entreprise sous toutes ses formes, dans tous les process et dans
pratiquement tous les métiers. L’IA est une TUM, une tech-
nologie à usage multiple, et la phase d’innovation donne lieu
à un foisonnement qu’il faut savoir à un moment contenir et
structurer. D’autre part, au-delà de l’aspect fonctionnel et de
la notion de choix, mais aussi de roadmap que nous aborde-
rons, il faudra également prendre en compte l’impact de l’IA
178 Guide pratique de l’intelligence artificielle dans l’entreprise

sur les métiers et les process, les repenser, former et parfois


même recruter. Le schéma directeur Data IA, qui doit mainte-
nant intégrer les LLM, est, comme son homologue le schéma
directeur informatique, une étape majeure pour la définition, la
formalisation, la mise en place ou l’actualisation non plus uni-
quement de systèmes d’information mais de tâches, de métiers
ou de process augmentés par de l’intelligence artificielle.

C’est toute l’organisation du travail et de l’entreprise qui sera


impactée par l’arrivée de l’IA et qu’il faut prévoir et organiser.
C’est donc dans cet esprit que nous proposons de donner une
méthode d’analyse du déploiement de l’intelligence artificielle
spécifiquement adaptée, que nous appelons « schéma directeur
Data IA ».

Ce dernier est rarement fait d’un bloc. S’il utilise toujours la


même méthodologie, il peut être réalisé avec différentes granu-
larités suivant la taille de l’entreprise. Il pourra ainsi être découpé,
selon les cas, par métiers, processus, fonctions supports, le core
business ou les nouvelles offres. Le schéma directeur, comme le
modèle opérationnel que nous verrons plus loin, est un élément
structurant de la construction de l’organisation, qui permet
de déployer la transformation Data IA. Il conviendra donc de
s’adapter aussi à la maturité de l’entreprise pour qu’à travers ces
différentes étapes tactiquement bien choisies, sa maturité, son
organisation et ses infrastructures évoluent de manière conti-
nue sans à-coup. Nous parlerons donc ici de schéma directeur
Data IA quel que soit son domaine d’intervention.

Le Chief Data Officer porte le schéma directeur Data IA

Le schéma directeur Data IA est l’outil de prédilection du


CDO pour mener à bien cette transformation. Il permet en
effet de faire apparaître l’ensemble des cas d’usage venant
servir les objectifs business de la société, de s’assurer de leur
Comment implanter l’intelligence artificielle dans l’entreprise 179

faisabilité, du niveau d’attente et d’acceptation des futurs uti-


lisateurs, d’évaluer leur ROI et, enfin, de chercher les bonnes
compétences ou solutions du marché pour les mettre en place.
Outre ses vertus de structuration de la démarche dont le CDO
a besoin, le schéma directeur permet à la direction, ainsi qu’à
tous les managers, d’obtenir une vue d’ensemble, de prendre
conscience des enjeux, de faire les bons choix et d’accompa-
gner ces changements fondamentaux pour soutenir la crois-
sance et assurer la survie de l’entreprise.

Structurer sa démarche de schéma directeur Data IA


Le schéma directeur Data IA est là pour vous protéger, vous
permettre de faire les bons choix en adoptant une seule
métrique : la performance.

Le schéma directeur est une démarche structurée,


rationnelle et éthique

‘‘ Quand il y a une disruption, il faut une bonne méthode


de transformation pour capitaliser sur les opportunités.
C’est le schéma directeur. Il faut effectivement une
démarche extrêmement structurée, rationnelle et éthique
qui mélange bien une vision long terme avec des gains à court
terme (pour embarquer les équipes dans cette aventure).
Sans schéma directeur, on peut aller dans tous les sens et rater
les vrais objectifs : générer de la croissance pour l’entreprise
et de la satisfaction pour les collaborateurs. ’’
Siddhartha Chatterjee, Global Chief Data Officer, Club Med

Afin d’adresser cet enjeu clé des entreprises, il permet d’analyser


de manière exhaustive l’ensemble des leviers de performance et
de génération de revenus rendus possibles par l’IA. Sachant que
les propositions de valeur générant du revenu sont particulière-
ment appréciées d’une direction générale qui découvre et qui a
besoin de se rassurer. De la même manière, les fonctions supports
regorgent de potentiels, mais n’embarquent malheureusement
180 Guide pratique de l’intelligence artificielle dans l’entreprise

pas les métiers du core business et faiblement les directions géné-


rales. Ces fonctions doivent par contre être optimisées mais ne
peuvent pas être le fer de lance de la transformation.

Il sera ensuite possible de proposer une trajectoire pragma-


tique de transformation par l’intelligence artificielle intégrant
l’ensemble des dimensions business, technologiques, humaines,
réglementaires, sociales et environnementales.

Une démarche en six étapes clés permet de réaliser cette analyse


et d’orienter les entreprises vers une trajectoire de transforma-
tion intégrant la data et l’IA, comme le montre le schéma suivant.

Le schéma directeur Data IA

1 2 3 4 5 6
Analyse Orientation
Objectifs Trajectoire
s
Diagnost &
stratégique
ic & s&
Référenceme Ateliers métiers Évaluation Stratégie Trajectoire
nt des d’identification stratégique des cas make or budgétisée
initiatives de cas d’usage d’usage Buy par de cas
data et IA verticale d’usage Dat
Identification technologique IA
et analyse des et cas
Diagnostic d’usage
solutions Data IA Lancement
Cartographie des processus
des compétences des 1ers
quick-wins
back-office sous Fiches
l’angle Data IA Évaluation d’opportunit
des impacts é&
métiers et business
process cases par
cas d’usage
Data IA
Diagnostic de Analyse des prérequis et impacts
&
maturité Data IA d’architecture et de données : au
du SI global & par cas d’usage Priorisatio

7 n

Communication & conduite du changement

Schéma directeur Data IA étape 1 :


analyse des objectifs stratégiques

La réussite d’une entreprise passe par un savant mélange entre


vision, réaction, adaptation au marché, mitigation du risque et
parfois même survie. C’est de cette synthèse que naissent la
stratégie de l’entreprise et ses priorités.
Comment implanter l’intelligence artificielle dans l’entreprise 181

Les entreprises ont donc toutes, d’une manière ou d’une autre,


une stratégie qui structure leurs objectifs à court, moyen et
long terme. Le management et les collaborateurs déploient
une énergie infinie pour arriver à leurs fins. La transformation
Data IA ne fait sens que si elle vient contribuer à cet « effort
de guerre ».

L’IA augmente la compétitivité

‘‘ Nous recherchons dans l’utilisation de l’IA une optimisation


des process par de l’analyse massive de données de manière
prédictive, afin de mieux répondre aux attentes de nos clients et
de nous permettre d’être plus compétitifs sur nos marchés. ’’
François-Xavier Enderlé,
directeur transformation digitale groupe, Groupama

Dans un premier temps, il est donc important de s’imprégner de


cette stratégie au contact de la direction générale qui l’a définie
et en porte la responsabilité. La méthode des OKR (Objectives
and Key Results) permet de matérialiser et de traduire quantita-
tivement ces objectifs. Une méthode inventée par Andy Grove,
le célèbre fondateur d’Intel, puis reprise par Google et toute
l’industrie pour « driver » leurs priorités justement vis-à-vis de
leur stratégie. Une méthode analytique désormais largement
utilisée par toutes les organisations. En effectuant ce premier
travail, il est possible de bénéficier de critères objectivés conçus
avec la direction générale pour qui l’évaluation des gisements
de gain de performance dans ce référentiel fera sens.
En liant l’évaluation d’une technologie aux objectifs business
de l’entreprise, cette étape permet d’identifier les enjeux stra-
tégiques de l’entreprise et ainsi de comprendre deux points
majeurs qui viennent se compléter :
1. Comment l’IA va-t-elle permettre à l’entreprise d’atteindre
ses objectifs stratégiques ?
182 Guide pratique de l’intelligence artificielle dans l’entreprise

2. Comment la stratégie de l’entreprise peut-elle être revue


pour intégrer le potentiel de l’intelligence artificielle ?

En effet, l’IA pouvant être déployée sur l’ensemble de la chaîne


de valeur d’une organisation, cette technologie est un levier
d’activation de la stratégie de l’entreprise, mais également, et
surtout, un driver clé de la transformation du modèle d’affaires
de l’entreprise qui doit lui permettre d’accroître sa compétiti-
vité et de stimuler sa croissance.
Le pragmatisme est de mise. En effet, si l’IA apporte des solu-
tions d’optimisation dans toutes les dimensions de l’entreprise,
rien ne sert d’optimiser un business qui a un problème structu-
rel. Nos amis américains qui ont un sens pragmatique hors du
commun ont l’habitude de dire « Check Business Issue First » :
vérifiez d’abord que vous n’avez pas un problème structurel
dans votre business.
Schéma directeur Data IA étape 2 :
état des lieux et diagnostic
Le diagnostic intègre toutes les dimensions sur lesquelles le
schéma directeur va se baser pour découvrir des gains de per-
formance et argumenter ses propositions.
Le diagnostic peut se segmenter en trois dimensions.
• Le diagnostic business – Une compréhension fine du
business model et de l’environnement compétitif de l’en-
treprise permet de comprendre immédiatement les axes
d’amélioration et le potentiel à aller chercher dans l’organi-
sation avec la data et l’IA.
• Le diagnostic data et SI – La phase d’innovation a été un
extraordinaire moment de foisonnement dans toute l’entre-
prise. La gouvernance de l’innovation a fait de son mieux
pour recenser ces initiatives, mais il faut absolument inté-
grer les potentielles pépites, afin de les évaluer au regard du
Comment implanter l’intelligence artificielle dans l’entreprise 183

nouvel objectif dans lequel le schéma directeur s’inscrit :


servir les objectifs de la direction générale. Le socle data, la
maturité méthodologique et technique de la DSI vis-à-vis
de ces nouveaux services à opérer, ont toute leur impor-
tance dans le bon déroulement des futurs déploiements.
Cette vision doit être complétée par une cartographie des
compétences pour être en mesure d’évaluer la capacité opé-
rationnelle de l’organisation à délivrer.
• Le diagnostic humain et organisationnel – Avec l’inté-
gration applicative, le management du changement est égale-
ment la partie la plus compliquée. Une compréhension de la
sensibilité à l’apport des nouvelles technologies et du niveau
d’acceptation du changement permettra d’intégrer cette
composante majeure dès le début du processus de qualifica-
tion des cas d’usage en fonction de la population ciblée.
Le diagnostic organisationnel est réalisé sous deux angles : sta-
tique et dynamique. L’entreprise, dans son ensemble, a-t-elle des
processus « standard » ou y a-t-il eu une forme de créativité
qu’il faudrait prendre en compte ? A-t-elle pris conscience des
besoins organisationnels liés à une transformation Data IA ? A-t-
elle nommé un CDO ? Esquissé la structuration de son CDO
Office ? La DSI est-elle prête à accepter cette nouvelle organi-
sation, cette nouvelle intégration, cette délégation à un CDO ?
Comprend-elle l’aspect stratégique de la transformation Data
IA ou reste-t-elle ancrée à un niveau purement technique ?
Un diagnostic dynamique aussi, car il faut estimer la capacité à
évoluer de l’organisation. Des processus peuvent être totalement
sclérosés par des choix historiques, des dead-locks insurmontables.

Ce diagnostic donnera une vision sociodynamique de l’entre-


prise, de ses collaborateurs et de ses processus qui permettra d’ap-
puyer le schéma directeur sur la réalité de l’entreprise et prendre
les décisions tactiques qui feront évoluer sa maturité data et IA.
184 Guide pratique de l’intelligence artificielle dans l’entreprise

Schéma directeur Data IA étape 3 :


cartographie et évaluation

À la question récurrente des entreprises cherchant à déployer


de l’IA, « où faut-il en mettre et par quoi faut-il commen-
cer ? », une seule réponse doit les guider : trouver des gise-
ments de valeur contributeurs à leurs objectifs.
Cartographier les gisements de gain de performance
Cette recherche s’effectue de quatre manières différentes :
• Des ateliers métiers – Les métiers sont des « révélateurs ».
Ils connaissent mieux que quiconque leurs besoins et sont
à même de les décrire. Que ce soit pour révéler des points
de douleur, des améliorations en matière d’efficacité opéra-
tionnelle ou des opportunité de nouveaux revenus, il fau-
dra savoir aller au devant d’eux sous forme d’entretiens ou
d’ateliers. En utilisant des méthodes rigoureuses, ces ateliers
et entretiens permettront aux métiers de disposer des clés
pour comprendre les domaines d’application de la data et
de l’IA, mais aussi faire le lien avec leur activité, le business
et les objectifs de l’entreprise déclinés sur leurs missions,
leurs propres OKR.
• L’étude des processus – Les processus de l’entreprise
regorgent d’opportunités de gagner en efficacité opéra-
tionnelle. De nombreux traitements manuels sont mainte-
nant automatisables pour tout ou partie. Il est très rarement
possible d’automatiser des processus de décision à 100 %.
En effet, beaucoup de cas spécifiques ne peuvent être trai-
tés que par l’humain et non par une statistique basée sur
la théorie des grands nombres. Elle ferait ici une erreur
trop importante qui, pour le coup, coûterait trop cher. En
revanche, gagner 20, 30 ou 40 % est une contribution à la
marge qui pourra, à un moment ou à un autre, faire la diffé-
rence sur un marché. Cependant, il est primordial d’étudier
Comment implanter l’intelligence artificielle dans l’entreprise 185

un processus dans sa globalité afin de ne pas optimiser un


segment de celui-ci qui ne serait pas sur le chemin critique
et qui de fait n’aurait aucun impact et ROI. De nombreuses
entreprises ont déjà recensé leurs processus ou disposent
d’équipes spécialisées avec qui il sera possible de travailler
sur ces optimisations.

• La recherche d’opportunités business – Au-delà de


la transformation de l’existant, il est également possible de
générer de nouvelles sources de revenus inenvisageables
avant l’arrivée de l’IA. Ce sont les revenus AI First. Ces der-
niers sont basés sur des produits que l’IA va entièrement
piloter et qu’il n’était pas possible de produire sans elle. La
valorisation de la donnée à travers l’utilisation de l’intelli-
gence artificielle pour créer de nouvelles offres liées au core
business est un réel gisement de nouveaux revenus. Faut-il
encore pour cela être en mesure de créer ces nouvelles
offres. En effet, cette prérogative est dévolue au marketing
produit et il lui est impossible de créer des offres basées sur
l’enabler IA sans avoir une maîtrise minimale du potentiel de
cette technologie et de ses différentes facultés. Il faudra donc
dans cette phase du schéma directeur Data IA travailler aussi
avec la stratégie et le marketing produit, tout en les formant
pour qu’ils puissent, au fur et à mesure de l’évolution de leur
maturité, proposer de nouvelles offres AI First liées au core
business ou prendre des positions en se déplaçant dans leur
chaîne de valeur, sources de nouveaux revenus.

La vision analytique d’une technologie


peut être génératrice de business

‘‘ Il y a des entreprises qui par la maîtrise des technologies


et la maîtrise des analytiques arrivent à s’ouvrir de nouvelles
opportunités de business qui sont totalement hors de portée
de ceux qui ne les maîtrisent pas. Le meilleur exemple
186 Guide pratique de l’intelligence artificielle dans l’entreprise

étant les premiers moteurs de recommandation qui ont


généré directement du business. Encore fallait-il maîtriser
parfaitement cette vision analytique amenée par la technique. ’’
Louis-David Benyayer, Affiliate Professor,
Scientific Director Executive Msc Big Data
and Business Analytics, ESCP Business School

Skywise, l’offre de maintenance prédictive d’Airbus, est cer-


tainement le meilleur exemple d’offre basée sur des données
clients. En connectant ses avions, l’avionneur reçoit assez d’in-
formations pour réaliser de la maintenance prédictive. En ayant
modélisé les signes précurseurs de dégradation ou de défail-
lance de chacune des pièces, Airbus est capable de pousser
au maximum leur durée de vie et ainsi de réduire les coûts
de maintenance des avions en optimisant aussi la fréquence
des interventions préventives. Ce service, proposé à ses clients
grâce à l’IA, est payant et est un excellent exemple de dépla-
cement dans la chaîne de valeur et de génération de nouveaux
revenus AI First.
Un des enjeux forts de l’IA, comme il l’a été pour toutes les
technologies du digital, est de ne pas laisser la possibilité à de
nouveaux entrants, AI by design, de désintermédier l’entreprise
sur son propre marché. L’IA permet de se déplacer le long de sa
chaîne de valeur. La donnée étant un actif pervasif, un nouvel
entrant peut désintermédier une entreprise avec seulement 10 %
de ses données. Demandez à Hilton s’il apprécie Booking.com.
• Des benchmarks – Les benchmarks, réalisés sur des acteurs
équivalents ou sur sa chaîne de valeur, permettent de se
faire rapidement une première idée du potentiel de géné-
ration de valeur sur les trois dimensions précédentes. Cette
méthode très top-down fait gagner beaucoup de temps. Elle
permet, en effet, de se mettre tout de suite au moins au
niveau de son écosystème et de disposer rapidement d’une
première vue hélicoptère du potentiel trouvé par ses pairs.
Comment implanter l’intelligence artificielle dans l’entreprise 187

Toutefois, il s’agit là d’une photo incomplète qui ne prend


pas en compte les spécificités de l’entreprise, ne lui permet-
tant pas de se différencier ni d’embarquer les métiers. Elle
ne suffit donc pas.

La mécanisation libère l’humain des tâches répétitives

‘‘ Les métiers vont se déplacer dans leur chaîne de valeur


pour plus de service. Moins dans le traitement mais plus dans
le service et donc plus visibles par le client. Nous avons pour but
d’augmenter la quantité et la qualité de la relation avec le client.
Un raisonnement valable avec nos clients externes mais aussi
avec ceux des process internes pour assurer davantage de fluidité
dans l’entreprise. ’’
François-Xavier Enderlé,
directeur transformation digitale groupe, Groupama

Évaluer les gisements de gain de performance :


bénéfices, moyens et impacts

L’évaluation des cas d’usage doit s’effectuer dans un référentiel


qui permet de se représenter au mieux leurs impacts sur l’en-
treprise et la manière dont ils vont venir répondre aux objectifs
premiers de la direction générale.
Quatre grandes familles de modèles de cas d’usage doivent
ainsi être considérées.
• Optimisation opérationnelle d’un métier ou d’un
processus – À création de valeur constante, ces cas d’usage
permettent de réduire les coûts opérationnels du métier ou
du processus.
• Augmentation de la performance d’un métier ou
d’un process – Augmenter la création de valeur d’un métier
ou d’un processus sans accroître les coûts opérationnels.
• Création de valeur nouvelle, induisant un investis-
sement et augmentant les coûts opérationnels – Ce
188 Guide pratique de l’intelligence artificielle dans l’entreprise

modèle intègre les revenus AI First et est celui qui demande le


plus d’attention. Il change en effet du tout au tout le business
model du métier ou du processus. Du fait d’un investissement
ayant un impact fort sur la chaîne de valeur, une étude poussée,
notamment marché, sera nécessaire compte tenu des enjeux.
• Transformation complète d’un métier ou d’un pro-
cessus – La métamorphose complète d’un métier ou d’un
processus est une révolution pour l’entreprise. Autant les
nouveaux entrants partent d’une feuille blanche qu’ils
habillent AI by design, autant l’entreprise a un historique, un
existant, un legacy et des collaborateurs dont la transforma-
tion aura un coût qu’il faudra prendre en compte.
Segmenter les cas d’usage dans ce référentiel de modèles est
essentiel pour s’assurer de l’utilisation des bonnes méthodolo-
gies d’analyse des bénéfices, moyens et impacts pour chacun.
Une fois le cas d’usage catégorisé, il est ensuite possible de
l’évaluer dans un référentiel décrivant les bénéfices, moyens et
impacts dans six dimensions.
Dimension business
D’un point de vue purement business, le ROI est l’indicateur
clé de cette transformation liée à l’augmentation de la compé-
titivité de l’entreprise. Il est non seulement le meilleur indica-
teur, mais aussi celui qui permettra le consensus. Au-delà de la
performance et de la rapidité à atteindre, ce ROI sera à prendre
en considération. Les organisations les plus matures ayant déjà
démontré à leurs Comex leur capacité à générer de la valeur
par l’IA pourront se lancer dans des projets « blockbusters » dont
le ROI est à moyen terme généralement inférieur à un ou deux
ans. Ce n’est pas le cas des organisations moins matures qui
devront privilégier des cas d’usage peut-être moins ambitieux
mais à ROI business très rapide pour convaincre et embarquer,
les « quick wins ».
Comment implanter l’intelligence artificielle dans l’entreprise 189

Dimension technique

La faisabilité est un paramètre trop souvent oublié, qui néces-


site de prendre en compte une évaluation de la complexité. L’IA
a ses limites qu’il faut savoir respecter pour ne pas tomber dans
un « gouffre » : le cas d’usage infaisable, hors spectre fonctionnel
de l’IA, réservé à un laboratoire de recherche, trop gros, trop tôt,
trop Star Trek… En effet, un projet est « faisable » si son déve-
loppement est classique et ne s’apparente pas à de la R&D dont
on ne connaît pas l’issue.Toutefois, si la faisabilité technique est
la seule dimension disqualifiante d’un cas d’usage, étant donné
la rapidité des évolutions technologiques et de la recherche, il
conviendra de réitérer les études de complexité fréquemment,
afin de ne pas négliger un gisement de valeur potentiel majeur.

Les compétences internes, nécessaires au développement


du cas d’usage, doivent être évaluées car elles rentrent en partie
dans la complexité relative du cas d’usage lorsqu’on le remet
dans le contexte de l’entreprise. Toutes les équipes ont une
maturité et une courbe d’apprentissage qu’il faut scrupuleu-
sement respecter sans leur faire brûler d’étape, sous peine de
mettre en péril la réussite d’un projet.

La qualité des données est un paramètre fondamental.


L’évaluation de cette qualité est au cœur du déploiement du data
management. Il faut donc disposer d’indicateurs de qualité fiables
pour chaque donnée. Ces derniers permettront de calculer la dis-
tance à la donnée, l’effort qu’il faut fournir en termes de captation
et de management pour disposer de la qualité requise pour le bon
fonctionnement des algorithmes. Parfois le cas d’usage lui-même,
de par son très fort ROI, finance intégralement la captation et la
mise en qualité de la donnée. Dans d’autres cas, le coût lié à cette
distance de la donnée pourra être couvert par plusieurs cas d’usage
exploitant la même source de données, d’où la nécessité de ce
référentiel holistique constitué grâce au schéma directeur Data IA.
190 Guide pratique de l’intelligence artificielle dans l’entreprise

Le socle technique : certains cas d’usage peuvent faire appel


à des outils ou à des infrastructures dont il faut évaluer les
coûts de déploiement et d’exploitation autant techniques
qu’humains. D’autre part, le réglementaire, la souveraineté et la
confidentialité peuvent avoir d’importantes répercussions sur
le socle technique.

Quoi qu’il en soit, une compréhension fine des briques tech-


niques et technologiques nécessaires à la concrétisation de ces
cas d’usage est une nécessité afin de bénéficier du maximum
de synergies. Il faut à tout prix éviter de trop fortes adhé-
rences avec les schémas directeurs IT souvent immuables. Forte
de cette compréhension, l’IA amène cette même nécessité de
« plateformisation » pour optimiser les coûts des futurs déve-
loppements et de maintenance et s’intégrer en profondeur
dans les roadmaps des DSI.

Dimension organisationnelle

Le déploiement d’un cas d’usage peut avoir non seulement un


impact sur le métier mais aussi sur l’ensemble des processus dans
lequel ce métier intervient. De la même manière, la refonte
d’un process a un impact potentiel sur les métiers. Il faut en
avoir conscience et redessiner les nouveaux rôles et missions du
métier si besoin et le nouveau processus ainsi équipé.

Le déploiement industriel d’un cas d’usage demande aussi de


mettre en place une organisation complète faisant intervenir
beaucoup de parties prenantes qu’il faut savoir synchroniser.
Du data management au MLOps, l’entreprise doit être en capa-
cité de délivrer industriellement des cas d’usage d’IA. C’est le
rôle du CDO Office et de la DSI dont il faudra bien évaluer la
capacité à délivrer tel ou tel cas d’usage selon leurs spécificités
et la maturité de chacun.
Comment implanter l’intelligence artificielle dans l’entreprise 191

Dimension humaine

Le déploiement de l’IA dans l’entreprise a un impact social


qu’il ne faut pas dénier. Que ce soit sur la capacité à travailler
ou à accepter de nouveaux outils, la modification du périmètre
du poste ou sa disparition pure et simple, il est indispensable
de prendre en compte cet aspect et cette capacité des humains,
parfois futurs utilisateurs, à changer. Un produit IA, aussi per-
formant soit-il, ne créera aucune valeur s’il n’est pas utilisé.

Il faut aussi intégrer la dynamique dans laquelle ces change-


ments vont s’opérer. Une transformation sur deux ou trois
ans n’a pas le même impact qu’une transformation brutale,
excessivement rapide comme nous n’en avons peut-être jamais
connu. Il suffit de regarder la vitesse à laquelle ChatGPT a
été adopté, ainsi que sa capacité à changer déjà de nombreux
métiers, pour imaginer ce que la déferlante de solutions basées
sur l’IA générative va entraîner comme changements radicaux.

La baisse de la pénibilité est un critère moins quantifiable mais


qui a toute son importance. S’affranchir des tâches récurrentes,
manuelles, pénibles, stressantes est une nécessité pour améliorer
la qualité de vie au travail (QVT), mais aussi pour laisser place
à des tâches à plus forte valeur ajoutée pour au final retrouver
des notions de compétitivité.

Dimension réglementaire

La réglementation a pris une place de plus en plus importante


dans l’impact sur les développements. Le RGPD et bientôt
l’AI Act, ainsi que les réglementations sectorielles spécifiques,
s’appliquent et s’appliqueront pleinement. Ces réglementa-
tions doivent être prises en compte et demanderont d’intégrer
le niveau d’effort, ainsi que les coûts induits par la mise en
conformité.
192 Guide pratique de l’intelligence artificielle dans l’entreprise

Maîtriser les spécificités techniques de l’IA permettra parfois


d’identifier des scénarios de réalisation alternatifs menant à une
conformité by design et rendant possibles des cas d’usage que
l’on aurait pu penser hors d’atteinte.
Dimension extrafinancière
De nouvelles composantes ont fait leur apparition, qui
viennent prendre toute leur importance. Les notions de RSE,
d’empreinte carbone et de frugalité qui n’existaient même pas
au début du machine learning font désormais partie du quotidien
des entreprises. Des paramètres sur lesquels elles sont aussi éva-
luées et qu’elles devront intégrer à la décision.

Il faut avoir une vision globale du cas d’usage


pour être en mesure de prendre une décision

‘‘ Je travaille avec un portefeuille de cas d’usage.


Pour chacun des cas d’usage priorisés, nous calculons le ROI,
estimons le niveau de sponsorship du métier, évaluons la facilité
de le déployer en opérationnel et bien sûr la qualité de la donnée
disponible.’’
Guillemette Picard, ex-Head of Big Data and IA, Allianz France

En intégrant ces six dimensions à leur référentiel de cas d’usage


IA, les entreprises se donnent les moyens de procéder à une
priorisation pragmatique, exhaustive et quantitative.
Schéma directeur Data IA étape 4 :
analyse des solutions et impacts
La capacité à prendre des décisions stratégiques telles que
le Make or Buy dans l’étape 5 du schéma directeur data IA
demande d’avoir une vision exhaustive des solutions qui
s’offrent à nous et de leurs impacts.
Comment implanter l’intelligence artificielle dans l’entreprise 193

Analyse des solutions


Il s’agit là d’un vrai benchmark des solutions du marché répon-
dant aux besoins de chacun des cas d’usage précédemment
pressentis comme pouvant faire partie des potentiels candidats
à la priorisation.
Ce benchmark doit faire apparaître les points suivants :
• Le niveau d’adéquation fonctionnelle aux besoins fonction-
nels du cas d’usage.
• La réalité et le niveau des algorithmes de machine learning
utilisés par la solution.
• Le niveau d’adaptabilité au contexte de l’entreprise.
• La capacité à entraîner le ou les modèles avec des données
de l’entreprise.
• L’utilisation des données d’entraînement de l’entreprise
pour un entrainement mutualisé pour tous les clients de la
solution ou pas.
• L’évolutivité des modèles.
• La maintenabilité.
• Supervision et MCI (Maintien en Conditions Intelligentes).
• Le pricing.
• Le niveau d’ouverture de la solution, de sa base de données,
de ses APIs…
• L’hébergement (cloud, on premise).
• Le niveau de vendor locking, etc.

Cette première approche permettra d’avoir assez d’éléments


pour évaluer la pertinence et le positionnement de chacune
des solutions.
194 Guide pratique de l’intelligence artificielle dans l’entreprise

Analyse des impacts

Les solutions du marché ont plus ou moins la capacité de


s’adapter aux besoins réels de l’entreprise. Elles ont vu le pro-
blème à leur manière et vont tenter d’imposer leur vision des
choses. Elles cherchent aussi à s’étendre horizontalement sur
d’autres fonctionnalités plus ou moins nécessaires – mais sur-
tout payantes – en étant intégrées dans le package.
Il faut donc être en mesure de bien cerner, non seulement le
besoin, mais la manière dont la solution va venir s’insérer dans
le process, que ce soit un process de traitement ou un process
de besoin métier, et l’impact qu’elle va avoir sur celui-ci.
La meilleure approche consiste à mettre à plat le process actuel
avec toutes ses ramifications et ses cas spécifiques et à analyser
l’introduction d’une solution en deux temps :
1. Insérer la solution en l’état dans le process et regarder là où
elle fait sens et là où elle n’est pas adaptée ;
2. décomposer fonctionnellement la solution et regarder
quelle fonctionnalité fait sens et à quel endroit du process.

Ce type d’analyse permet en général de voir que, contrairement


aux arguments de la solution, elle ne couvre pas tous les cas :
certaines de ses fonctionnalités sont redondantes et ne com-
portent pas d’IA, d’autres sont très pertinentes ont un impact
fort sur le process et demandent de le repenser, de l’adapter.
Nous le verrons dans le Make or Buy, les solutions du marché
sont parfois un mal nécessaire pour gagner du temps et capter
de la performance au plus vite. Il faut toutefois être conscient
de leur impact sur des métiers ou des process qui eux doivent
rester opérationnels à 100 %.
L’impact doit enfin être aussi évalué pour les cas d’usage déve-
loppés en interne. L’introduction de ce type de technologie
Comment implanter l’intelligence artificielle dans l’entreprise 195

demande parfois de repenser le process ou la manière de tra-


vailler du métier. Le caractère statistique de ces modèles (et
donc l’erreur qu’il peuvent structurellement induire) doit aussi
être pris en compte tant dans son coût que dans sa gestion.

Schéma directeur Data IA étape 5 :


orientations stratégiques et priorisation

La stratégie du schéma directeur définit la manière dont va être


réalisée la transformation Data IA et la phase de priorisation
permet d’identifier les cas d’usage ayant le plus fort potentiel
permettant de répondre à la stratégie business de l’entreprise.
Stratégie du schéma directeur Data IA

Cette vision 360° de l’apport de la data et de l’IA doit être com-


plétée par une vision stratégique qui obligera à prendre des déci-
sions tactiques. En effet, l’environnement compétitif, la nécessité
de se différencier, de se positionner rapidement, de monter rapi-
dement en compétences, etc., impactent les choix de priorisation
mais aussi de déploiement de chacun des cas d’usage et la forme
qu’ils vont revêtir compte tenu de l’ensemble de ces contraintes.
Le contexte stratégique de l’entreprise a aussi des impacts sur la
manière dont le cas d’usage va être développé. Il faudra se doter
d’une doctrine « Make or Buy » matricielle de l’entreprise qui
réponde aux enjeux de chacun.
• Basé sur une solution du marché : c’est le Buy. Une
opportunité de rapidement profiter de l’apport de la technolo-
gie au cas d’usage et une assurance de bénéficier des dernières
évolutions promises par les solutions en Saas. C’est toutefois
une impossibilité à se différencier et le danger de mutualiser
vos données pour qu’un tiers en fasse une offre dont vos com-
pétiteurs pourraient bénéficier. Il y a donc un revers au Buy :
disposer du même « équipement » que vos concurrents et que
vos équipes n’aient pas acquis de connaissances sur ce sujet.
196 Guide pratique de l’intelligence artificielle dans l’entreprise

• Développé en interne : c’est le Make. Une assurance de


tout contrôler, de monter en compétences et d’intégrer,
peut-être, des fonctionnalités différenciatrices. Une vision
à long terme qui permet de ne pas être dépendant d’un
éditeur, mais de « driver » ses développements en fonction
de son marché. Cette approche nécessite toutefois un temps
très important de développement sans commune mesure
avec la mise en œuvre ou l’intégration d’une solution sur
étagère. Un pari sur la capacité des équipes internes à déli-
vrer, sur le timing, les imprévus, le plafond de verre…

Chaque cas d’usage nécessite absolument ce questionnement


pour être sûr que son déploiement sera en ligne avec la stratégie
de l’entreprise, mais aussi s’assurer qu’il n’y contrevient pas d’une
manière ou d’une autre. Ce questionnement tactique peut s’ef-
fectuer aussi, a priori, à différents niveaux de granularité : du cas
d’usage à l’entreprise tout entière en passant par des directions
ou des métiers. Il faut également intégrer dans ce contexte spéci-
fique de la transformation Data IA, la nature même des données.
En effet, des données ou un environnement ayant une grande
volatilité, pousseront à prendre une solution du marché qu’il fau-
dra adapter plutôt que de la redévelopper. L’utilisation de don-
nées stratégiques faisant partie intégrante de l’actif du core business
se verra souvent favoriser à une solution interne. La maturité des
briques IA du marché peut aussi être un élément de décision,
compte tenu de la vélocité de l’évolution de ces technologies. Il
existe beaucoup d’autres arguments qui, en fonction du contexte,
viendront étayer la décision. Cette doctrine Make or Buy doit
être revisitée périodiquement en fonction des évolutions de son
marché et de la concurrence, afin de rationaliser les choix de
déploiement en les inscrivant dans une stratégie à long terme.

La réponse peut aussi ne pas être si manichéenne et des stratégies


ambitieuses sont parfois hybrides, telles qu’un positionnement
Comment implanter l’intelligence artificielle dans l’entreprise 197

rapide avec du Buy, tout en apprenant et en investissant sur


le Make pour mieux se positionner, sans attendre la fin de la
première séquence. C’est un choix très coûteux mais efficace.
Peut-être la version Quick and Dirty de l’IA, une stratégie
comme une autre.

La priorisation

La phase de priorisation est une synthèse de la vision top-down


basée sur les OKR de la direction générale et bottom-up issue
de la cartographie et de l’évaluation des gisements de gain per-
formance, à laquelle s’ajoutent les études d’impact.

Il est primordial de trouver le bon équilibre entre servir les


objectifs à court terme, matérialisés par des quick-wins à ROI
rapide, et servir les objectifs à long terme, les projets blockbus-
ters, sécurisant la pérennité de l’entreprise dans son paysage
concurrentiel.

L’écueil qu’il faut absolument éviter est une priorisation sim-


pliste basée uniquement sur le ROI. En effet, les cas d’usage
quick-win à fort rendement et faible coût risquent d’être stan-
dard sur le marché et de ne pas permettre de se différencier.
À l’inverse, des cas d’usage complexes mais à fort rendement,
qualifiés d’« innovation », peuvent permettre à l’entreprise de
créer une rupture majeure et d’obtenir un avantage compétitif
clé. La vision ROI est donc nécessaire mais insuffisante pour
structurer le schéma directeur Data IA.

Schéma directeur Data IA étape 6 :


définir une trajectoire de déploiement de l’IA

Cet exercice de rationalisation doit permettre à une direction


générale d’appréhender les bénéfices d’une telle transforma-
tion, mais aussi de se convaincre de la pertinence de l’investis-
sement et de se rassurer sur sa fiabilité et sa faisabilité.
198 Guide pratique de l’intelligence artificielle dans l’entreprise

Le schéma directeur Data IA permet


de se projeter en connaissance de cause

‘‘ L’IA amène un biais probabiliste alors que depuis des


années nos systèmes d’information étaient basés sur des
règles déterministes. Dans notre métier d’assureur, le résultat
de la statistique de l’actuaire permet d’avoir du déterminisme
dans la décision alors que l’IA est probabiliste. Le schéma
directeur Data IA permet de valider notre capacité à intégrer
le risque, le coût de l’erreur inhérent au machine learning
avant de nous lancer dans un déploiement. ’’
François-Xavier Enderlé,
directeur transformation digitale groupe, Groupama

Au-delà de la priorisation, la trajectoire doit donc intégrer


l’ensemble des moyens à mettre en place pour sécuriser le
déploiement des projets IA. Il est nécessaire de maîtriser leurs
modèles de coûts et les abaques du marché, afin de mettre à
disposition de la direction générale les éléments nécessaires à
une prise de décision éclairée.

La finalité du schéma directeur Data IA est donc une tra-


jectoire, mais également un élément de décision clé pour les
investissements de l’entreprise.

La gouvernance

Le CDO et son CDO Office, pour opérer une transformation,


devront mettre en place une gouvernance data claire et parta-
gée par toute l’entreprise. La gouvernance data a d’abord été
définie comme un organe permettant de manager la donnée
dans l’entreprise pour s’assurer de sa mise à disposition, de sa
qualité, du respect des règles de sécurité et de la réglementation
à laquelle elle pourrait être soumise. Son rôle s’est maintenant
étendu à la gouvernance de l’usage de la donnée, car elle permet
Comment implanter l’intelligence artificielle dans l’entreprise 199

également de prioriser les domaines de données à manager. La


gouvernance devient ainsi l’organe intégrant toutes les parties
prenantes des projets Data IA, y compris LLM, permettant de
gérer consensuellement une roadmap unique sur des critères de
priorité partagés et incluant les contraintes de toutes ces par-
ties, afin de s’assurer de leur alignement.
La gouvernance permet d’installer le rôle de pilote de la trans-
formation Data IA du CDO dans l’organisation. C’est, après
la note de cadrage, la première chose à faire pour installer un
CDO Office dans l’entreprise.
Elle se décline ensuite dans toutes les entités pour laisser à
celles-ci l’autonomie nécessaire pour gérer leurs propres road-
maps et venir répondre à leurs besoins. C’est la gouvernance
fédérée décrite dans le data mesh qui permet de disposer de
règles communes et d’une mutualisation tout en s’assurant de
l’autonomie de chacun.

Le CDO doit embarquer son organisation


dans la transformation Data IA

‘‘ Le premier rôle du Chief Data Officer est de sensibiliser


son organisation à l’importance de cette transformation que
l’entreprise ne doit pas rater. Ce n’est pas seulement l’affaire du
Data Office mais un sujet qui concerne tout le monde. Il faut que
chacun prenne conscience qu’il a un rôle à jouer et qu’il pourra
en tirer profit en s’appuyant sur les données et l’intelligence
artificielle pour prendre de meilleures décisions. ’’
Pierre-Étienne Bardin, Chief Data Officer, La Poste

En installant dès le départ une comitologie adaptée au niveau


groupe, business units ou filiales puis projets, intégrant pour
chacun les bons indicateurs, il sera possible d’obtenir une
vision analytique de la transformation Data IA, de son avan-
cement et de ses résultats à travers une scorecard de pilotage.
Celle-ci permettra de suivre et de mesurer le déploiement de
200 Guide pratique de l’intelligence artificielle dans l’entreprise

la transformation Data IA, dont les priorités peuvent évoluer


dans le temps avec la montée en maturité de l’organisation.
Cette scorecard est intégrée par de plus en plus de directions
générales, compte tenu de la place prépondérante que prend
l’IA dans la stratégie des entreprises.
Une fois la gouvernance installée, celle-ci prendra immédia-
tement tout son sens dans le pilotage des schémas directeurs,
grâce à sa capacité à distribuer des déploiements pour ensuite
mieux mutualiser.

Le data management et le data mesh


Toute l’entreprise produit massivement de la donnée qu’il va
falloir choisir, mettre en qualité, stocker, évaluer et maintenir
pour que ces merveilleux algorithmes d’IA puissent en faire
bon usage et créer de la valeur. C’est à travers le data manage-
ment puis les concepts de data mesh qu’il est possible de mener
à bien cette mission indispensable.

Le data management
Pour bien comprendre les enjeux, il faut voir les données d’une
entreprise comme son image numérique au même titre que
l’on obtient un fichier de données quand on prend une photo
numérique. Plus il y aura d’informations, plus il sera possible de
tirer de la valeur de ce cliché, de le transformer, d’améliorer ses
couleurs, sa définition, ses contours.Toutes ces choses que l’on
ne peut pas faire avec des images compressées qui ont perdu
beaucoup de leurs données. C’est la même chose pour l’entre-
prise : son activité produit de la data, et son utilisation par des
algorithmes adaptés crée de la valeur.
Comment implanter l’intelligence artificielle dans l’entreprise 201

Le déploiement de l’IA est limité si la donnée


n’a pas une intégrité transversale dans l’entreprise

‘‘ Une entreprise pourra devenir AI driven uniquement si la


qualité et l’intégrité de la donnée est maîtrisée transversalement.
Les sociétés qui n’ont des données de qualité que dans chacun
des silos de l’entreprise font en général une utilisation restrictive
de l’IA à travers des POC (proof of concept) qui n’utilisent
qu’une vision limitée des données. ’’
Matthias Oehler, Chief Data Officer, FDJ

Le concept de donnée de l’entreprise a évolué ces dernières


années pour intégrer la donnée venant aussi de l’extérieur et
provenant de bases de données payantes, de l’open data mais
aussi de news, de réseaux sociaux, de blogs ou d’autres sites.
Cette dernière forme de données est ce que l’on appelle la
donnée non structurée que l’IA ira chercher et intégrera sous
forme structurée dans l’entrepôt de données de l’entreprise.
La donnée non structurée massivement présente sur Internet
fait partie intégrante de l’entreprise, de son environnement
et de son contexte. Quand un humain prend une décision, il
intègre des données externes à l’organisation, des tendances,
des événements… C’est à ce titre que la donnée non structu-
rée a toute sa place pour venir enrichir les données dont ces
nouveaux outils auront besoin pour s’alimenter et prendre des
décisions. La capacité des LLM à comprendre les contenus non
structurés est une vraie étape dans l’intégration de ces données
non structurées.Autant il était compliqué avant de comprendre
le contexte d’un document, autant cette fonctionnalité est qua-
siment native pour un LLM et permettra d’aller capter et de
disposer de beaucoup plus d’informations pour l’entreprise.
La mise en œuvre du data management est donc essentielle dans
le processus de transformation de l’organisation pour qu’elle
puisse devenir data driven. Le data management porté à l’échelle
nécessite d’aligner et responsabiliser l’ensemble des acteurs de
202 Guide pratique de l’intelligence artificielle dans l’entreprise

l’entreprise sur la gestion de la qualité des données tout au


long de leur cycle de vie : dès la création par les métiers et
les systèmes jusqu’à la consommation, en passant par la mise à
disposition et le stockage par la DSI.

Une offre de service complète de data management


permet d’unifier la connaissance de la donnée
dans toute l’entreprise

‘‘ Nous proposons aux différentes entités que nous


accompagnons une gamme complète de services. Nous les
aidons à mettre en place une gouvernance des données qui
puisse répondre à leurs enjeux. Nous pouvons en retour donner
des métriques qui permettent de mesurer la maturité du data
management avec des outils de data maturity. Enfin, nous
fournissons un data catalog unifié au niveau de la compagnie. ’’
Laurent Landreau, responsable du Data Office
de la branche marketing et services, Total Énergies

Le rôle des métiers est donc prépondérant dans le manage-


ment de la donnée. Si la donnée n’est pas à jour, a subi un
retraitement ou provient d’un calcul dans lequel une erreur
s’est insérée, ou si elle n’est pas correctement décrite et qu’il y
a ambiguïté sur son choix, le résultat sera faux ou incohérent
quelle que soit la qualité des algorithmes qui vont l’utiliser. Les
spécialistes ont l’habitude de dire : « Garbage in, Garbage out ! »

Le ROI dépend en grande partie de la qualité


des données

‘‘ Le ROI court terme, à 1 an, est difficile à atteindre si les


données de qualité ne sont pas disponibles. Les algorithmes
d’IA sont accessibles en open source mais il faut avoir investi
sur la structuration de la donnée pour que leurs résultats soient
cohérents. ’’
Matthias Oehler, Chief Data Officer, FDJ
Comment implanter l’intelligence artificielle dans l’entreprise 203

La mise à disposition de données de qualité est donc le pré-


requis au déploiement de l’IA sans toutefois qu’il faille mettre
toute la donnée à disposition. C’est tout l’enjeu du déploie-
ment du data management pour qu’il soit opérationnel mais
surtout en phase avec le niveau d’attente des projets IA pour
minimiser le coût du management de la donnée, en n’investis-
sant que sur celles qui sont nécessaires.

Il faudra cependant faire un déploiement progressif en phase


avec les besoins de l’IA. La liste des cas d’usage provenant du
schéma directeur Data IA devra intégrer le niveau de maturité
des données pour chacun et proposer un plan de déploiement
adapté. La gouvernance data permettra d’allier stratégie et tac-
tique pour accéder transversalement à la donnée de manière
incrémentale et tendre vers une forme d’autonomisation des
métiers, afin de limiter l’augmentation des coûts de cette
transformation.

S’inspirer de la gestion des sinistres en assurance


non-vie pour évaluer le coût économique
de la non-qualité des données

‘‘ Une des conditions de mise en œuvre de l’IA réside dans la


capacité à assurer un haut niveau d’intégrité et de qualité de la
data. Elle nécessite une architecture horizontale basée sur des
micro-services et non plus sur des applications qui utilisent leurs
propres données en silo. Le regroupement des données dans un
datalake, doté d’une couche technique de data management,
permet d’uniformiser le niveau de qualité des données en sortie
du datalake. ’’
Christophe Bonnefoux, Chief Data Officer,
BNP Paribas Asset Management

Le CDO aura la dure tâche de déployer en parallèle le data mana-


gement et l’IA au travers d’une nouvelle culture, de nouveaux
process et de nouvelles responsabilités réparties dans l’entreprise.
204 Guide pratique de l’intelligence artificielle dans l’entreprise

Il existe une littérature exhaustive sur ce sujet et l’on ne sau-


rait trop conseiller à tous nos lecteurs de prendre comme livre
de chevet le célèbre Data Management Body Of Knowledge ou
DAMA-DMBOK1, afin de comprendre les spécificités de
chaque rôle du data management.

Le data mesh

L’approche data mesh décrite par Zhamak Dehghani2 est


un modèle d’écosystème de données qui permet de décrire
la dynamique du data management dans un référentiel, des
concepts et des processus cibles alliant producteurs, consom-
mateurs, infrastructures et services.
Le concept de data mesh se décrit d’après quatre grands prin-
cipes permettant de mettre en œuvre de manière opération-
nelle la décentralisation du data management.
1. Data-as-a-Product : cette vision produit permet d’attacher
à la donnée les concepts liés au produit, son management et
sa « vente ». Le product management de la donnée engendre
donc la réponse à un besoin (l’utilisateur final), sa concep-
tion, son développement, son test et sa qualité, sa mise à
disposition et aussi son prix si on intègre totalement le
concept d’écosystème.
2. Self-serve Data Platform : aujourd’hui encore un concept
mais demain une nécessité, celle de disposer d’outils et fina-
lement de suites logicielles totalement intégrés permettant
de gérer tout le cycle de vie de la donnée. L’infrastructure
libre-service deviendra alors la colonne vertébrale de la
décentralisation et de la transversalité effective de la donnée.

1. DAMA International, DAMA-DMBOK: Data Management Body of


Knowledge,Technics Publications, 2017.
2. Zhamak Dehghani, « How to Move Beyond a Monolithic Data Lake
to a Distributed Data Mesh », MartinFowler.com, 20 mai 2019.
Comment implanter l’intelligence artificielle dans l’entreprise 205

3. Federated Computational Governance : il s’agit de la déclinai-


son de la gouvernance de la donnée à deux niveaux : un niveau
global qui fixe les règles communes pour que l’échange et la
fédération fonctionnent ; un niveau local qui permet à chacun
de gouverner selon ses priorités et les spécificités de son envi-
ronnement. Cette approche permet aux équipes d’adapter
opérationnellement une gouvernance décentralisée à travers
des notions d’autonomie, rééquilibrée par une centralisation
nécessaire à l’interopérabilité. Pensez à la gouvernance des
États américains : chacun fait ce qu’il veut mais il y a des règles
et des organes communs qui permettent de vivre ensemble.
4. Decentralized Domain Ownership : on parle ici de la décen-
tralisation de la gestion des données par domaine business et
au plus près de la source ou du consommateur. Plaçant ainsi
le métier au cœur de cette microéconomie des données
internes à l’organisation, des responsabilités incombent au
consommateur : la collecte, le stockage et la gestion de la
qualité et de la sécurité des données.

L’opérationnalisation du management de la donnée est le grand


challenge des entreprises. Elles ont en général toutes déployé
les organisations et rôles du data management mais s’aperçoivent
que rien n’est réellement opérationnel. La donnée n’est pas
vraiment disponible.
L’application des concepts du data mesh permet d’opérationna-
liser le data management dans l’entreprise. Elles ont toutes, sans
exception, oublié de budgéter le coût du management de la
donnée. Les concepts induits par le concept de Data-as-a-Product
viennent ici rappeler tout le travail à fournir pour mettre à dis-
position une donnée de qualité. Si celui-ci n’est pas financé au
niveau du métier qui en a la charge, JAMAIS la donnée ne sera
disponible. Après avoir été un actif, la donnée devient un pro-
duit interne qu’il faut donc produire et intégrer au budget pour
que sa production soit effective : un des grands défis du CDO.
206 Guide pratique de l’intelligence artificielle dans l’entreprise

Le modèle opérationnel

Instigué par le CDO et déployé par le CDO Office, le modèle


opérationnel vient assurer une synchronisation de l’ensemble des
parties prenantes nécessaires au déploiement d’un projet IA dans
l’entreprise et sécuriser la transformation. L’industrialisation du
déploiement demande en effet d’aligner un nombre très important
de parties prenantes : du métier, client de ce déploiement, à la DSI,
futur opérateur de ces modèles et applications. C’est le point cri-
tique dans de nombreuses entreprises. C’est ici que l’on se heurte
aux difficultés organisationnelles, aux processus, aux compétences,
aux roadmaps de chacun avec des enjeux importants en termes de
Time-to-Market car, une fois de plus, la direction générale attend un
retour sur investissement rapide, et le CDO doit être en mesure de
partager des indicateurs d’avancement explicites.
Le CDO doit donc sécuriser et piloter la transformation, grâce
à un modèle opérationnel reposant sur trois piliers (HPO) :
1. Humain : la transformation Data IA requiert la mobilisa-
tion d’un nombre important d’acteurs, de ressources et de
compétences très différents. La compréhension des rôles et
responsabilités de chacun est clé pour assurer une efficacité
maximum dans la réalisation du projet. La diffusion de fiches
de postes des rôles data est donc souvent nécessaire, associée
à un plan de formation et de conduite du changement.
2. Process : les méthodes de travail sont souvent hétérogènes
entre chaque direction intervenant dans le projet. Un aligne-
ment général sur des processus clairs et structurés sur l’en-
semble du cycle de vie d’un projet Data IA est donc nécessaire.
Il permet de s’assurer de la compréhension des rôles et respon-
sabilités de chacun dans la réussite du projet, une standardisa-
tion des déploiements, une courbe d’apprentissage synchrone
de tous les intervenants et une harmonisation du pilotage de
la valeur venant nourrir la scorecard du CDO.
Comment implanter l’intelligence artificielle dans l’entreprise 207

3. Outils et méthodes : il s’agit ici du kit méthodologique


que chacun des acteurs du projet doit avoir en sa possession
pour sa partie. De la qualification au cadrage jusqu’à son
déploiement et son Maintien en Conditions Intelligentes
(MCI), en passant, bien sûr, par la phase d’industrialisation.

Le modèle opérationnel est au cœur


des préoccupations du CDO Office

‘‘ Le défi n’est plus technologique mais sur notre capacité


à travailler ensemble pour réussir la mise en œuvre.
Olivier Baes, Business Owner IA & Operational Data, MAIF
’’

Le modèle opérationnel est l’outil d’industrialisation du CDO


Office. Il permet l’alignement indispensable de l’ensemble des
acteurs des projets Data IA sur les meilleures pratiques à suivre
et l’atteinte des objectifs stratégiques de chaque direction métier.
Un modèle opérationnel évolue dans le temps au gré de l’évo-
lution de la maturité de la transformation Data IA de l’entre-
prise et des différents enjeux qu’elle rencontrera. Il pourra, par
exemple, pour les acteurs démarrant leur transformation Data
IA, participer à un programme inspiré des data factories puis, le
moment venu, à la mise en œuvre d’un modèle d’organisation
fédérée à l’image des concepts promus par le data mesh.

Le AI Performance Builder
Le AI Performance Builder tient un rôle crucial dans le CDO
Office. C’est l’analyste qui va réaliser toutes les études du
schéma directeur. Il a tout d’abord en charge la valorisation de
l’innovation au long court et la valorisation des gisements de
gains de performance découverts lors de la cartographie des
opportunités. Cette dernière, qu’il va lui-même réaliser avec
les métiers, les process et la stratégie pour créer les nouvelles
208 Guide pratique de l’intelligence artificielle dans l’entreprise

offres, lui demande de maîtriser parfaitement le potentiel de


l’IA au service de l’entreprise. C’est donc un profil hybride qui
aura intégré l’ensemble du potentiel de la data science appliquée
à l’entreprise, ses limites et les performances que l’on peut en
attendre ou que d’autres essais ont obtenues.
Ce rôle est bien sûr dévolu au CDO dans de petits CDO
Offices. Il peut aussi se composer d’une équipe entière dans des
CDO Offices plus importants. Dans les grandes organisations,
il est crucial d’adopter au plus tôt les meilleures pratiques d’AI
Performance Builder, afin d’assurer une uniformisation des
méthodes permettant de consolider l’ensemble des schémas
directeurs Data IA pour un partage avec la direction générale.

L’AI Product Owner


Le cadre méthodologique du product management a fait la réus-
site des grands éditeurs de logiciels et leur a permis de créer
les blockbusters que nous utilisons tous les jours. Ces logiciels
qui font notre environnement de travail ont créé des standards
de qualité auxquels des développements internes ne peuvent
déroger sous peine de décevoir non seulement l’utilisateur
mais aussi sa hiérarchie, si le temps passé n’est pas à la hauteur
de la valeur créée. Le product management s’est donc naturelle-
ment imposé dans l’entreprise et a fortiori pour le déploiement
de l’IA qui doit rapidement séduire et démontrer sa valeur.
Le rôle de Product Owner, cheville ouvrière de la production
logicielle, s’est donc appliqué aux projets d’IA et prend le nom
de AI Product Owner (AI PO). Il est rapidement devenu un
élément essentiel du succès du développement, du déploiement
industriel et de la maintenance des produits basés sur de l’IA.
L’AI PO est un profil hybride formé à la data science et à l’en-
semble des méthodologies intervenant dans la transformation
Comment implanter l’intelligence artificielle dans l’entreprise 209

Data IA. Il maîtrise non seulement la méthode Agile, la partie


modélisation, la partie technique d’intégration et de déploie-
ment lié au MLOps, mais aussi de la data et de son management,
ainsi que des méthodes propres à la conduite du changement
dans la data et l’IA. Ce savoir-faire particulier fait de lui l’un
des rouages essentiels à la réussite de l’industrialisation des cas
d’usage, en ayant cette capacité à intervenir tant sur la valeur
que sur la technique.
Ses principales responsabilités sont les suivantes.

La vision du produit
L’AI PO porte la vision du produit IA et en est le garant. Il
est chargé de traduire cette vision en objectifs mesurables et
doit être prêt à l’ajuster en fonction des retours utilisateurs et
des changements de contexte qu’il aura à arbitrer. En prenant
comme critère le pilotage de la valeur, l’AI PO est en mesure
de justifier ses choix concernant les ajustements nécessaires
tout au long du projet. Une fonctionnalité pourra être écartée
si elle est basée sur une donnée ayant une « distance » trop
grande qui coûterait trop cher au projet et viendrait grever
le ROI final. De la même manière, toujours dans un souci de
maximiser la valeur, l’AI PO intègre au fur et à mesure des
résultats le coût de l’erreur induit par ces modèles statistiques
de machine learning et surtout les process qui permettent de
gérer ces erreurs.

La coordination de toutes les parties prenantes


L’AI PO joue un rôle vital de relai entre les utilisateurs finaux
et les équipes techniques composées de Data Scientists, Data
Engieneers, MLOps et développeurs applicatifs. En facilitant
une interaction fluide entre toutes les parties prenantes avec
une approche agile, il traduit les besoins métiers en tâches
techniques, anticipe et minimise les conflits et les risques du
210 Guide pratique de l’intelligence artificielle dans l’entreprise

projet. Au cours du projet, l’AI PO s’appuie sur les rituels et


les principes de cette méthodologie pour recueillir et analyser
les retours des futurs utilisateurs, les traduire auprès des équipes
techniques et surtout les prioriser au sein du backlog produit en
fonction de la valeur créée par chaque fonctionnalité.

Le déploiement

L’AI PO est responsable du déploiement et de l’améliora-


tion du produit d’IA, incluant la livraison, la maintenance, la
documentation, dont le data lineage, la recette et l’évolution
du produit. Il doit également anticiper les aspects liés à l’in-
dustrialisation du produit, ce qui comprend la mise en place
de la gouvernance, des processus, et la gestion des ressources
nécessaires. Enfin, il est en charge de la promotion et de l’ac-
compagnement à l’adoption du produit.

Pour mener à bien sa mission, l’AI PO doit évoluer dans un


cadre méthodologique dans lequel il disposera d’un framework
lui permettant d’intégrer les bonnes pratiques du moment en
termes de déploiement de projets Data IA et de priorisation
produit (valeur/complexité). Cela lui donnera la possibilité
d’orienter les décisions, de maximiser la valeur pour les parties
prenantes et d’optimiser l’utilisation des ressources disponibles.

L’AI Product Owner pilote par la valeur

‘‘ Les AI Product Owners font le pont entre l’expertise


des métiers que l’on vient équiper et la partie technologique qui
n’est pas forcément aussi facile à appréhender pour un expert
du marketing ou un expert commercial. L’AI Product Owner
permet d’identifier les nouvelles fonctionnalités qui vont être
les plus pertinentes à développer sur chacun des projets. ’’
Pierre-Yves Calloc’h, Chief Digital Officer, Pernod Ricard
Comment implanter l’intelligence artificielle dans l’entreprise 211

L’AI PO tient donc un rôle central et multidimensionnel dans


le succès des projets d’IA, combinant une compréhension
technique et des besoins métiers. Une communication efficace,
une collaboration étroite avec les parties prenantes et une ges-
tion rigoureuse du processus sont essentielles pour remplir ce
rôle avec succès.Avec l’avènement des LLM, le rôle de l’AI PO
continue de s’étendre. L’AI PO est donc un profil hybride.
Le déploiement de l’IA dans l’entreprise est avant tout un
projet pluridisciplinaire. En effet, il faut réunir le métier, qui
connaît le besoin, son « enabler » le Data Scientist et son « opé-
rateur », la DSI. En faisant travailler ensemble ces trois profils
dès le début du projet, il est possible de s’assurer de sa perti-
nence, de sa qualité et de sa pérennité dans l’organisation et ses
systèmes. Ces trois métiers vont apprendre à travailler ensemble
et délivrer des projets IA immédiatement intégrés.
Autant l’IA est une technologie de rupture dans ses concepts,
autant son introduction dans l’entreprise et ses workflows
doivent se faire dans la continuité, avec une vision industrielle
de l’évolution de l’outil « système d’information ». C’est donc
dans cet esprit que la DSI doit être intégrée dès le début dans
les projets IA avec ses méthodes et ses process pour que, en
tant qu’opérateur et garant du fonctionnement du SI, toutes les
applications autour de l’IA puissent avoir le même niveau de
qualité et s’y intégrer naturellement.

L’immersion Data IA

Le change management est un des plus gros challenges de la trans-


formation Data IA. On ne parle plus ici de technologie mais
d’humains qu’il faut savoir accompagner dans les changements
que va leur imposer l’arrivée de l’IA dans leur environnement
de travail.Vaincre la résistance au changement prend du temps.
212 Guide pratique de l’intelligence artificielle dans l’entreprise

Il ne s’agit plus, comme on le faisait avant, de faire un ate-


lier d’acculturation d’une demi-journée et de considérer cela
comme acquis. Le changement ne se conduit pas, quoi qu’en
dise le terme « conduite du changement » ; il s’accompagne,
s’infuse, et le CDO Office doit en être l’instigateur. C’est l’im-
mersion Data IA.
L’intelligence artificielle est une nouvelle culture qu’il faut dif-
fuser largement dans l’entreprise. Des relais, comme les ambas-
sadeurs, doivent être mis en place à différents niveaux et pour
différents objectifs liés à la technologie elle-même pour qu’elle
soit démystifiée : ces objectifs doivent également être liés à la
transformation des métiers et des process.
L’immersion Data IA est un concept qu’il faut prendre au sens
large et qui permet de former toute l’entreprise de manière
collaborative. Elle intègre toutes les formes de formation, y
compris celles réalisées par les collaborateurs eux-mêmes qui
occupent chacun des rôles différents, mais pas seulement.
Plusieurs initiatives, combinables, selon les objectifs, la culture et
la maturité de l’entreprise,viennent participer à cette immersion :
• des intervenants externes qui auront une légitimité pour
parler de ces sujets et sensibiliser les collaborateurs ;
• des communications de la direction générale soulignant
l’importance stratégique de la transformation Data IA pour
l’entreprise et la nécessaire augmentation de sa compétiti-
vité pour assurer sa pérennité sur son marché ;
• une intégration au plus tôt dans les projets métiers à tra-
vers la mise en place de la méthode Agile, qui est aussi une
forme d’immersion, mais surtout un premier pas vers « l’ap-
propriation », étape ultime du change management ;
• la mise en place de « communautés » permettant de créer
une dynamique de partage et d’apprentissage collectif ;
Comment implanter l’intelligence artificielle dans l’entreprise 213

• l’équipe interne de Data Scientists donnant quelques cours


d’initiation, pour démystifier certaines notions, parler de
leurs réalisations, de leurs choix, de leur métier… ;
• des ateliers permettant aux collaborateurs de s’imprégner,
dans le temps de la transformation, de leur métier, de l’apport
de la donnée et de son traitement dans leur travail quotidien ;
• la gamification, qui permet de rendre plus ludique l’intégra-
tion de ces nouveaux concepts en dédramatisant la situation ;
• des retours d’expérience des utilisateurs déjà équipés sous diffé-
rents angles : comment s’est effectuée la transformation ? Quel
est l’apport de l’intelligence artificielle ? Quelle performance ?
Quelle est l’utilité d’une vision analytique de son activité ?, etc. ;
• l’entreprise mettra à disposition des MOOC en libre-ser-
vice, permettant de s’autoformer sur ces sujets et allant
jusqu’à proposer des formations diplômantes comme sur
Coursera ou OpenClassroom.
Une entreprise sera data driven quand tous les profils impliqués
dans sa transformation seront autonomes et formés sur leurs nou-
veaux rôles, les nouveaux process, comme la gouvernance de la
donnée, et les bases techniques liées à leurs rôles dans l’entreprise.

Les visions business, technique et analytique


sont indissociables de la réussite de projets Data

‘‘ Le secret de la réussite passe par la capacité qu’a une


organisation à disposer de profils capables de faire la synthèse
de trois mondes : le marché et sa vision business, la stratégie
et sa vision analytique et les ingénieurs, les développeurs
et leur vision technique. À défaut de disposer de ces profils,
l’enjeu est la synchronisation de ces trois dimensions
dans l’organisation pour créer des leviers qui vont améliorer
soit l’actif, soit le profit. ’’
Louis-David Benyayer, Affiliate Professor,
Scientific Director Executive Msc Big Data
and Business Analytics, ESCP Business School
214 Guide pratique de l’intelligence artificielle dans l’entreprise

En parcourant l’ensemble de ces thèmes, la prise de conscience


favorisera l’action et facilitera le changement en donnant à
chacun du sens à cette transformation.

L’intégration dans la DSI et le MLOps

La nécessaire transition vers la DSI

Les modèles d’IA prennent une place prépondérante dans la


chaîne opérationnelle des entreprises. La plupart du temps
incubés par le CDO Office, le temps pour lui de monter en
compétence, ils doivent migrer d’une manière ou d’une autre
vers la DSI ou intégrer ses process et méthodes.
La DSI est l’opérateur des systèmes d’information de l’en-
treprise et l’IA, nous l’avons vu, fait partie à part entière des
systèmes d’information dans lesquels elle vient s’intégrer,
fusionner. Elle doit donc non seulement s’intégrer naturelle-
ment au poste de travail, mais aussi en profondeur dans les
applicatifs métiers, et de ce fait être opérée par le même opéra-
teur avec le même niveau de qualité.
La migration de l’IA, si elle n’a pas été prévue dès le début, est
inéluctable et représente une part importante de l’industriali-
sation de son déploiement.

MLOps : déployer le machine learning au sein de la DSI

Le MLOps est au ML ce que le Devops est au développement.


Une méthodologie permettant de standardiser l’industrialisation
de l’ensemble du cycle de vie des projets d’IA. Un modèle de
machine learning n’est pas une fin en soi. Il doit être intégré dans
son environnement applicatif, connecté à ses données et déployé
industriellement pour assurer la robustesse de l’ensemble, le SLA
demandé par le métier, son évolution et sa maintenance.
Comment implanter l’intelligence artificielle dans l’entreprise 215

En venant fédérer toutes les parties prenantes autour de la mise


en production, cette méthodologie implique la collaboration
des équipes de data science, de data management, de développe-
ment applicatif et d’opérations informatiques de la DSI.
Le MLOps se caractérise principalement par les apports
suivants :
• gestion des modèles : elle implique le suivi des diffé-
rentes versions de modèles, des métadonnées associées et de
la performance des modèles ;
• automatisation du pipeline de données : cela concerne
l’automatisation des flux de travail d’acquisition de don-
nées, de nettoyage, de transformation et de fourniture aux
modèles pour la formation et l’inférence ;
• déploiement : le MLOps cherche à simplifier le déploie-
ment des modèles en production tout en garantissant leur
performance, leur fiabilité et leur conformité ;
• suivi et surveillance : le MLOps met en place les outils
de supervision permettant de s’assurer du MCI (Maintien
en Condition Intelligente).

Il faut favoriser la gestion de modèles


centralisés sur une même plateforme spécialisée
pour rationaliser la puissance de calcul nécessaire
à leur réentraînement

‘‘ Nous fournissons aux métiers une plateforme industrielle


centralisée d’exposition et d’exécution des modèles. Ces modèles
sont ensuite appelés en API par les SI des différentes entités
ou pays sous forme de micro-services. Cette centralisation
permet d’industrialiser de manière unique, de maîtriser
les risques et de rationaliser les ressources de supervision,
de maintenance et de réentraînement des modèles. ’’
Béatrice Stevenson, Head of AI Delivery,
BNP Paribas Personal Finance
216 Guide pratique de l’intelligence artificielle dans l’entreprise

Les DSI accordent désormais une grande importance au


MLOps, car il permet d’intégrer réellement les projets d’IA à
la structure et aux process industriels de la DSI.

Supervision et maintien en condition intelligente


Les modèles d’intelligence artificielle, une fois déployés, doivent
garder une cohérence dans le temps. L’environnement dans
lequel ils sont amenés à travailler peut lui-même changer et les
faire perdre en pertinence s’ils ne sont pas adaptés. Des modèles
peuvent aussi continuer à apprendre en intégrant des réponses
ou des informations qui pourraient les faire dévier. Quel que
soit le modèle, il doit non seulement être supervisé au sens clas-
sique de son maintien en condition opérationnelle (MCO), mais
aussi sur sa cohérence dans le temps : le maintien en condition
intelligente (MCI). Il faudra donc fournir à la DSI en charge de
superviser ces modèles les paramètres à superviser et les datasets
permettant de tester le niveau de MCI des modèles. Les métiers,
en revanche, doivent s’emparer d’une partie du MCI. Ce sont
eux qui auront la meilleure vision de leur environnement et de
la manière dont les modèles doivent réagir. Ils seront ainsi en
mesure donner le cadre dans lequel leurs modèles sont valides et
leur évolution dans le temps. Il s’agit là d’une partie du MLOps
à ne pas négliger pour que la DSI soit en mesure d’intégrer
pleinement les spécificités des modèles que nous lui confions.

LA COMMODITISATION DE L’IA EST EN MARCHE


Créer des offres de services
Le déploiement unitaire de cas d’usage n’a qu’un temps. Les
équipes ne sont pas extensibles à l’infini et de premières briques
technologiques et fonctionnelles data issues de la capitalisation
Comment implanter l’intelligence artificielle dans l’entreprise 217

sur les projets passés sont d’ores et déjà réutilisables. La demande


d’accélération, qu’elle soit métier ou managériale, ne peut être
résolue qu’en franchissant une nouvelle étape de l’industriali-
sation : la standardisation.
Cette étape se traduit concrètement par la mise en place d’un
centre de compétences et de services Data IA disposant d’une
offre de services (ODS) venant répondre aux attentes métiers dans
une dynamique de self-service et de mutualisation des ressources.
L’offre de services est un produit et/ou un service managé pou-
vant être délivré à des clients internes sous différentes typologies
de services (outils, plateforme, accompagnement, formations,
etc.). Elle a pour objectif d’accélérer le déploiement en packa-
geant une proposition de valeur à destination des métiers qui,
du fait de leur autonomie, se sentent d’autant plus embarqués.

Les offres de services permettent de diffuser


à grande échelle la transformation Data IA

‘‘ Nous sommes un fournisseur de service vis-à-vis des métiers


de toute la branche marketing et services avec une présence sur
130 pays. Notre offre de services est orientée autour de la diffusion
de l’expertise et des bonnes pratiques de data management dans un
mode de gouvernance fédérée. Le Data Office en définit le cadre et en
fait la promotion. Nous venons en appui des métiers pour que le data
management soit implémenté dans les différentes organisations. ’’
Laurent Landreau, responsable du Data Office
de la branche marketing et services, Total Énergies

Après le DAMA et les schémas directeurs Data IA, la création


du centre de compétences et des offres de services est l’ultime
projet du CDO Office qui viendra ancrer sur le long terme sa
volonté d’industrialiser, mais aussi d’autonomiser les métiers.
Les offres de services du CDO Office doivent intégrer toutes
les dimensions d’une approche produit, tout en s’adaptant aux
niveaux de maturité hétérogènes de l’organisation.
218 Guide pratique de l’intelligence artificielle dans l’entreprise

Les composantes essentielles d’une offre de services par un


CDO Office sont :
• la proposition de valeur : il s’agit du bénéfice escompté
pour le métier faisant appel à l’offre de services. Il peut
s’agir d’une formation, d’un accompagnement à la mise en
qualité de données, voire d’une aide au déploiement d’élé-
ments clés de gouvernance ;
• le processus opérationnel : l’offre de services doit repo-
ser sur un processus de délivrance clair, et afficher en toute
transparence les attentes à destination des métiers ;
• les compétences : les rôles et compétences sollicités, tant
côté CDO Office que DSI ou métier, pour délivrer l’offre
de service ;
• la technique : certaines offres de services reposent sur
des briques techniques ou outils spécifiques (ex. : PowerBI,
Tableau…). La construction du portefeuille d’offres de ser-
vices du CDO Office peut également être une opportunité
de rationalisation de ces outils ;
• le modèle économique : pour tendre vers une autono-
misation des métiers, et éviter une approche « client-four-
nisseur », un modèle économique évolutif est une nécessité.
Les métiers doivent donc trouver un avantage à monter en
compétences et en autonomie, grâce à un modèle écono-
mique réfléchi et adapté à la culture de l’entreprise.

La commoditisation des solutions

L’IA générative et les LLM, avec leur simplicité de mise en


œuvre, nous permettent déjà de rentrer de plain-pied et en seu-
lement quelques mois dans la commoditisation de cette tech-
nologie. Les choses ne sont jamais allées aussi rapidement.Après
Comment implanter l’intelligence artificielle dans l’entreprise 219

une adoption record, les premières solutions en SaaS basées sur


des LLM voient le jour. Elles permettent en quelques clics de
connecter une base de données à un chatbot, par exemple.
Sur www.mendable.ai, il est déjà possible de créer un chatbot
pour ses techniciens, ses juristes, ses commerciaux et même des
métabots sur plusieurs expertises, en quelques clics. Une éma-
nation du Y-Combinator que dirigeait auparavant Sam Altman.

‘‘ L’IA va désormais être proposée comme un moyen unique


d’améliorer globalement l’expérience client. Mendable.ai
a l’intention d’offrir aux clients non seulement une excellente
fonctionnalité de Q&A, mais également la possibilité
de personnaliser leur expérience et de disposer d’analytics
sur les comportements de leurs clients. ’’
Garrett Frohman, CPO, Mendable.ai

Une évolution que nous ne verrons peut-être pas sur le machine


learning car, autant les LLM sont capables de produire du code
sur des cas connus, autant ils ont du mal à calculer. L’utilisation
des agents et de LLM planificateurs couplés à des outils comme
PAL permettront peut-être d’aller un cran plus loin dans l’uti-
lisation d’AutoML, en ayant la possibilité de décrire un cas
d’usage, de connecter ses données et de donner le taux d’erreur
220 Guide pratique de l’intelligence artificielle dans l’entreprise

que l’on en attend, comme si l’on interagissait avec un Data


Scientist.
La transformation Data IA des entreprises va s’accélérer, se
simplifier et surtout se démocratiser.

Microsoft démocratise l’IA

‘‘ Microsoft veut rendre accessibles tous les outils et modèles


de l’intelligence artificielle à tous, de la manière la plus simple
possible. Pour cela nous avons construit l’infrastructure cloud
nécessaire pour à la fois l’intégrer horizontalement dans tous
nos services depuis Bing, Microsoft 365, PowerBI et bien
d’autres sous la forme de copilotes, mais aussi le mettre à
disposition dans le cloud Azure via des API pour toutes les
entreprises, pour qu’elles construisent elles-mêmes les copilotes
de leurs propres métiers. ’’
Xavier Perret, directeur Azure IA, Microsoft France

Autonomisation des métiers

Il faut rendre les métiers autonomes


pour accélérer la transformation

‘‘ La mission du Data Office, c’est de montrer la voie à toute


l’organisation pour se transformer et de rendre les métiers
autonomes le plus vite possible. Même si sur les premières
phases il faut construire le socle, il faut rapidement transférer
la compétence pour rendre les métiers autonomes afin de
devenir progressivement une entreprise data driven. Il faut
leur donner envie de se transformer avec un premier succès
qui créé de la valeur à leurs yeux et leur mettre à disposition
un socle commun et des outils de qualité favorisant le self-
service. C’est la clé de la réussite. ’’
Pierre-Étienne Bardin, Chief Data Officer, La Poste

Comme à chaque étape de l’évolution de la mécanisation de


l’entreprise, le métier gagne à être autonome pour augmenter
Comment implanter l’intelligence artificielle dans l’entreprise 221

lui-même sa productivité. Les outils bureautiques l’ont déjà


rendu autonome dans beaucoup de domaines. Tout le monde
utilise Word et Excel. Il en sera de même avec la data et l’IA.
Le besoin spécifique d’un développement IA vient de la
conjonction d’une compréhension d’un métier, d’un process,
d’un problème et d’une maîtrise du potentiel de cette techno-
logie dans ses deux composantes que sont la relation entre les
données et le résultat que l’on peut en attendre. Cette vision
hybride que permet le schéma directeur Data IA pourra être
donnée par les métiers qui auront été formés et à qui on aura
donné un « cadre », une suite logicielle, une méthodologie pour
pouvoir développer en toute autonomie leurs propres modèles.

Le chemin vers l’autonomie


Après avoir formé les métiers les plus « analytiques » ayant un
vrai besoin et une forte appétence pour ce type de modéli-
sation, le CDO Office devra publier un cadre et un environ-
nement permettant à un métier de développer lui-même son
propre algorithme, puis demander à ce qu’il soit mis en pro-
duction de manière industrielle.
Les développements concernant l’IA sont encore très artisa-
naux. La plupart du temps, ils sont basés sur des librairies open
source qui apportent des ressources de plus en plus qualitatives
mais encore loin de couvrir tous les besoins d’une chaîne opé-
rationnelle de développement.
Comme pour chaque nouvelle technologie, des outils de
développement sont apparus sur le marché, permettant soit de
mettre en place un workflow de développement, soit une couche
d’abstraction ou les deux, à destination des Data Scientists, mais
aussi des métiers. Ce sont les premiers pas vers une vraie démo-
cratisation de cette technologie. L’IA, avec l’ingénierie de ses
data, ses jeux d’apprentissage, ses choix d’algorithmes, son fine
222 Guide pratique de l’intelligence artificielle dans l’entreprise

tuning et enfin son rendu ou son interconnexion avec des API,


en est un merveilleux exemple auquel des sociétés pleines de
talents ont apporté des solutions.
Des outils généralistes existent permettant de couvrir tous les
besoins d’un Data Scientist dans son développement, mais aussi
de donner la main aux métiers pour résoudre des probléma-
tiques « standard ».

Les Data Scientists ont augmenté


leur productivité de 40 %
Dataiku propose avec son Data Science Studio de faire du visual
machine learning and modeling. Cette suite logicielle de dévelop-
pement IA permet de développer visuellement avec du drag and
drop des pipelines complets en partant de la gestion de la donnée
jusqu’à la succession d’algorithmes de machine learning. Non
content d’être un merveilleux outil pour un Data Scientist, Dataiku
propose aux métiers un mode dans lequel ils peuvent eux-mêmes
créer leurs propres pipelines, puis passer en mode collaboratif
en faisant appel à des experts quand la nature de leurs besoins
devient trop complexe. Avec cette vision et sa Collaborative Data
Science Platform, Dataiku fait office de précurseur et préfigure
ce que seront les plateformes de développement IA de demain, à
savoir visuelles et collaboratives, à destination des Data Scientists
et des métiers qui feront équipe dans cette nouvelle transformation.

‘‘ Dataiku a été pris en main par des non Data Scientists


qui peuvent utiliser des modèles prédictifs. Cela montre que
la plateforme ouvre les portes du machine learning et, peut-être
un jour, du deep learning à des non initiés, et que tout le monde
peut utiliser cette plateforme de data science (…). D’autre part,
nous avons pu constater que les Data Scientists avaient augmenté
leur productivité de 40 %.’’
Vincent Terrasi, Data Marketing Director, OVH

Au-dessus de ces workflows qui font déjà beaucoup, viennent


se greffer de nouvelles couches non plus d’abstraction mais
d’automatisation, qui interviennent soit dans le choix de l’al-
gorithme et de ses paramètres, soit qui rendent complètement
Comment implanter l’intelligence artificielle dans l’entreprise 223

invisibles toutes ces problématiques avec l’AutoML (machine


learning automatique). Ce processus de génération automatique
de modèles est largement utilisé et semble une voie promet-
teuse vers la démocratisation du développement de l’IA dans le
cadre d’applications pour l’instant assez simples.
Ces premières solutions de plateformes de développement
sont très encourageantes et vont permettre non seulement de
démocratiser cette technologie, en faisant baisser les coûts de
développement, mais aussi d’accélérer dans de nouveaux ordres
de grandeur la transformation Data IA lorsqu’elle sera réalisée
naturellement par les métiers.

L’autonomisation des métiers passe


par la création d’une communauté
autour du projet de la transformation des métiers

‘‘ Les métiers sont par nature isolés. Il faut réussir à recréer


une communauté en interne à l’image des communautés open
source qui privilégient la collaboration. Il faut intégrer les métiers
pour mieux les accompagner en créant une communauté en ligne,
une académie qui permet de retrouver toutes les formations,
la documentation et les outils. ’’
Béatrice Stevenson, Head of AI Delivery,
BNP Paribas Personal Finance

Dans cette trajectoire d’autonomisation des métiers, le CDO


ne doit pas pour autant oublier son rôle de chef d’orchestre de
la transformation Data IA et s’assurer de maintenir à jour sa
scorecard. Grâce à celle-ci, il sera toujours en capacité d’animer
une gouvernance Data fédérée, de partager avec son Comex
des indicateurs pragmatiques, notamment de création de valeur,
et d’éviter le « shadow IA ».
Chapitre 7

Les acteurs de l’écosystème


de l’intelligence artificielle
Les acteurs de l’écosystème de l’intelligence artificielle 227

LE DATA SCIENTIST

Le Data Scientist est un profil auquel nous ne sommes pas


habitués dans l’entreprise. Il ne programme pas et ne déploie
pas, il modélise. Il ne sert à rien de recruter des Data Scientists
pour « voir » ce qu’ils pourraient faire et attendre d’eux qu’ils
reviennent avec une idée géniale qui va révolutionner votre
entreprise. Ce ne sont pas des consultants, ce sont des infor-
maticiens de la statistique. Ils savent merveilleusement résoudre
un problème qui leur est soumis mais, dans l’entreprise, ils sont
rarement à l’origine d’un développement car trop éloignés de
sa réalité opérationnelle et de son métier. Le Data Scientist fait
le lien entre le problème qu’il a à résoudre, les données à sa
disposition et les algorithmes capables de traiter ce genre de
problème.

Le travail du Data Scientist est complexe car il doit choisir


les bonnes données d’entrée de son modèle, parfois même les
« nettoyer », les préparer au bon format et les enrichir. C’est
ce que l’on appelle le feature engineering, qui englobe aussi le
data engineering même si, au fur et à mesure, ces deux fonc-
tions vont se spécialiser. Il doit ensuite choisir et adapter le bon
algorithme pour obtenir la meilleure prédiction. L’ensemble se
fait de manière itérative. On appelle cela le Test G Learn. On
apprend en marchant, en essayant, et on tend vers un optimum.
L’IA a encore cela d’empirique qu’il faut tester soi-même, faire
confiance à son instinct, à son expérience aussi, car la combi-
natoire des algorithmes et des paramètres est telle qu’il n’existe
pas encore de solution pour les trouver automatiquement.

Une voie s’ouvre cependant avec ce que l’on appelle l’AutoML


(automatisation du machine learning). Un algorithme est chargé
de comparer des algorithmes après avoir ajusté leurs paramètres
en ayant comme objectif d’obtenir le modèle optimum. Cela
228 Guide pratique de l’intelligence artificielle dans l’entreprise

fonctionne très bien sur des cas spécifiques comme la recon-


naissance d’image, ce qui a même permis à Google de dire
qu’une intelligence artificielle en avait créé une autre. Ce n’est
pas encore le cas en revanche sur des problématiques com-
plexes qui font appel à plusieurs algorithmes en cascade. Le
Data Scientist a encore de beaux jours devant lui, même si
cette évolution ouvre une vraie voie de démocratisation au
machine learning.

LE RôLE DU HEAD OF DATA SCIENCE

La constitution des équipes de Data Scientists est un métier en


soi, qui demande beaucoup de compétences et de compréhen-
sion des enjeux en amont, par rapport au problème à traiter et,
en aval, vis-à-vis des compétences des équipes de développe-
ment chargées de la mise en production. Le rôle du Head of
Data Science est donc essentiel dans la constitution des équipes
projets, mais aussi stratégique pour tout ce qui concerne le
recrutement. En effet, une chose est sûre, il faudra à l’entreprise
investir dans ces nouveaux talents.

Le Head of Data fait évoluer le rôle du Data Scientist

‘‘ L’équipe Data/IA de la Digital Factory comprend environ


40 experts. En trois ans d’activité, outre nos cœurs
de compétences dans les divers champs scientifiques
de la data science et son industrialisation et gestion dans
des environnements de production, des spécialisations
fonctionnelles se structurent : processus industriels, gestion
de l’empreinte carbone, production de batteries, stratégie
de pricing… En parallèle de cela, nous développons beaucoup
les approches user centric, pour que les Data Scientists aient
toujours en tête les besoins des utilisateurs et l’intégration
de leurs modèles dans les processus métiers. ’’
Michel Lutz, Digital Factory Head of Data, Total Énergies
Les acteurs de l’écosystème de l’intelligence artificielle 229

Le rôle des Data Scientists est en train d’évoluer. Dotés initia-


lement d’une vision très technique et mathématique les can-
tonnant à la modélisation, ils ont maintenant une meilleure
compréhension des besoins métiers après avoir vu défiler les
cas d’usage durant ces cinq dernières années. Une opportunité
pour les organisations les plus matures de les intégrer à la vision
produit.

LE PROMPT ENGINEER

Cette ingénierie du prompt est une nouvelle science. En effet,


il s’agit de savoir parler en langage naturel à un modèle pré-en-
traîné, pour déclencher son raisonnement et le faire répondre
de la bonne manière. Il s’agit là encore d’un nouveau domaine
de compétences.

Autant un prompt peut tomber sous le sens pour des tâches


classiques que tout Data Scientist pourra intégrer facilement,
autant il est possible de rentrer dans une vraie ingénierie du
prompt quand il s’agit d’effectuer des tâches très complexes
comme dans le cas de la programmation des prompts des
agents. Le prompt de ReAct, par exemple, qui permet à un
LLM de devenir « orchestrateur » et de proposer une planifica-
tion des tâches, puis à un agent d’agir avec des outils, est d’une
longueur et d’une complexité incroyables.

Il faut donc réserver cette dénomination à de vrais spécialistes


du prompt dont nous aurons certainement très peu la nécessité
dans l’entreprise pour des besoins classiques.

Il reste cependant un vrai paradoxe que nous devrons résoudre


avec cette prédominance soudaine du NLP, à travers l’arrivée
en force des LLM et de leurs fameux prompts. Il s’avère que
les Data Scientists s’emparent magnifiquement bien du prompt
230 Guide pratique de l’intelligence artificielle dans l’entreprise

engineering et de l’ensemble des nouvelles fonctionnalités


comme les embeddings, qui faisaient en réalité déjà partie de leur
univers avec le Word2Vec. Il va nous falloir recruter des Data
Scientists très forts en maths, bien sûr, mais aussi en logique des
prédicats et en français.

LES DEVELOPPEURS
Nous l’avons vu avec le Data Scientist, il y a un véritable enjeu
dans la mise en production, la maintenance des formats de
données et la gestion des modèles créés par ces derniers. En
effet, nos développeurs back-office ont eu, jusqu’à maintenant,
à intégrer des modules avec des bases de données. Il va leur
falloir désormais savoir intégrer des modèles complexes avec
toute l’ingénierie liée à leurs flux de data. Ces profils sont
eux aussi hybrides, puisqu’ils devront bien sûr maîtriser par-
faitement les développements back-office, mais aussi certaines
librairies Python spécifiques comme Pandas1 ou des langages
comme Scala2 pour intégrer les flux de données et mettre en
production les modèles.
On retrouve donc encore ici un profil hybride qui comprendra
ces nouveaux algorithmes et leurs contraintes, toute l’ingénie-
rie liée aux modèles et au traitement de la data qu’il faudra
industrialiser et savoir maintenir, ainsi que les contraintes clas-
siques inhérentes à un back-office industriel. Ces profils sont
nouveaux et particuliers mais absolument indispensables si
l’on veut arriver à industrialiser l’intelligence artificielle dans
l’entreprise.

1. https://pandas.pydata.org/
2. https://www.scala-lang.org/
Les acteurs de l’écosystème de l’intelligence artificielle 231

LES GRANDS EDITEURS DE LOGICIELS

Les grands éditeurs de logiciels vont se mettre en ordre de bataille


pour apporter aux entreprises ces nouveaux outils qui vont révo-
lutionner le travail. Ils effectuent eux aussi leur transformation
Data IA en intégrant non seulement cette technologie, mais aussi
cette nouvelle culture, notamment auprès de leurs chefs de pro-
duits. Après avoir mis en place nombre de « laboratoires » et fait
des acquisitions technologiques, les premières librairies, couches
d’abstractions et autres applications packagées voient le jour,
avant d’être intégrées en profondeur, comme des enablers, dans
leurs différents workflows pour fournir des suites intelligentes.
Microsoft est le grand gagnant de l’IA. Après être parti très
tard, il a tout d’abord su repositionner son offre Azure et son
workflow de développement pour en faire la plateforme d’in-
tégration des développements intégrant de l’IA. Son position-
nement sur le créneau des suites pour développeurs en fait un
acteur désormais incontournable et entièrement intégré.
Non content de s’être déjà très bien positionné, Microsoft a
enfoncé le clou en faisant le pari des LLM et en investissant
très tôt dans Open AI. L’offre de Microsoft avec GPT4 a claire-
ment deux ans d’avance sur le reste du marché, que ce soit en
termes de puissance ou même fonctionnels, avec l’intégration
de fonctions dans l’interaction avec ses LLM.
Mais c’est encore une fois en intégrant ces technologies dans son
workflow de développement que Microsoft fait la différence. En
effet, au-delà du service rendu par le LLM, c’est dans son intégra-
tion applicative que va résider une partie du défi et de la réussite
des solutions qui vont intégrer ces nouveaux modèles. Azure AI
va permettre, d’autre part, de gérer nativement les droits d’accès
comme un service classique, alors que les autres acteurs vont
peiner à décoller de la seule production de leur modèle.
232 Guide pratique de l’intelligence artificielle dans l’entreprise

Microsoft, l’acteur incontournable


de l’intelligence artificielle

‘‘ Microsoft se positionne comme la plateforme la plus ouverte et


complète sur l’analytique et la data. Nous intégrons via Microsoft
Fabric tous les métiers de la data, depuis le Data Analyst jusqu’au
développeur et Data Engineer, qui peuvent non seulement mettre
en œuvre les modèles intégrés d’Azure Open AI, mais aussi
tous les modèles open source qu’ils souhaitent comme Llama2
et bien d’autres encore, avec des applications hybrides et cloud.
Microsoft Fabric intègre même la puissance de l’IA générative
pour permettre à tous les métiers de la data de construire
de manière sécurisée son workflow de données, ses modèles d’IA
et de machine learning, tout cela en langage naturel. ’’
Xavier Perret, directeur Azure IA, Microsoft France

Enfin, l’intégration de Copilot dans la suite Office de Microsoft


est une vraie révolution, même si elle prendra du temps à tenir
ses promesses. En déployant son LLM transversalement à son
offre et jusque dans son moteur de recherche Bing, le géant
américain se positionne pour longtemps comme le leader
incontesté de l’intelligence artificielle.
Les autres éditeurs comme SAP ou Salesforce ne pourront plus
rester longtemps sur leurs acquis et faire semblant de s’intéres-
ser à l’IA. SAP s’est beaucoup amélioré en quatre ans et obtient
d’excellents résultats dans les quelques intégrations qu’il a réa-
lisées. Il lui faudra cependant accélérer et introduire l’IA trans-
versalement à sa suite logicielle.

Salesforce pour sa part nous a fait rêver avec Einstein qui n’a
pour l’instant pas tenu ses promesses. EinsteinGPT marque
certainement son retour dans l’IA, sachant que l’apport des
LLM au CRM est fondamental pour avoir la possibilité de
générer du Next Best Action avec du machine learning. Adobe
pour sa part a tout de suite sauté le pas en intégrant Firefly à
Photoshop qui devient un outil comme un autre du créatif.
Les acteurs de l’écosystème de l’intelligence artificielle 233

Si le machine learning a rencontré quelques difficultés à s’inté-


grer aux suites logicielles du marché parce que leur marketing
produit avait du mal à se saisir de cette technologie, il n’en sera
pas de même avec les LLM. Microsoft va établir un standard de
fait avec l’intégration de Copilot 365 dans la suite Office. Nos
applications vont donc changer de physionomie ou disparaître.
La fantastique adoption de ChatGPT et, plus proche de nous,
les résultats obtenus par Cdiscount, montrent que l’humain
aime le LLM et son interaction. Le digital n’en finit pas d’être
darwinien.

LES START-UP, VECTEURS D’ACCELERATION

En prenant le problème de zéro et en intégrant immédiate-


ment la dimension IA dans la conception de leur produit, les
start-up peuvent prendre un réel avantage. Elles n’ont pas à se
transformer mais juste à créer ex nihilo. C’est le concept même
de l’AI First, conçu autour de l’IA et impossible à réaliser sans
elle.
Cependant, la nature même des algorithmes actuels, comme le
machine learning et le deep learning, oblige à traiter des problèmes
très verticaux et spécifiques. On ne crée pas un acheteur digital
mais un assistant digital de sourcing cognitif. L’IA forte n’existe
pas et l’IA faible spécialise les tâches. Cette spécialisation génère
structurellement une très forte granularité de l’offre, d’où la
prolifération de start-up dont l’offre repose sur l’IA.
La start-up IA n’a d’intérêt que parce qu’elle a intégré un métier
ou un process. En se focalisant, elle a su digitaliser la tâche spé-
cifique d’un workflow et la rattacher à l’existant avec des per-
formances qui joueront sur sa capacité à faciliter son adoption.
L’arrivée des LLM crée une nouvelle vague de start-up qui
va contribuer à la démocratisation de l’IA en venant adresser
234 Guide pratique de l’intelligence artificielle dans l’entreprise

non plus des besoins métiers, mais en proposant des outils glo-
baux comme l’interaction avec des PDF, la mise en page ou
encore la synthèse de notes prises au fil de l’eau. Les offres en
SaaS de ces entreprises comme le QGA ou le knowledge mining
pour des fonctionnalités plus évoluées, va aussi contribuer à
la démocratisation et la commoditisation de ces cas d’usage
incontournables qui vont constituer au moins au début, 80 %
de l’utilisation des LLM dans l’entreprise.
Il y a, en revanche, une vraie nécessité à segmenter l’offre. Les
ETI sont maintenant demandeuses d’un accès à l’IA mais dis-
posent de systèmes d’information assez complexes. Il leur fau-
dra donc des solutions qui pourront être intégrées.Au contraire,
les PME ne savent intégrer que du Plug and Play, soit en stand
alone, soit déjà incorporé à leurs outils sous forme d’upgrade.
Microsoft l’a bien compris avec l’intégration de Copilot 365
à Office.
Au vu des sommes injectées par les fonds d’investissement,
l’offre va être pléthorique. Les solutions seront plus avanta-
geuses les unes que les autres, et la constitution d’un schéma
directeur Data IA sera nécessaire pour donner à l’entreprise
une vision de celles à implémenter en priorité, en fonction de
sa nature et de sa structure.
Les start-up, contrairement aux grands éditeurs, vont vite et
sont d’ores et déjà présentes sur le marché. Elles permettent
à de grandes organisations comme à des PME de rapidement
bénéficier des apports de l’IA, de sa capacité à changer les
structures de coûts et de revenus d’une entreprise, quelle que
soit sa taille. Cette croissance à deux chiffres est aujourd’hui
à la portée de tous à travers ces start-up qu’il faut cependant
challenger, benchmarker, adapter à ses process et, enfin, se pré-
server de toute forme de vendor locking.
Les acteurs de l’écosystème de l’intelligence artificielle 235

OPEN SOURCE VS PROPRIÉTAIRE

Après avoir développé tout le machine learning sur des librairies


open source comme TensorFlow ou Keyras, le marché des LLM
change de physionomie.
Les librairies open source de fine tuning et d’intégration applica-
tive des LLM comme Transformers et LangChain sont d’ores
et déjà disponibles. Le marché des LLM, quant à lui, se scinde
en deux avec une partie commerciale et une autre open source
très distincte.
Les LLM commerciaux, principalement issus d’Open AI et
Microsoft, sont un peu les Rolls du marché. GPT4 a deux
ans d’avance sur ses poursuivants pratiquement sur toutes les
dimensions d’évaluation de FLASK et en note moyenne. Il
intègre huit modèles certainement gérés par un agent, un LLM
orchestrateur et un prompt ad hoc. Les LLM open source vont
devoir se différencier d’une manière ou d’une autre, en se spé-
cialisant sur des tâches spécifiques ou en prenant une posi-
tion dans la micro-segmentation qui s’annonce. Actuellement,
GPT4 reste le LLM de référence, permettant à une équipe de
développement de vérifier la faisabilité fonctionnelle d’un cas
d’usage avant de chercher à l’optimiser sur d’autres LLM, tant
que la micro-segmentation n’est pas claire ou qu’un catalogue
en ligne n’est pas développé. Mistral.ai pourrait venir rebattre
les cartes si la qualité de son pré-entraînement permet à son
modèle 7B d’avoir autant de puissance fonctionnelle que ses
pairs commerciaux. Ce modèle 7B est certainement le premier
d’une longue série, qui viendra parfaitement s’insérer dans la
micro-segmentation qui se dessine sous nos yeux, pour couvrir
tout le spectre fonctionnel sans toutefois consommer des mil-
liards d’opérations.
236 Guide pratique de l’intelligence artificielle dans l’entreprise

Au-delà de la performance, l’intégration applicative des LLM


reste le vrai challenge. Microsoft a non seulement les meilleurs
LLM payants, mais il a également ouvert son hébergement à
l’open source, pour capter les revenus de l’hébergement aussi sur
ce segment, ainsi que pour faciliter leur intégration applica-
tive. L’environnement de développement de Microsoft Azure
et Azure AI sont de vraies réponses industrielles, qui intègrent
nativement l’environnement des LLM dans les workflows de
développement.
De leur côté, les LLM open source cherchent en vain à montrer
qu’ils arrivent à rivaliser avec GPT4. En vain car, nous l’avons
vu précédemment, tout l’enjeu va se porter sur la spécialisation
des LLM et leur optimisation pour une tâche spécifique. Il n’y
a qu’une utilité à ces LLM open source génériques, c’est la pos-
sibilité d’en avoir un souverain qui permette à chaque pays, à
chaque entreprise, à chaque culture de l’utiliser comme nous
l’avons fait avec ChatGPT. Une nécessité dans le cadre de leur
utilisation au sein de l’Éducation nationale où les LLM géné-
riques, incluant du savoir et des raisonnements, vont devenir,
après la calculette et Google, de nouveaux outils pédagogiques
dont nous devons absolument maîtriser le contenu. Mistral.ai,
avec son premier modèle à 7B de paramètres, va peut-être
rebattre les cartes et montrer qu’avec un dataset de pré-entraî-
nement méticuleusement choisi, on arrive à rivaliser avec les
meilleurs.
La démonstration de Microsoft Research avec Tiny Stories,
Phi-1B pour la génération de code et Phi-1.5B, qui a entraîné
ces modèles en seulement quatre jours sur des datasets hyper-
concentrés et spécialisés, nous a montré que le pré-entraîne-
ment pouvait être à la portée de tous. Cette démonstration
rend les LLM spécialisés accessibles à des entreprises et à la
communauté open source, qui devra quand même trouver un
moyen de financer le pré-entraînement. Le calcul distribué
Les acteurs de l’écosystème de l’intelligence artificielle 237

viendra vite résoudre le problème. Comme ce fut le cas pour le


calcul du génome humain en 2001, porté par l’AFM et IBM,
auquel 75 000 internautes avaient participé en mettant à dis-
position la puissance inutilisée de leurs PC – dont le mien à
l’époque.
En revanche, l’utilisation de l’IA pour l’appliquer à un métier
ne sera jamais à la portée de ces géants qui ne peuvent que rester
dans l’outil générique indépendant du métier. Souvenez-vous
des milliards de dollars qu’a dû mettre sur la table Microsoft
pour décoller de sa suite bureautique, mais aussi Google pour
ses Google Apps. C’est donc de la composante métier que naî-
tront les futurs AI Software Providers et c’est là qu’il faudra, en
tant qu’entreprise, aller chercher de la valeur.
Ces deux modèles vont donc coexister chacun avec leurs ambi-
tions hégémoniques. Charge à nos équipes de développement
de comprendre leur complémentarité pour faire les bons choix
et investir en connaissance de cause.
Chapitre 8

Les enjeux de la formation


Les enjeux de la formation 241

Beaucoup de contre-vérités ont été dites ces derniers temps


sur le sujet de la formation à l’IA. L’humanité allait être divisée
en deux, entre les personnes formées et les autres, qui allaient
subir les foudres des robots malintentionnés. Cette vision
manichéenne et paranoïaque, sortie tout droit d’un film de
science-fiction, ne correspond en rien à la réalité y compris
dans nos entreprises.
Au contraire, la réussite de l’introduction d’innovation, que ce
soit pour le consommateur final ou dans l’entreprise, passe par
son adaptation à l’utilisateur. C’est ce que l’on appelle com-
munément l’expérience utilisateur, en anglais user experience, un
concept qui a permis à nombre d’innovations de se mettre à la
portée de l’utilisateur et d’intégrer son environnement.
Cependant, autant l’utilisateur final n’a pas besoin d’une
connaissance approfondie de l’IA, voire n’aura besoin d’au-
cune formation spécifique, autant il est d’autres rôles où elle
sera nécessaire, ainsi que certaines aptitudes, pour réussir cette
nouvelle transformation.

L’HOMO ANALYTICUS ET LA VISION


ANALYTIQUE DE L’ENTREPRISE

Au-delà du rôle de chacun, la vision analytique est la notion


que tous au sein de l’entreprise doivent avoir intégrée pour que
l’introduction de l’IA soit réalisée dans les meilleures condi-
tions, et que chacun puisse jouer son rôle de « révélateur » à
son niveau. C’est l’Homo analyticus.
En effet, ces dernières années ont vu la généralisation du mana-
gement par objectifs. Celui-ci a obligé les managers à dispo-
ser d’une vision quantitative de leur activité. L’essor de la BI
(descriptive analytics) leur a permis d’acquérir ensuite une vision
242 Guide pratique de l’intelligence artificielle dans l’entreprise

analytique de leur activité. Contrairement à la vision quanti-


tative, la vision analytique est loin d’être généralisée dans l’en-
treprise. Peu de métiers connaissent leurs propres OKR. Elle
est pourtant essentielle car elle permet le pilotage et surtout la
prise de conscience des paramètres qui en font le succès.
C’est en ayant en tête l’optimisation de ses paramètres de
pilotage qu’il devient possible de modéliser la réussite de son
activité. C’est exactement de cela que se nourrit l’intelligence
artificielle dans l’entreprise. Comprendre l’optimisation de ses
paramètres et connaître les données sur lesquelles il faut s’ap-
puyer, c’est déjà avoir réalisé le travail de modélisation qu’il
suffira ensuite de traduire avec les bons algorithmes.
Cette approche, que nous appellerons l’« entreprise analy-
tique », va permettre de développer rapidement et à moindres
frais les gisements de gains de compétitivité de l’entreprise. Il
faut pour cela mettre en place une politique volontariste. C’est
un vrai changement et de nouvelles habitudes à prendre, qui
peuvent potentiellement entraîner une modification substan-
tielle des profils, qu’il faudra intégrer dans l’entreprise pour
qu’elle se dote finalement d’un maximum d’Homo analyticus.

Les mathématiques appliquées sont au cœur


de la transformation Data IA

‘‘ Nous avons beaucoup de chance dans l’asset management.


Nous avons beaucoup d’ingénieurs en mathématiques
de très haut niveau qui arrivent très vite à intégrer les
nouveaux paradigmes de l’IA. Leur compréhension de cette
nouvelle technologie leur permet d’être à l’initiative de projets
qui utilisent tout le potentiel de l’IA dans leurs métiers. ’’
Christophe Bonnefoux, Chief Data Officer,
BNP Paribas Asset Management

La génération Millénium, à diplôme équivalent, est beaucoup


plus adaptée à l’environnement numérique et on le constate
Les enjeux de la formation 243

aussi, beaucoup plus analytique. Il lui est naturel d’analyser et


de piloter quantitativement ses activités. Au-delà d’Excel, les
outils de business intelligence sont évidents pour eux et il en sera
de même pour l’IA. Ce n’est donc pas l’IA qui pose un pro-
blème en termes de formation ou d’adaptation, mais bien le
niveau analytique qui s’impose de lui-même.

LA FORMATION AU CŒUR
DE LA TRANSFORMATION DATA IA

Les forces vives de l’entreprise n’ont, pour la plupart, pas le


seuil minimum qui leur permettra de contribuer au niveau
attendu pour en faire des « révélateurs ».
Il y aura un véritable effort à mener en termes de formation de
base. Par l’État d’abord, comme le soulignait le rapport Villani,
pour remonter globalement le niveau en mathématiques, et
sensibiliser dès le lycée à cette nouvelle technologie.
Les entreprises devront, elles aussi, investir massivement dans la
formation continue de leurs personnels si elles veulent être en
mesure de les faire contribuer. Pour cela, il leur faudra mettre
en place des cours de mathématiques reprenant des notions de
base d’analyse et d’algèbre, au même titre que l’on dispense des
cours d’anglais ou d’informatique dans l’entreprise. C’est en
effet ce qui permettra de donner, à ceux qui en ont besoin, la
capacité de comprendre ce qu’est une régression linéaire.
Chapitre 9

L’impact social
de l’intelligence artificielle
L’impact social de l’intelligence artificielle 247

IA ET SCHUMPETER
Les récentes évolutions de l’intelligence artificielle, avec l’ar-
rivée des modèles d’IA générative, vont avoir un impact sur
l’accélération de la pénétration de ces technologies dans l’en-
treprise. La puissance des LLM permet de les déployer avec
beaucoup moins d’efforts que le NLP de première géné-
ration. Des solutions prêtes à l’emploi sont déjà disponibles
sur le marché quelques mois après leur sortie des laboratoires.
Leur déploiement va être extrêmement rapide et profond dans
l’entreprise.
L’IA n’aura pas plus d’impact qu’une autre des ruptures tech-
nologiques que l’entreprise a déjà intégrées. En revanche, ce
qui sera différent, c’est la rapidité avec laquelle cette révolution
va s’effectuer et qu’il faudra donc convenablement gérer sur le
plan social. Autant s’y préparer.
La « destruction créatrice » de Joseph Schumpeter1 sera
quand même à l’œuvre avec l’arrivée massive de cette nou-
velle technologie dans les entreprises. On l’aura compris, de
nombreux postes vont laisser leurs places à des robots-logiciels.
Toutefois, conformément à la théorie de Schumpeter, de nou-
veaux métiers et fonctions seront parallèlement créés dans des
domaines complètement différents, ne serait-ce que pour gérer
le prompt engineering, le management de la donnée, le MLOps et
toutes ces nouvelles couches logicielles d’intégration à la DSI
que pour l’instant personne ne budgète mais qui ne tomberont
pas du ciel.

1. https://fr.wikipedia.org/wiki/Joseph_Schumpeter
248 Guide pratique de l’intelligence artificielle dans l’entreprise

UNE NOUVELLE INDUSTRIE

Cette intégration massive de l’intelligence artificielle dans les


entreprises et au sein de l’État français doit être une opportunité
de créer une filière industrielle qui sera source de croissance si
les investissements adéquats sont au rendez-vous. Issues de nos
laboratoires de recherche et de notre vivier d’entrepreneurs, de
nombreuses sociétés françaises se sont lancées dans l’IA avec
succès et peuvent prétendre à une place sur le podium. Intégrer
les assistants digitaux intelligents dans nos sociétés, c’est aussi
créer de nouveaux acteurs périphériques chargés de l’intégra-
tion, de l’installation et de la maintenance de ces nouveaux
systèmes et, donc, de l’emploi.
Malgré des annonces toutes plus farfelues les unes que les
autres, les premiers déploiements suggèrent que l’IA est utilisée
comme un outil complémentaire plutôt que de substitution.
L’IA semble pour le moment être un moteur de transforma-
tion des métiers plus que celui d’une substitution défavorable.
Toutefois, comme pour toutes les évolutions de la mécanisa-
tion de l’entreprise, une infime partie disparaîtra. Ce fut d’ail-
leurs le cas avec d’autres transformations de rupture, telles que
la bureautique.
Une seule chose diffère de tout ce que nous avons connu
jusqu’à présent : la rapidité avec laquelle va se dérouler cette
transformation. Une réalité déjà visible avec l’adoption massive
et quasi instantanée de ChatGPT. Il en sera de même pour le
déploiement de l’IA dans l’entreprise. Toutes choses égales par
ailleurs, il y aura une célérité jamais vue auparavant qu’il faudra
savoir gérer, non pas techniquement, mais humainement.
Chapitre 10

IA et réglementation
IA et réglementation 251

IA ET SOUVERAINETÉ

Les GAFAM ne sont pas vos amis pour la vie

Les GAFAM (Google, Amazon, Facebook, Apple, Microsoft)


cherchent à rentrer dans le business de l’IA par l’hébergement.
Il faut de grosses capacités de calcul pour entraîner des modèles
de plus en plus complexes et des jeux d’apprentissage toujours
plus importants, surtout lorsque les modèles s’autoadaptent au
fil du temps. AWS (Amazon Web Service) a été le premier à
proposer ce genre de service qui, avouons-le, est très pratique
pour des organisations qui souhaitent bénéficier de la souplesse
des offres cloud.

Mais attention, autant AWS était parfait pour héberger des sites
web qui, par essence, sont publics, autant l’hébergement de
modèles développés par vos soins, potentiellement au cœur de
votre business et considérés comme de la propriété intellec-
tuelle, peut présenter quelques risques à terme. La notion de
privacy est encore floue chez ces grands acteurs en pleine muta-
tion. Ils ont parfois tendance à confondre et à faire de l’abus de
bien digital : « Tout ce qui est à toi est à moi. »
L’exterritorialité du Cloud Act permettant à la justice amé-
ricaine d’avoir accès aux données d’une société américaine,
quelle que soit sa localisation ou celle de ses serveurs, rend
potentiellement toutes nos données lisibles par nos amis
outre-Atlantique. Nous avons malheureusement pu le consta-
ter avec l’affaire Alstom. Seul Thales, avec son offre de « cloud
de confiance », semble avoir su s’extraire du Cloud Act.
Ces services sont donc à utiliser avec la plus grande prudence,
surtout dans l’industrie, en attendant que l’État comprenne
que, comme pour l’énergie, l’armée, les autoroutes ou les aéro-
ports, il est des infrastructures stratégiques qu’il faut mettre en
252 Guide pratique de l’intelligence artificielle dans l’entreprise

place avant de les déléguer, sous peine de perdre son âme et,
même un peu plus, sa souveraineté.

Les LLM et la confidentialité

Beaucoup de questions se sont posées sur la confidentialité


des données à la sortie de ChatGPT. Les conditions générales
d’utilisation étaient pourtant claires : tout ce qui est entré dans
ChatGPT appartient à Open AI. Malheureusement, peu d’uti-
lisateurs les ont vraiment lues, entraînant de véritables catas-
trophes. N’oublions pas que ChatGPT apprend en même
temps qu’il nous répond et qu’il garde en mémoire certains
de nos prompts. C’est ainsi que les ingénieurs de Samsung ont
demandé à ChatGPT de débugger un programme ultrase-
cret qui s’est retrouvé, du jour au lendemain, dans le domaine
public.
ChatGPT est un service Internet gratuit. Or, comme le rappe-
lait très justement Tim Cook, le patron d’Apple : « Quand c’est
gratuit, c’est vous le produit. » L’entreprise doit donc faire un
rappel au règlement et demander aux collaborateurs de respec-
ter la charte Internet qu’ils ont signée et dans laquelle figure
l’interdiction absolue de partager des documents internes sur
le Web. Charge à chacun, ensuite, de prendre ses responsabilités
en toute connaissance de cause.
Une autre solution consiste à prendre, chez Microsoft, une ins-
tance privée de ChatGPT, comme l’a fait Axa avec son Axa
Secure GPT. Une excellente initiative, qui porte sur 1 000 per-
sonnes, et qui sera potentiellement étendue à tous les collabo-
rateurs de l’entreprise à la fin du test. Il s’agit là d’une bonne
façon de circonscrire les informations. Encore faut-il que le
LLM ne soit pas autoapprenant, auquel cas une synthèse de
Comex pourrait se retrouver dans les mains d’un prompteur
IA et réglementation 253

ingénieux, d’un collaborateur de l’entreprise. Les probléma-


tiques de Chinese Wall et de droits d’accès ne sont pas encore
résolues, même en interne, sauf à ce que le LLM ne soit pas
autoapprenant.
Nous n’en sommes qu’au début de l’intégration applicative
de ces modèles qui devront, comme tous les autres éléments
des systèmes d’information, avoir des gestions de droit d’accès.
Nous en sommes encore loin même chez Microsoft, alors dans
l’open source…

Les LLM et le copyright

Les éditeurs de LLM ont réalisé le plus gros hold-up du siècle.


En prenant des données issues de l’Internet comme Common
Crawl, mais aussi de différents datasets, intégrant des livres
entiers comme Book3 ou encore des lignes de codes issues de
GitHub, les éditeurs de ChatGPT, Llama et BloomberGPT ont
enfreint les copyrights de centaines de milliers d’ayants droit.
Une étude d’Alex Reisner dans les colonnes de The Atlantic
en date du 19 août 2023, démontre que Book3, par exemple,
a été créé par une organisation à but non lucratif, EleutherAI,
sans jamais demander aux 170 000 ayants droit leur accord, et
dont tous les pré-entraînements se seraient servis. Des auteurs
ont donc engagé une class action envers les utilisateurs de ces
datasets.
Contrairement à ce que l’on pourrait penser, l’IA peut, dans
certains pays, collecter en toute légalité des œuvres protégées
pour s’entraîner. C’est le cas en Europe, où la directive sur
le droit d’auteur de 2019 prévoit justement ce cas particulier.
Normalement, ce droit empêche toute utilisation d’une œuvre,
sauf autorisation du créateur ou de son ayant droit. Une société
ne pourra pas, par exemple, reprendre un morceau des Doors
254 Guide pratique de l’intelligence artificielle dans l’entreprise

pour une publicité sans l’accord de ses ayants droit et sans le


paiement de droits associés. Mais il existe des exceptions et
cette directive en a prévu une : l’exception dite de « Text and
Data Mining ». Elle vise expressément les systèmes d’IA qui col-
lectent des données pour s’entraîner. Seul garde-fou : l’auteur
peut s’y être opposé expressément dans le cadre d’un usage
commercial. Et c’est bien le cas.
Les éditeurs et hébergeurs de datasets vont donc devoir trouver
un terrain d’entente avec les ayants droit, qui ont la charge de la
preuve et mettent en place des class actions permettant de tran-
siger et de trouver un accord, voire de faire jurisprudence et
finalement de déboucher sur une loi. Les LLM répercuteront le
prix du copyright d’une manière ou d’une autre, changeant du
tout au tout le business model du marché des LLM.

Les droits seront prélevés par des organismes tiers


regroupant les ayants droit

‘‘ Les ayants droit ont vocation à se structurer par organisations,


syndicats ou sociétés de gestion collective de droits d’auteurs
comme la Sacem en France. ’’
France Charruyer, avocate spécialisée dans le droit
des technologies avancées, cabinet Altij

Les LLM open source devront trouver, eux aussi, une solution
quand ils seront utilisés commercialement au même titre que
la Sacem. Ce sera certainement à l’utilisateur de se déclarer
auprès des organismes subrogeant les droits des auteurs.
L’IA générative va donc créer un nouvel écosystème, générant
de nouveaux revenus pour des utilisations dérivées d’œuvres
d’auteurs, pour le plus grand plaisir de tous. La loi devra, elle
aussi, être adaptée. De nouvelles formes de licences seront
créées pour permettre : aux éditeurs de publier, quel que soit
leur business model ; aux ayants droit de ne pas se faire spolier ;
IA et réglementation 255

et, enfin, aux utilisateurs finaux d’utiliser ces modèles en toute


quiétude.

L’UE ET LA FIN ANNONCEE DE L’AI ACT

En 2017, lorsque l’intelligence artificielle a déclenché les pre-


mières peurs apocalyptiques, les fonctionnaires de l’Union
européenne se sont crus obligés de défendre le citoyen contre
un risque qui n’en était pas encore un. Ils ont alors pris le
sujet à bras-le-corps. La Chine, avec son abominable notation
sociale, est venue malheureusement les conforter dans la géné-
ralisation de leur vision de l’IA.

Il n’en fallait pas moins pour que naisse l’AI Act, censé pro-
téger le citoyen et l’Europe contre les méchants GAFAM. Il
est nécessaire de cadrer a minima une technologie pour qu’elle
puisse jouer son rôle d’innovation. Le clonage des humains a été
immédiatement interdit par voie législative, mais le reste de la
recherche a permis de réaliser des progrès fantastiques en méde-
cine, notamment en ce qui concerne les cellules souches répara-
trices. Il en va de même avec l’IA. Il faut arrêter de ne voir que
son côté sombre, bien au contraire. L’IA va participer, comme
les autres technologies, au bien-être de toute l’humanité.

Comme évoqué précédemment, l’IA n’est qu’une prolongation


mathématique de l’informatique mise en œuvre par l’humain
et sous son entière responsabilité. C’est d’autant plus vrai dans
l’entreprise, où la mise en production engage la responsabilité
du mandataire social vis-à-vis des lois ayant trait à l’informa-
tique. Or, depuis plus de quarante ans, la CNIL (Commission
nationale de l’informatique et des libertés) est à l’origine de
nombreuses lois protégeant le citoyen. Tout l’arsenal législatif
est présent et fonctionne très bien. La CNIL, dans sa grande
256 Guide pratique de l’intelligence artificielle dans l’entreprise

sagesse, vient de rappeler ces fondamentaux pour l’IA tout en


précisant qu’elle veillera tout particulièrement à son bon usage.
L’AI Act, au contraire, est bâti sur des a priori de dangerosité,
présentant l’IA comme un risque, la plupart du temps sans fon-
dement. Seulement, cette situation oblige les éditeurs de ser-
vices à se conformer à des règles totalement inadaptées. Les
éditeurs français et européens n’auront alors pas d’autre choix
que de quitter le sol européen pour ne serait-ce que survivre,
tant la mise en conformité va grever leurs investissements ou
venir les empêcher d’utiliser leur produit, le temps que le légis-
lateur comprenne. Ce n’est pas sans raison qu’Open AI a ins-
tallé son siège européen à Londres plutôt qu’à Paris, faisant
de cette ville la capitale européenne non européenne de l’IA.
L’Angleterre l’a très bien compris et joue déjà sur cette corde
sensible pour attirer les start-up de l’IA.
Le gouvernement français œuvre, à travers son commissaire
européen,Thierry Breton, pour que ce texte ne soit pas adopté.
La commission européenne a elle-même indiqué que si le texte
était trop restrictif, il serait rejeté en l’état. Reste à trouver une
sortie politique à cet incroyable imbroglio. Le citoyen européen,
aujourd’hui hyperprotégé, ne peut, en effet, pas se retrouver, du
jour au lendemain, totalement livré à lui-même, car il sera bien
incapable de faire le lien avec les recommandations bienveil-
lantes des CNIL locales déjà opérationnelles y compris sur l’IA.
De nombreuses entreprises françaises avaient déjà pris en
compte l’AI Act, se préparant au pire, augmentant leurs res-
sources de DPO, prévoyant des budgets colossaux de mise en
conformité comme pour le RGPD et, même, pour certains
baissant les bras. Les apprentis sorciers vont se calmer et nous
allons pouvoir travailler sereinement à l’augmentation de la
performance de nos entreprises, au maintien de leur compéti-
tivité, et nous assurer de leur pérennité.
Chapitre 11

Prospectives et IA

‘‘ L’enfant naît avec un cerveau inachevé et non pas,


comme le postulat de l’ancienne pédagogie l’affirmait,
avec un cerveau inoccupé. ’’
Gaston Bachelard, La Philosophie du non (1940)
Prospectives et IA 259

Les mythes sur l’intelligence artificielle ont la vie dure. Cette


proximité avec une infime partie de nos capacités intellec-
tuelles attise l’anxiété des plus crédules, quand elle n’est pas
décrite comme un pas vers le transhumanisme et l’immortalité.
Ces thèses ont fait grand bruit ces dernières années et sont
maintenant ancrées dans les esprits. Elles peuvent faire l’ob-
jet de débats au sein de l’entreprise pour lesquels il faut avoir
quelques arguments.

DE L’INTELLIGENCE ARTIFICIELLE FAIBLE


A L’INTELLIGENCE ARTIFICIELLE FORTE

L’IA actuelle est dite « faible » car, nous l’avons vu tout au


long de ce livre, les algorithmes actuels, par leurs capacités res-
treintes, les jeux d’apprentissage qu’ils sont capables d’analy-
ser, ne peuvent s’attacher à résoudre que des problématiques
très verticales, même si ChatGPT nous a donné l’illusion de
l’avènement de l’AGI. L’intelligence « forte », quant à elle, per-
mettrait à une machine de sauter du coq à l’âne et d’avoir
conscience d’elle-même. Nous allons voir dans les paragraphes
suivants que nous sommes loin de pouvoir prétendre, dans un
futur proche, à disposer d’une telle technologie, qui viendrait
remplacer l’humain.

Le cerveau est une machine analogique

Bien que beaucoup d’innovations, notamment dans l’IA, soient


issues de la biologie, rares sont celles qui, in fine, sont des copies
conformes. « Les avions ne battent pas des ailes » a l’habitude
de dire fort justement le pionnier de l’intelligence artificielle,
Frederick Jelinek. De plus, il semblerait que nous n’ayons pas
encore pris la dimension de la réelle complexité du cerveau.
260 Guide pratique de l’intelligence artificielle dans l’entreprise

Yves Agid et Pierre Magistretti dans leur ouvrage L’Homme


glial1, en référence au célèbre ouvrage de Jean-Pierre Changeux
paru en 1983, L’Homme neuronal2, nous expliquent tranquille-
ment que nous avons oublié d’intégrer dans notre modélisation
du cerveau un élément essentiel, la glie et ses 120 milliards
d’astrocytes qui interagissent avec les 80 milliards de neurones.
Notre compréhension du cerveau et de la mémoire n’en est
qu’à ses tout débuts. Nous n’avons aucune idée de la manière
dont ils fonctionnent pour raisonner.
D’autre part, la plupart des apprentis futurologues confondent
la croissance vertigineuse de l’électronique et sa loi de Moore,
avec la lente évolution de notre compréhension des méca-
nismes biologiques qui composent notre cerveau et que la
nature a mis quelques millions d’années à construire.

La loi de Moore est limitée


par la physique quantique
Dans un autre registre, Jean-Gabriel Ganascia, professeur à l’uni-
versité Pierre-et-Marie-Curie et président du comité d’éthique
du CNRS, nous rappelle dans son ouvrage Le Mythe de la sin-
gularité3 que l’application de la loi de Moore n’est pas possible
indéfiniment. En effet, au-delà d’une densité de 4 nanomètres
(14 nm en 2018) sur les processeurs, la physique classique laisse
la place à la physique quantique. L’électron, jusqu’alors arrêté
par le transistor, le traverse quel que soit son état, à cause de
l’effet dit « tunnel ». Les transistors n’existent plus en dessous
d’une certaine densité et la croissance de la puissance des pro-
cesseurs s’en verra ralentie. Il faudra attendre une autre rupture

1. Yves Agid et Pierre Magistretti, L’Homme glial, Odile Jacob, 2018.


2. Jean-Pierre Changeux, L’Homme neuronal, Pluriel, 2012.
3. Jean-Gabriel Ganascia, Le Mythe de la singularité, Seuil, 2017.
Prospectives et IA 261

technologique dans le domaine de l’électronique pour nous


permettre de passer ce cap physique, qui bride la puissance de
nos processeurs.

L’ordinateur quantique

L’ordinateur quantique utilisé pour le machine learning repré-


sente toutefois une vraie opportunité de changer d’ordre de
grandeur dans la puissance de calcul. La recherche sur les algo-
rithmes de machine learning progresse très lentement compte
tenu du fait qu’il n’existe aujourd’hui pas d’ordinateur quan-
tique opérationnel mais seulement des simulateurs. D’excellents
papiers de recherche ont montré que le machine learning quan-
tique performait magnifiquement, quand le calcul était fait sur
des nombres eux-mêmes quantiques. Or nous savons bien que
nos entreprises regorgent de nombres quantiques à ne plus
savoir qu’en faire ! Il faudra regarder avec la plus grande atten-
tion l’arrivée de ces ordinateurs quantiques, s’ils arrivent un
jour. Alain Aspect, prix Nobel de physique 2022 pour avoir
démontré la réalité de l’intrication, reste lui-même circonspect
quant à notre capacité à la maintenir dans le temps.

Le transhumanisme, une vision


apocalyptique sans aucune réalité

Le mythe de Terminator a la vie dure. Cette vision cataclys-


mique a été inventée en 1983 par l’auteur de science-fiction
Vernor Vinge qui l’a appelée « la singularité numérique »,
moment où la machine pourrait devenir consciente et où,
humains et machines, pourraient se fondre dans un continuum.
Ray Kurzweil, le grand théoricien du transhumanisme, salarié
de Google, écrivait en 2005 dans son ouvrage sur la singularité,
262 Guide pratique de l’intelligence artificielle dans l’entreprise

The Singularity is Nearer1, qu’au rythme actuel du progrès lié à


la loi de Moore, cette transition vers la singularité se produi-
rait vers 2045. Or il semble que la loi de Moore soit limitée
par l’« effet tunnel » et que notre modélisation du cerveau soit
encore très simpliste. Ces théories délirantes sont de l’ordre
de l’affabulation mais font grand bruit tellement leur contenu,
digne de discours de sectes apocalyptiques, touche notre sen-
sibilité et fait écho à nos peurs. Il faut absolument lire l’ou-
vrage de deux neurologues de renom, Danièle Tritsch et Jean
Mariani, Ça va pas la tête !2 pour être définitivement rassuré sur
ce sujet et enfin dormir en paix pendant que Terminator, digne
petit-fils du fantasme de Frankenstein, s’évertue à exister.

COMMENT VA EVOLUER L’INTELLIGENCE ARTIFICIELLE

‘‘ Chose étrange et presque stupéfiante, on connaît


tous les recoins du corps humain, on a catalogué
tous les animaux de la planète, on a décrit et baptisé
tous les brins d’herbe, et on a laissé durant des siècles
les techniques psychologiques à leur empirisme, comme si
elles étaient de moindre importance que celles du guérisseur,
de l’élève ou du cultivateur. ’’
Jean Piaget, La Pédagogie moderne (1949)

La beauté, l’esthétique, le rapport social et ce que Stanislas


Dehaene appelle dans son livre, La Plus Belle Histoire de l’in-
telligence3, « le cerveau social », sont encore hors de portée de
l’intelligence artificielle pour de très longues années. Le sens

1. Ray Kurzweil, The Singularity Is Nearer, Penguin, 2006.


2. Danièle Tritsch et Jean Mariani, Ça va pas la tête ! Cerveau, immortalité
et intelligence artificielle, op. cit.
3. Stanislas Dehaene, La Plus Belle Histoire de l’intelligence, Robert Laf-
font, 2018.
Prospectives et IA 263

commun des LLM, leurs facultés d’inférence ne suffisent pas à


recréer l’intelligence et la conscience de soi.
L’intelligence artificielle a encore beaucoup de chemin à faire.
Tout d’abord avec les technologies actuelles comme le deep
learning et son devoir d’explicabilité, qu’il faudra mettre en
œuvre pour que ces technologies s’insèrent dans la vie cou-
rante et son cadre réglementaire. Une fonctionnalité que nous
n’avons pas encore avec les LLM car, s’ils sont capables d’ar-
gumenter leurs résultats, il est encore impossible de connaître
le chemin interne du réseau de neurones qui les a amenés à ce
raisonnement.
La suite va s’écrire avec deux écoles. Une première, issue du
deep learning, va chercher à exploiter au maximum les outils
en sa possession. Nous n’en sommes qu’au début de l’ex-
ploitation de leur potentiel et de leurs combinaisons. Yann
Le Cun explore déjà avec I-JEPA1 de nouveaux horizons avec
des modèles de représentation du monde basés davantage sur
l’observation en mode non supervisé que sur l’apprentissage.
L’intelligence serait-elle aussi contemplative ?
La deuxième école, persuadée que la modélisation du raisonne-
ment humain ne peut pas se faire avec ces outils, va reprendre
le chemin des écoliers pour se tourner vers la biologie et les
neurosciences, afin d’en avoir une meilleure compréhension.
Yann Le Cun, en reprenant l’étude des réseaux de neurones
qui se trouvent derrière l’œil à partir des travaux de messieurs
Hubel et Wiesel, prix Nobel 1981, pour arriver au deep learning
que nous connaissons aujourd’hui, en est le plus bel exemple.
Cette deuxième voix de recherche est très prometteuse et
voit converger actuellement les neurosciences cognitives, qui

1. https://openaccess.thecvf.com/content/CVPR2023/papers/Ass-
ran_Self-Supervised_Learning_From_Images_With_a_Joint-Em-
bedding_Predictive_Architecture_CVPR_2023_paper.pdf
264 Guide pratique de l’intelligence artificielle dans l’entreprise

intègrent l’aspect neuropsychologique du cerveau, et les neu-


rosciences computationnelles, qui en seraient la modélisation
numérique mais peut-être aussi comme le cerveau, analogique.
L’intelligence artificielle n’en est donc qu’à ses prémices et il
serait très présomptueux aujourd’hui de prédire à quoi pourra
ressembler « l’aile de l’avion ».
Conclusion

C’est une nouvelle entreprise qui se profile, allégée de ses tra-


vaux fastidieux, plus réactive, mieux connectée à son environ-
nement et à ses clients. Avec une structure de coûts optimisée
et de nouveaux revenus, cette entreprise sera plus performante
sur son marché et assurera sa pérennité.

La transition va être beaucoup plus rapide qu’il n’y paraît.


L’attrait du « double digit growth » va avoir un effet d’entraî-
nement, dès lors qu’une partie de l’industrie ou d’un métier
l’aura intégrée comme la nouvelle bonne pratique. La simpli-
cité de mise en œuvre des solutions du marché et la baisse des
coûts de développement liés à l’apparition de plateformes de
développement va grandement contribuer à la démocratisation
de cette technologie, la rendre accessible et accélérer sa diffu-
sion. Elle va s’imposer comme les autres technologies avant
elle, mais plus vite et plus fort, avec un gain de puissance d’un
nouvel ordre de magnitude.
Il faudra se lancer de toutes ses forces dans cette nouvelle aven-
ture, car l’IA n’est pas une option même si chaque entreprise,
chaque industrie a ses cycles, son rythme, sa culture et qu’il
est tentant de regarder les autres faire avant. L’IA est une telle
source de différenciation que ses utilisateurs bénéficieront
d’une longueur d’avance sur leur marché, qui les préservera
d’une concurrence acerbe et du fameux « winner takes all ».
L’introduction de l’IA est une source de créativité pour l’en-
treprise qu’il faudra savoir laisser s’exprimer. Des nouveaux
services aux déplacements dans la chaîne de valeur, c’est une
opportunité unique de créativité qui est donnée à l’entreprise,
aux femmes et aux hommes qui la composent, non seulement
266 Guide pratique de l’intelligence artificielle dans l’entreprise

dans les fonctions classiques de stratégie et marketing, mais aussi


dans le rôle de révélateur que l’on retrouve à tous les niveaux et
dans tous les métiers. L’humain sera au centre de cette trans-
formation, charge à nous de le former, de l’impliquer et de lui
donner cette nouvelle culture qui fera de lui le maître de cette
révolution.
En devenant un visionnaire avec la démarche que vous avez
entreprise ici, vous avez déjà fait une partie du chemin. Vous
avez acquis les bases et vous vous êtes déjà projeté. Il ne vous
reste plus qu’à faire le grand pas et à vous lancer dans cette
nouvelle aventure passionnante, qui changera la destinée de
votre entreprise.
Petit glossaire
de l’intelligence artificielle

Accuracy : métrique d’évaluation en fonction de la précision


d’un modèle.
AI First : qui ne peut pas exister sans l’IA.
AI Performance Builder : analyste et cheville ouvrière du
schéma directeur et de ses déclinaisons au sein du CDO Office.
AI Product Owner : profil hybride permettant de délivrer un
produit aux métiers en collaboration avec toutes les parties
prenantes d’un projet Data IA.
Agent : programme informatique permettant d’interroger un
LLM orchestrateur pour accéder aux outils permettant d’exé-
cuter la requête reçue.
Alignement : entraînement spécifique d’un LLM sur la forme
de ses réponses.
Apprentissage supervisé : apprentissage d’un modèle basé sur
un jeu d’exemples contenant les données d’entrées et les sorties
attendues.
Apprentissage non supervisé : apprentissage d’un modèle avec
un jeu d’apprentissage ne contenant pas les sorties attendues.
Le jeu d’apprentissage est dit non labellisé.
Biais : un jeu d’apprentissage est biaisé quand il comporte trop
d’éléments de même nature et ne représente pas la réalité.
Big Data : ensemble des données internes et externes de l’en-
treprise. Intègre aussi les process inhérents à la gouvernance et
à la gestion des données.
268 Guide pratique de l’intelligence artificielle dans l’entreprise

Catastrophic forgetting : perte de connaissance d’un LLM par


dilution massive.
Chatbot : agent conversationnel simulant une discussion avec
un interlocuteur quel que soit le canal utilisé – messagerie ins-
tantanée ou chat, interaction vocale au téléphone ou avec une
enceinte connectée.
CDO (Chief Data Officer) : responsable de la transformation
Data IA.
CDO Office : organisation dirigée par le CDO en charge du
cycle de vie de la transformation Data IA.
Cluster : une classe.
Clustering : classement non supervisé. Les algorithmes de clus-
tering classent automatiquement les éléments non labellisés qui
leur sont présentés.
Convolution : filtre appliqué sur une image pour la décomposer.
Crawling : navigation dans le Web pour récupérer des
informations.
Data driven : piloté par l’analyse et le traitement de la donnée.
Data Scientist : spécialiste du machine learning et/ou du deep
learning.
Dataset : ensemble de données préparées pour un modèle.
Data Steward : responsable de la qualité des données dans son
organisation.
Data management : mise en qualité de la donnée incluant tout
son cycle de vie, de sa captation à son décommissionnement.
Data mesh : ensemble de concepts décrivant la dynamique dans
laquelle doit s’inscrire le data management.
Petit glossaire de l’intelligence artificielle 269

Deep learning : modèles basés sur des réseaux de neurones et


intégrant de nombreuses couches avec chacune ses spécificités.
Enabler : technologie permettant de réaliser une fonction.
Fine tuning : réglage des paramètres pour obtenir le meilleur
modèle.
Jeux d’apprentissage : données contenant des exemples label-
lisés ou non.
Hyperparamètres : paramètres importants des modèles.
Machine learning : classe d’algorithmes apprenant statistique-
ment d’un jeu de données.
MOOC : cours en ligne.
LLM (Large Language Model) : modèle de langage compre-
nant plusieurs milliards de paramètres entraînés sur des datasets
géants de plusieurs milliards de mots.
LLM orchestrateur : LLM capable de décomposer un raison-
nement ou une tâche en plusieurs sous-tâches afin de réaliser
la requête demandée à travers plusieurs outils.
Outil : programme informatique spécialisé pouvant être appelé
par un agent.
Pandas : librairie Python dans laquelle se trouve beaucoup de
traitement de données. https://pandas.pydata.org/
POC (proof of concept) : démonstration de faisabilité.
POV (proof of value) : démonstration de création de valeur.
Programmation inférentielle : concept de programmation réa-
lisée par des outils pilotés par un LLM orchestrateur à partir des
inférences qui lui permettent de décomposer le travail qui lui
est demandé en sous-tâches.
270 Guide pratique de l’intelligence artificielle dans l’entreprise

Pruning : optimisation de LLM par destruction de certains


paramètres inutiles.
Python : langage de programmation de prédilection des Data
Scientists. https://www.python.org/
Schéma directeur Data IA : méthodologie permettant de car-
tographier, d’évaluer et de prioriser des cas d’usage venant ser-
vir les objectifs de l’entreprise.
Scikit-Learn : librairie de machine learning. http://scikit-learn.
org
Smart machine : logiciel contenant de l’IA.
Tensorflow : librairie de deep learning de Google. https://www.
tensorflow.org/
Quantization : projection de la valeur des paramètres d’un LLM
dans un format numérique occupant moins de mémoire. De
32 bits à 8 bits, par exemple.
Index

A Dataset 268

AI Driven 162, 201 Data Steward 97, 160, 268


AI First 90, 131, 185, 186, 233, Deep learning 11, 14, 31, 32, 33,
267 35, 36, 37, 85, 86, 100, 101,
Apprentissage non supervisé 102, 121, 130, 233, 263, 268,
267 269, 270
Apprentissage supervisé 267 Dhatim 275
DreamQuark 101, 102
B DSI 102, 161, 162, 163, 177,
211
Biais 21-24, 100, 159, 267
Big Data 25, 88, 99, 107, 192,
201, 203, 267 E
BPO 153
Business Issue First 182 Enabler 37, 95, 111, 130, 163,
185, 211, 269
ERP 87, 163
C
CDO (Chief Data Officer) 97,
F
157, 161, 162, 178, 179, 202,
203 FieldBox.ai 132
ChatBot 268 Fine tuning 269
Chief Digital Officer 97, 157,
Fortia 121, 122
160, 161
Clustering 29, 139, 268
Convolution 268 H
Crawling 268
Hyperparamètres 269

D
I
Data Scientist 222, 227, 228,
268 Industrie 4.0 107, 130
272 Guide pratique de l’intelligence artificielle dans l’entreprise

J R
Jeux d’apprentissage 22, 24, 26, Réseaux de neurones 11, 32,
251, 259, 269 33, 34, 35, 36, 37, 38, 39, 40,
263, 269
L Révélateur 157, 158, 241, 266
RPA 16, 152
Linkfluence 136, 137
Long Tail 92, 93, 112
S

M Schéma directeur Data IA 158,


162, 178, 203, 221, 234
Machine learning 14, 17, 18, 22,
Scikit-Learn 270
23, 24, 25, 26, 27, 28, 29, 30,
Sidetrade 116, 141, 142
31, 32, 34, 35, 86, 92, 100,
Silex 117
113, 130, 131, 132, 133, 134,
139, 140, 142, 159, 223, 227, Smart machine 98, 99, 100
233, 268, 269, 270, 276
Microsoft 237, 251 T
MOOC 213, 269
Target2Sell 138, 139, 140
Tensorflow 270
O Transformation digitale 5, 88,
Open data 40, 119, 120 89, 102, 157, 161, 177, 276

P V

Pandas 230, 269 Vekia 134


Predictice 40, 120 Visionnaire 97, 157, 158, 162,
Python 230, 269, 270 266
Remerciements

À toutes les sociétés et tous les participants, dirigeants, direc-


teurs marketing, Chief Data Officer, Head of Data qui ont eu
la gentillesse de m’accueillir et de m’accorder de leur temps
précieux pour partager leurs visions.À tous les consultants d’AI
Builders qui ont contribué à l’élaboration de ce livre par leur
travail à mes côtés pendant ces quatre années. Qu’ils en soient
tous ici remerciés.

Vous aimerez peut-être aussi