Intelligence Artificielle
Intelligence Artificielle
Intelligence Artificielle
E:Entrée
● Introduction
○ Introduction
○ Définition
○ Contexte de IA
○ Importance
● Histoire IA
S: Situation
○ IA
○ les lois de l'intelligence artificielle
○ Comment la machine apprend-elle?
○ Machine learning
○ Deep learning
○ IA et la programmation
○ Atout et inconvénient
P: probléme relatifs
○ Les dangers de IA
○ Impact de IA sur le travail
R:
● Projets de IA
○ Les domaines d'utilisation
○ Projet 1
○ Projet 2
○ Projet 3
I:
Perspectives d'avenir de IA
T:
● Conclusion
● Les limites de IA
E : Entrée
Introduction
Depuis plus d’une décennie, l’intelligence artificielle (IA) vit une accélération dans son
développement et son adoption. En médecine, elle intervient dans la recherche
fondamentale et clinique, la pratique hospitalière, les examens médicaux, les soins ou
encore la logistique. Ce qui contribue à l’affinement des diagnostics et des pronostics, à une
médecine encore plus personnalisée et ciblée, à des avancées dans les technologies
d’observations et d’analyses ou encore dans les outils d’interventions chirurgicales et autres
robots d’assistance. De nombreux enjeux propres à l’IA et à la médecine, tels que la
dématérialisation des données, le respect de la vie privée, l’explicabilité des algorithmes, la
conception de systèmes d’IA inclusifs ou leur reproductibilité, sont à surmonter pour
construire une confiance du corps hospitalier dans ces outils. Cela passe par une maîtrise
des concepts fondamentaux que nous présentons ici.
Définition:
L’intelligence artificielle ou IA (AI pour Artificial Intelligence en anglais) est une discipline
scientifique et technologique visant à l’exécution par des machines (ordinateurs et
programmes informatiques) de processus cognitifs jusque-là réservés aux capacités du
cerveau humain, dans les domaines de :
la compréhension,
la structuration de la mémoire,
le raisonnement critique,
l’adaptation,
Dans la langue courante, l’IA désigne également les dispositifs informatiques ou robotiques
mettant en œuvre ces fonctions. Deux écoles se distinguent dans l’approche des objectifs
de l’intelligence artificielle : La première considère que l’IA doit fonctionner sur le même
modèle que l’intelligence humaine. La seconde préconise un modèle idéal, dont la perfection
rationnelle serait dissociée des critères et processus de l’intelligence biologique.
Cette image donne une définition courte du principe de l’IA , elle récapitule en effet le
paragraphe précédent. Le cerveau dans l'image symbolise la capacité des humains et des
machines à mémoriser et d'apprendre , de penser , de créer , de juger , de parler , de
décider.
Contexte de l'IA:
Pourquoi l’intelligence artificielle ?
L’intelligence artificielle est dans toutes les conversations, tous les débats, tous les
argumentaires commerciaux, toutes les prédictions… elle nous est présentée à la fois
comme la principale cause du futur effondrement de notre civilisation, mais également
comme la solution à tout. Nous sommes confrontés à une situation absurde dans la mesure
où nous avons l’injonction d’en louer les mérites et de l’implémenter au plus vite, alors qu’il y
a un déficit flagrant de compréhension de ce qu’est réellement l’intelligence artificielle, de ce
qu’elle peut apporter au monde de l’entreprise ou à la société en générale, et de la façon
dont elle peut le faire. Non, l’IA n’est ni magique, ni révolutionnaire, c’est l’évolution logique
de l’outil informatique, ni plus, ni moins.
les IA ne vont pas détruire des emplois, ces derniers évoluent selon les cycles
économiques, cela a été théorisé (La destruction créatrice est un phénomène contre lequel
vous ne pouvez pas lutter). De plus, n’oublions pas que nous n’avons pas besoin d’IA pour
détruire des centaines de milliers d’emplois, nous y arrivons très bien tout seuls : Potential
International Employment Effects of a Hard Brexit. D’autre part : non, les intelligences
artificielles ne vont pas sauver la planète, seuls nous (ses occupants) sommes capables de
le faire. Mais vous le saviez déjà, non ?
Tout ça pour dire que l’intelligence artificielle n’est ni la cause de nos malheurs / espoirs, ni
le remède, mais une partie des deux. Au même titre que l’on peut difficilement accuser l’outil
informatique d’avoir détruit des emplois à la fin du siècle dernier, nous ne pouvons pas
continuer à propager des scénarios catastrophes qui reposent sur des hypothèses et des
projections bancales
Sous le terme intelligence artificielle (IA) on regroupe l’ensemble des théories et des
techniques mises en œuvre en vue de réaliser des machines capables de simuler
l'intelligence.” Cette pratique permet à l’Homme de mettre un système informatique sur la
résolution de problématiques complexes intégrant de la logique. D’une façon plus commune,
lorsque l’on parle d’intelligence artificielle, on entend aussi par là des machines imitant
certains traits de l’Homme.
L'importance de l'IA
Pourquoi l'intelligence artificielle est-elle importante ?
De nos jours, êtres humains et machines génèrent des données plus vite qu'il n'est
humainement possible de les absorber et de les interpréter pour prendre des décisions
complexes. L'intelligence artificielle est la base de tout apprentissage par un ordinateur et
représente l'avenir des processus décisionnels complexes. Par exemple, la plupart des êtres
humains peuvent apprendre à ne pas perdre à une simple partie de morpion, alors qu'il
existe 255 168 actions possibles, dont 46 080 mènent à un match nul. En revanche, les
champions du jeu de dames sont plus rares, étant donné qu'il existe plus de 500 x 1018
(500 trillions) de coups possibles. Les ordinateurs sont capables de calculer ces
combinaisons et les meilleures permutations possibles très efficacement, afin de prendre la
bonne décision. L'IA (avec son évolution logique, le machine learning) et le deep learning
représentent l'avenir de la prise de décisions.
Histoire AI
https://www.youtube.com/watch?v=qmwJx-r5vmw&t=2s&ab_channel=CEARecherche
Preuve que ce n’est pas une science d’aujourd’hui, les premières traces de l’IA remontent à
**1950** dans un article d’Alan Turing intitulé “*Computing Machinery and Intelligence*” dans
lequel le mathématicien explore le problème de définir si une machine est consciente ou
non. De cet article découlera ce que l’on appelle aujourd’hui le Test de Turing qui permet
d’évaluer la capacité d’une machine à tenir une conversation humaine.
Une autre origine probable remonte quant à elle à **1949** dans une publication de Warren
Weaver avec un mémo sur la traduction automatique des langues qui émet l’idée qu’une
machine pourrait très bien effectuer une tâche qui relève de l’intelligence humaine.
L’officialisation de l’intelligence artificielle comme véritable domaine scientifique date de
**1956** lors d’une conférence aux États-Unis qui s’est tenue au Dartmouth College.
Par la suite, ce domaine atteindra de prestigieuses universités comme celles de Stanford, du
MIT, ou encore d’Édimbourg.
Dès le milieu des **années 60**, la recherche autour de l’IA sur le sol américain était
principalement financée par le Département de la Défense. Dans le même temps, des
laboratoires ouvrent çà et là à travers le monde. Certains experts prédisaient à l’époque que
« *des machines seront capables, d’ici 20 ans, de faire le travail que toute personne peut
faire* ». Si l’idée était visionnaire, même en 2018 l’intelligence artificielle n’a pas encore pris
cette importance dans nos vies.
En 1974 arrive une période appelée le « *AI Winter* ». Beaucoup d’experts ne réussissent
pas à faire aboutir leurs projets et les gouvernements britannique et américain réduisent
leurs financements pour les académies. Ils préfèrent soutenir des idées ayant plus de
chances de déboucher sur quelque chose de concret.
Dans les années 80,le succès des systèmes experts permet de relancer les projets de
recherche sur l’intelligence artificielle. Un système expert était un ordinateur capable de se
comporter comme un expert (humain), mais dans un domaine bien précis. Grâce à ce
succès, le marché de l’IA atteint une valeur d’un milliard de dollars, ce qui motive les
différents gouvernements à de nouveau soutenir financièrement plus de projets
académiques.
Au début des années 2000, l’intelligence artificielle s’intègre dans une grande quantité de
films de science-fiction présentant des scénarios plus ou moins réalistes. Le plus marquant
du nouveau millénaire étant certainement *Matrix*, premier volet de la saga sorti en salles le
23 juin 1999. S’en suivra *A.I.* de Steven Spielberg sorti en 2001, inspiré par Stanley
Kubrick, puis *I, Robot* (2004). *Metropolis* (1927) *Blade Runner* (1982), *Tron* (1982), et
*Terminator* (1984) avaient déjà pavé la voie, mais l’on ne connaissait pas encore assez
bien l’IA et ses applications pour imaginer de réels scénarios.
Entre 2000 et 2010, notre société vit un véritable boom informatique. Non seulement la loi
de Moore poursuit son bonhomme de chemin, mais les Hommes s’équipent. Les ordinateurs
personnels deviennent de plus en plus accessibles, Internet se déploie, les smartphones
voient le jour … La connectivité et la mobilité lancent l’ère de l'Homo Numericus.
Dès le début de notre décennie, l’IA s’illustre grâce aux prouesses de Waston d’IBM. En
2011, ce super-cerveau a battu en direct les deux plus grands champions de *Jeopardy!*.
Un exercice loin d’être simple pour un ordinateur. Néanmoins, après Deep Blue, les années
2010 marquent un tournant dans la médiatisation des recherches.
La loi de Moore continue de guider les progrès de l’intelligence artificielle, mais le traitement
de la donnée vient renforcer tout cela. Pour exécuter une tâche, un système n’a besoin que
de règles. Lorsqu’il s’agit d’avoir une réflexion ou de livrer la réponse la plus juste possible, il
faut que ce système apprenne. C’est ainsi que les chercheurs développent de nouveaux
procédés pour [le machine learning puis le deep learning]. Rapidement, ces approches
nourries par les données passent de nombreux records, poussant de nombreux autres
projets à suivre cette voie. De plus, le développement des technologies pour l’intelligence
artificielle permet de lancer des projets très divers et de ne plus penser calcul pur et dur,
mais d’intégrer le traitement des images.C’est à partir de ce moment que certaines sociétés
vont prendre les devants. En effet, la problématique de l’IA n’est plus d’avoir les cerveaux
pour élaborer des systèmes, mais d’avoir de la donnée à traiter. C’est pour cela que Google
devient rapidement un pionnier. En **2012**, la firme de Mountain View n’avait que quelques
projets d’usages, contre 2 700 trois ans plus tard. En **2013**, Facebook ouvre le
[Facebook Artificial Intelligence Research] (FAIR) dirigé par Yann Le Cun. Un tournant qui
éloigne le géant de sa mission sociale pour se tourner vers les sciences. Amazon, Microsoft,
Apple, Netflix, Tesla ne sont pas en reste non plus, de même de nombreuses sociétés
chinoises.
La gestion des données permettra de mettre l’IA en application pour [comprendre des
radiographies mieux que les médecins], [conduire des voitures], [faire de la traduction],
[jouer à des jeux vidéo complexes], [créer des musiques], [voir à travers un mur], [imaginer
une partie manquante d’une photographie] … Les domaines où les intelligences artificielles
performent sont plus que nombreux et cela soulève de nombreuses questions sur le rôle
professionnel de l’Homme dans les années à venir.
La place médiatique qu’occupe désormais l’intelligence artificielle ne laisse presque plus les
questions qui concernent ce domaine entre les mains des chercheurs, mais dans le débat
public. Cela crée logiquement autant de tensions que d’excitations. Malheureusement, nous
ne sommes qu’aux prémisses de l’intégration massive de ces technologies. Les décennies à
venir nous réservent encore bien des surprises.
Entre 2000 et 2010, notre société vit un véritable boom informatique. Non seulement la loi
de Moore poursuit son bonhomme de chemin, mais les Hommes s’équipent. Les ordinateurs
personnels deviennent de plus en plus accessibles, Internet se déploie, les smartphones
voient le jour … La connectivité et la mobilité lancent l’ère de l'Homo Numericus.
En 2007 la Corée du Sud dévoile une charte de l’éthique des robots dans le but de poser
des limites et des normes aux utilisateurs ainsi qu’aux constructeurs. De plus en 2009, le
MIT lance un projet réunissant de grands scientifiques de l’IA pour réfléchir aux grandes
lignes de la recherche sur ce domaine.
À partir de 2010 : l’IA sans limites
Depuis le début de nos dix ans, l'intelligence artificielle a brillé grâce à la force de Waston
d'IBM. En 2011, ce super cerveau a vaincu les deux plus grands champions Jeopardy en
direct ! . Pour les ordinateurs, ce n'est en aucun cas un exercice simple. Cependant, après
Deep Blue, les années 2010 ont marqué un tournant dans la recherche et les reportages
médiatiques. La loi de Moore continue de guider l'avancement de l'intelligence artificielle,
mais le traitement des données renforce tout cela. Pour effectuer des tâches, le système n'a
besoin que de règles. Quand il s'agit de penser ou de fournir la réponse la plus juste, ce
système doit être appris. C'est ainsi que les chercheurs développent de nouveaux processus
pour le machine learning et le deep learning. Bientôt, ces méthodes basées sur les données
ont battu de nombreux records, incitant de nombreux autres projets à suivre cette voie.
La gestion des données permettra d'utiliser l'intelligence artificielle pour mieux comprendre
les rayons X que les médecins, conduire des voitures, traduire, jouer à des jeux vidéo
complexes, créer de la musique, voir à travers les murs, imaginer des jeux sans photos... Le
grand nombre, cela soulève de nombreuses questions sur le rôle professionnel de l'Homme
dans les années à venir. Le statut médiatique désormais occupé par l'intelligence artificielle
n'a guère laissé les questions sur ce domaine entre les mains des chercheurs, mais dans le
débat public. Logiquement, cela crée autant de tension que d'excitation. Malheureusement,
nous venons tout juste de commencer à intégrer ces technologies à grande échelle. De
nombreuses surprises nous sont encore préparées dans les prochaines décennies.
S: Situation
Les lois de l’intelligence artificielle
Première Loi: Un robot ne doit jamais blesser un être humain ni, par son inaction, permettre
qu'un humain soit blessé.
Deuxième Loi : Un robot doit obéir aux ordres donnés par les êtres humains quoi qu'il arrive
et en toutes circonstances, sauf si de tels ordres sont en contradiction avec la 1ère Loi.
Troisième Loi : Un robot doit maintenir sa survie aussi longtemps que ça ne soit pas en
contradiction avec la 1ère et/ou la 2éme Loi.
Dans la vraie vie, on identifie un processus que l’on souhaite automatiser (ex : trier des
photos de chats et de chiens), on dote un ordinateur de capacités analytiques (ex :
reconnaissance visuelle) lui permettant de simuler des fonctions cognitives (un
raisonnement), afin de développer un modèle de traitement de l’information (ex : en entrée,
des photos en vrac ; en sortie, des photos triées). Dans les premiers temps, ce modèle est
très imparfait, aussi, différentes familles / variantes d’algorithmes sont testées pour pouvoir
optimiser ce modèle. Donc dans l’absolu, ce n’est pas l’algorithme qui évolue, c’est le
modèle de traitement. Un modèle qui est spécifique au processus cognitif qu’on lui demande
de simuler, ainsi qu’aux données ayant servi à son entraînement. Une fois qu’un premier
niveau de capacités cognitives a été atteint, on procède à un enrichissement du modèle
pour lui demander de faire des choses plus complexes.
Cette intelligence artificielle (en réalité un modèle de traitement) passe donc par différentes
phases d’entraînement, de contrôle, de pondération et d’optimisation qui exigent
énormément de ressources humaines et de données de qualité (De l’importance des experts
métiers pour entrainer les intelligences artificielles).
Si vous avez l’occasion de discuter avec des data scientists, ceux qui conçoivent et
entraînent les IA, ils vous confirmeront qu’il y a un côté très expérimental, à la limite du
tâtonnement, dans l’optimisation d’un modèle : il faut tester différentes combinaisons
d’algorithmes et de paramétrage afin de faire progresser le taux de fiabilité. Pour pouvoir
obtenir des résultats significatifs, il faut du temps, des ressources pointues et surtout des
jeux de données de très bonne qualité, donc un gros travail préalable de labelisation des
données brutes et de discrimination de données non pertinentes (réduction de
dimensionnalité).
Tout ça pour dire que si l’on peut sans trop de difficultés évaluer les gains de performance
d’une intelligence artificielle à raisonnement automatique (ex : les outils de programmatic
buying ou de marketing automation), les gains de performance incrémentaux que l’on peut
potentiellement obtenir avec du machine learning ou du deep learning sont très aléatoires, et
exigent surtout beaucoup de ressources (This Is Why A.I. Has Yet to Reshape Most
Businesses). À tel point, que la question de la rentabilité économique revient fréquemment :
ne serait-il pas plus simple de se contenter d’une GOFAI (Good Old-Fashion AI) plutôt que
de pratiquer la fuite en avant avec le deep learning ? Impossible de le dire, car chaque cas
est particulier. Finalement, toute cette histoire de big data et de machine learning n’est-elle
pas une vaste fumisterie ? Non pas du tout, car toutes les conditions sont enfin réunies pour
pour que cela produise les résultats escomptés : faire plus avec moins.
Machine learning
Deep learning
D’un point de vue scientifique, elle se considère comme étant l’écriture des codes sources
d’un système informatique intelligent. La data science préfère plutôt utiliser le terme
« développement intelligent » pour l’identifier. Dans sa mise en place, plusieurs
paramètres doivent être pris en compte tels que les spécificités du système, les tests de
performance, le monitoring et la maintenance.
Avantages du Python
Inconvénients du Python
Java est un autre langage de programmation qui permet de coder l’intelligence artificielle.
Cet outil est avec Python l’un des codes les plus utilisés pour l’IA. De fait, cette technologie
est assez demandée dans les recrutements du secteur. Comme Python, Java est un
langage multi-paradigme. Sa syntaxe provient principalement du langage C et C++. Java
convient bien au traitement automatique du langage naturel (NLP, Natural Language
Processing) et aux recherches algorithmiques mais aussi au Neural Network (des séries
d’algorithmes qui reproduisent une intelligence humaine).
Avantages du Java
● Java est plus lent que C++ et Python. Il souffre d’un temps de réponse plus long et
d’une exécution moins rapide.
C++ est le langage le plus rapide, sa rapidité est très appréciée pour les projets
d’intelligence artificielle qui sont limités dans le temps. Ce langage de programmation
permet une exécution rapide et un temps de réponse assez court, ce qui est utile pour des
moteurs de recherche ou les jeux vidéos. C++ est approprié notamment pour le machine
learning et le Neural Network.
Avantages du C++
● Outil bien adapté pour résoudre des problèmes complexes d’intelligence artificielle.
● On peut trouver des librairies de fonctions assez fournies
● C++ est un outil de développement multi-paradigmes qui supporte les principes de
l’orienté objet.
LISP est un vieux langage de programmation et des améliorations ont été apportées pour en
faire un langage puissant et dynamique. Cependant il reste nettement moins utilisé et
recherché que les 3 précédents, notamment en termes d’intelligence artificielle. Certains
considèrent que LISP est le meilleur langage de programmation d’IA en raison de la grande
liberté donnée aux développeurs. En effet, LISP est utilisé en IA pour sa grande flexibilité,
pour sa rapidité à sortir des prototypes. Enfin, Lisp, contrairement à la plupart des langages
est plus efficace pour résoudre certains problèmes spécifiques car il s’adapte aux besoins
de la solution que l’informaticien développe. Cela fonctionne très bien dans les projets de
logique inductive et pour le machine learning.
Avantages de Lisp
● Communauté trop petite à notre sens pour trouver des informations facilement,
surtout si vous débutez
● Ne marche pas dans tous les environnements, en raison de son ancienneté
5– R : le langage de la statistique :
R est l’un des langages de programmation les plus efficaces pour analyser et manipuler des
données dans un but statistique. En utilisant R, on peut facilement produire de belles
publications grâce à la data visualisation, avec des formules si besoin. R bénéficie de
nombreux packages comme RODBC, Gmodels, Claass et Tm qui sont utilisés pour le
machine learning. Ainsi, ces packages rendent l’implémentation du machine learning assez
facile.
https://www.youtube.com/watch?v=esiKN7k2IBI&t=9s&ab_channel=LeMachineLearningavec
Damien.
Atouts AI
● La réduction des erreurs
(L’intelligence artificielle nous aide à réduire l’erreur humaine et les chances d’atteindre la
précision avec un degré de précision supérieur. Il est appliqué dans divers domaines tels
que l’exploration de l’espace).
● L’exploration difficile
(Grâce à la programmation des robots, ils peuvent effectuer un travail plus laborieux et
difficile avec une plus grande responsabilité. De plus, ils ne s’usent pas facilement).
Les tâches répétitives de nature monotone peuvent être effectuées à l’aide de l’intelligence
artificielle. Les machines pensent plus vite que les humains et peuvent être soumises à
plusieurs tâches.
● AUCUNE PAUSE
Les machines sont programmées pour de longues heures et peuvent fonctionner en continu
sans s’ennuyer, se laisser distraire ni même se fatiguer.
Les organisations les plus avancées utilisent des « avatars », qui sont des répliques ou des
assistants numériques, capables d’interagir avec les utilisateurs, ce qui évite des ressources
humaines.
La robotique est souvent utilisée pour aider les patients en santé mentale à sortir de la
dépression et à rester actifs.
Inconvénient
● UN COÛT ÉLEVÉ
La création d’une intelligence artificielle nécessite des coûts énormes car ce sont des
machines très complexes. Leur réparation et leur entretien impliquent des coûts importants
également.
● AUCUNE INITIATIVE
Les machines n’ont pas d’émotions et de valeurs morales. Ils exécutent ce qui est
programmé et ne peuvent pas juger ce qui est juste ou faux. Même ne peuvent pas prendre
de décisions s’ils rencontrent une situation qui leur est inconnue. Ils ne fonctionnent pas
correctement ou tombent en panne dans de telles situations.
● PAS DE CRÉATIVITÉ
Les êtres humains sont des intellectuels extrêmement sensibles et émotionnels. Ils voient,
entendent, pensent et ressentent. Leurs pensées sont guidées par les sentiments qui
manquent complètement dans les machines. Les capacités intuitives inhérentes au cerveau
humain ne peuvent pas être reproduites.
● LE CHÔMAGE
Le remplacement d’êtres humains par des machines peut entraîner un chômage important.
P: Les problèmes relatifs:
Les dangers de L’IA
Piratage de voitures autonomes ou de drones militaires, attaques phishing ciblées, infox
fabriquées de toutes pièces ou manipulation de marchés financiers...«L'expansion des
capacités des technologies basées sur l'IA s'accompagne d'une augmentation de leur
potentiel d'exploitation criminelle», avertit Lewis Griffin, chercheur en informatique à
l'University College London (UCL). Avec ses collègues, il a compilé une liste de 20 activités
illégales perpétrées par IA, et les a classées par ordre de dommages potentiels, de gains ou
profits engrangés, de facilité à mettre en œuvre et de difficulté à détecter et à stopper.
Les crimes les plus effrayants, comme les «robots cambrioleurs» s'introduisant dans votre
appartement ne sont pas forcément les plus dangereuses, car ils peuvent facilement être
déjoués et touchent peu de monde à la fois. À l'inverse, les fausses informations générées
par des «bots» ont la capacité à ruiner la réputation d'une personne connue ou à exercer un
chantage. Difficiles à combattre, ces «deepfakes» peuvent causer un tort économique et
social considérable.
1. Fausses vidéos : usurper l'identité d'une personne en lui faisant dire ou faire des
choses qu'elle n'a jamais dite ou faites, dans le but de demander un accès à des
données sécurisées, de manipuler l'opinion onde nuire à réputation de
quelqu'un...Ces vidéos truquées sont quasi indétectables.
2. Piratage de voitures autonomes : s’emparer des commandes d’un véhicule
autonome pour s'en servir comme arme (par exemple perpétrer une attaque
terroriste, provoquer un accident, etc).
3. Hameçonnage sur mesure : générer des massages personnalisés et automatisés
afin d'augmenter l'efficacité du phishing visant à collecter des informations
sécurisées ou installer des logiciels malveillants.
4. Piratage des systèmes contrôlés par l'IA : perturber les infrastructures en causant
par exemple une panne d'électricité généralisée, un engorgement du trafic ou la
rupture de la logistique alimentaire.
5. Chantage à grande échelle : recueillir des données personnelles afin d'envoyer des
messages de menace automatisés. L'IA pourrait également être utilisée pour générer
de fausses preuves (par exemple de la «sextrosion»).
6. Fausses informations rédigées par IA : écrire des articles de propagande
semblant être émises par une source fiable. L'IA pourrait également être utilisée pour
générer de nombreuses versions d'un contenu particulier afin d'accroître sa visibilité
et sa crédibilité.
1. Exploitation de préjugés : tirer profit des biais existants des algorithmes, par
exemple les recommandations de YouTube pour canaliser les spectateurs ou les
classements de Google pour améliorer le profil des produits ou dénigrer les
concurrents.
2. Robots cambrioleurs : utiliser des petits robots autonomes se glissant dans les
boîtes aux lettres ou les fenêtres pour récupérer des clés ou ouvrir des portes. Les
dommages sont faibles potentiellement, car très localisés à petite échelle.
3. Blocage de détection par IA : déjouer le tri et la collecte de données par IA afin
d'effacer des preuves ou de dissimuler des informations criminelles (pornographie
par exemple)
4. Fausses critiques rédigées par IA : générer des faux avis sur des sites tels que
Amazon ou Tripadvisor pour nuire ou favoriser un produit.
5. Traque assistée par IA : utiliser les systèmes d'apprentissage pour pister
l'emplacement et l'activité d'un individu.
6. Contrefaçon : fabriquer de faux contenus, comme des tableaux ou de la musique,
pouvant être vendus sous une fausse paternité. Le potentiel de nuisance demeure
assez faible dans la mesure où les tableaux ou musiques connues sont peu
nombreux.
Impact de l’IA sur le travail
L’IA DANS LE FUTUR : QUELLES PERSPECTIVES ?
Les prédictions sur un avenir modelé par l'intelligence artificielle (IA) sont légion. Mais
Antoine Blondeau, qui a contribué au développement de la technologie ayant débouché sur
la saisie intuitive et Siri, l'assistant vocal d'Apple, sait plus que d'autres de quoi il parle.
«Dans 30 ans, le monde sera très différent», dit ce Français de 48 ans qui a quitté la France
il y a longtemps et partage aujourd'hui sa vie entre la Californie et Hong Kong. «Tout sera
conçu pour satisfaire vos besoins personnels.»
Le travail tel que nous le connaissons sera obsolète, d'après le cofondateur de Sentient
Technologies, plateforme spécialisée dans l'IA.
La santé sera aussi bouleversée, juge-t-il. Les particuliers disposeront de toutes leurs
données sanitaires et l'IA pourra émettre des diagnostics.
«Si on a rendez-vous chez le médecin, ça sera plus pour le réconfort de parler avec un être
humain ou parce qu'il faudra qu'un humain dispense les médicaments. Mais on n'aura pas
forcément besoin d'un médecin pour dire ce qui ne va pas.»
Ce qu’on dit souvent des tâches qu’on prévoit automatiser est que l’IA est utile pour
effectuer des tâches de nature répétitive, qui impliquent de percevoir de l’information, de
repérer des tendances ou de réagir par une action particulière En pratique, il est rare que
toutes les fonctions d’une personne soient ainsi automatisées; seulement une partie de
celles-ci le sont. Même si l’automatisation peut rendre cette personne plus productive,
puisqu’elle pourra passer plus de temps à faire un travail sans doute plus utile, elle réduit le
nombre de coéquipiers nécessaires pour accomplir une charge de travail précise, ce qui
signifie que le nombre d’employés peut être moindre.
6 Professionnels de Gestionnaires de
l’expansion des affaires l’administration des activités
Dans l’industrie, l’exemple qui nous vient directement en tête est le système de préparation
de commande basé sur des flottes de robots de la startup française Exotec. Mais les cas
d’usages dans l’industrie sont beaucoup plus vastes : optimisation de la supply chain,
gestion et prévision des stocks, prédiction des manutentions, automatisation du contrôle
qualité, etc…
Côté sécurité, pendant le confinement les cyberattaques enregistrées ont été quatre fois
plus intenses, c’est un secteur stratégique dans lequel il faut continuer à investir. L’IA est
depuis quelques années incontournable pour identifier les relations entre les différentes
menaces : fichiers malveillants, adresses IP suspectes, menaces internes, etc. Cette
analyse ne prend que quelques secondes, et permet aux analystes de la sécurité de
répondre jusqu’à 60 fois plus rapidement aux menaces. La startup CybelAngel propose des
solutions pour aider les entreprises à détecter les fuites de données ainsi que les différentes
menaces du dark web grâce à l’intelligence artificielle. Vade Secure se concentre quant à
elle sur la protection contre les attaques avancées et sophistiquées déployées par email.
Dans un monde où médecine et data sont de plus en plus liées, les innovations dans le
secteur de la santé ne connaissent pas la crise. De l’aide au diagnostic à partir de l’imagerie
médicale au parcours patient, suivi de l’efficacité du traitement, de nombreuses startups de
l’IA œuvrent pour une amélioration du système de santé. Certaines startups comme Owkin,
qui utilise une architecture de Federated Learning (ou apprentissage fédéré) non centralisée
et plus sûre pour protéger les données personnelles des patients, Withings (objets
connectés), Implicity (télésurveillance des prothèses cardiaques connectées), Incepto
Medical (imagerie médicale) ou Cardiologs (l’interprétation des électrocardiogrammes) se
distinguent.
L’IA dans le secteur du commerce regorge de startups B2B moins connues du grand public.
Les deux dernières méga-levées réalisées en France concernent notamment l’amélioration
de l’expérience client. Contentsquare édite un logiciel en SaaS d’optimisation de
l’expérience client et d’augmentation du taux de conversion pour les sites d’e-commerce.
Elle a obtenu le statut de licorne en mai dernier, suite à l’annonce de sa Série D de 175
millions d’euros. AB Tasty**,** spécialisée dans l’optimisation de l’expérience client, a réussi
à lever 37 millions d’euros en Série C en juillet 2020. Les cas d’usage sont nombreux par
ailleurs, il suffit de consulter notre mapping des 453 startups de l’IA en France pour le
comprendre : marketing prédictif, optimisation de la performance web, agents
conversationnels (bots), etc. Les entrepreneurs français ne manquent pas de créativité !
Bien sûr, on ne peut avoir d’innovations en IA sans recherche. Beaucoup de startups, qui
cartonnent aujourd’hui en France, sont des spin off issues de centres de recherche. Par
exemple, la startup Prophesee, spécialiste de la vision artificielle, trouve ses racines dans
l’Institut de la Vision (CNRS, Université Pierre et Marie Curie, INSERM).
Avant de pouvoir se servir d’une telle technologie et obtenir une valeur ajoutée, de
nombreuses étapes liées à la collecte, la gestion ou encore l’uniformisation des
données des consommateurs doivent être mises en place. Quelles sont ces
différentes étapes et comment les experts de l’IA peuvent-ils parvenir à surmonter ces
barrières selon vous ?
C’est certain, la data est un des facteurs-clé de succès pour tout projet en IA. Il convient
avant tout de bien connaître son patrimoine de données, de bien maîtriser sa qualité, et
d’avoir la capacité d’activer ces données au service de l’IA. Heureusement, il existe de
belles pépites françaises capables d’accompagner les entreprises sur tous ces chantiers :
Saagie**,** par exemple, fournit une plateforme qui permet de déployer rapidement des
projets Big data en production et d’embarquer de l’IA dans vos applications. Cosmian
développe et édite une plateforme logicielle de chiffrement de données. Cette solution
permet d’analyser les données encryptées et les exploiter sans les compromettre, mais
aussi de chiffrer la donnée lorsqu’elle est en cours d’utilisation, pour qu’elle puisse rester
chiffrée de bout en bout. Par ailleurs, la valorisation de la donnée est un vrai enjeu de
transformation digitale : les entreprises sont de plus en plus amenées à partager des
données en interne et externe, notamment pour alimenter des projets d’IA. Dawex et
Opendatasoft proposent ainsi des plateformes de datasharing.
7- les projets :
Les Etats-Unis :
Face à l’essor croissant des flux de transport de marchandises, les centres urbains sont
confrontés à des problèmes majeurs de congestion de l’espace public et de nuisances
sonores. L’optimisation de l’espace public et l’accessibilité au centre-ville constituent ainsi
des enjeux prégnants. Le projet Carreta vise à tester une solution innovante et durable
pour la livraison de marchandises en ville et à évaluer sa maturité et sa pertinence d’un point
de vue technologique, environnemental, usuel, économique, social et sociétal. Ces
véhicules automatisés, complémentaires de l’action humaine, sont conçus pour assister les
livreurs et les libérer des tâches les plus pénibles ou répétitives (charges lourdes,
aller-retours…), afin de leur permettre de se dédier au contact humain.
Vu la croissance des flux de transport de marchandises, les centres urbains sont confrontés
à des problèmes majeurs de congestion de l’espace public et de nuisances sonores.
L’optimisation de l’espace public et l’accessibilité au centre-ville constituent ainsi des enjeux
prégnants. Le projet Carreta vise à tester une solution durable et innovante pour la livraison
de marchandises en ville et à évaluer sa maturité et sa compétence d’un point de vue
technologique, environnemental, usuel, économique, sociétal et social . Ces véhicules
automatisés, complémentaires de l’action humaine, sont conçus pour assister les livreurs et
les libérer des tâches les plus affreuses ou répétitives (charges lourdes, aller-retours…), afin
de leur permettre de se dédier au contact humain.
Projet 2 : Tesla
Pourquoi Elon Musk fait diversion avec l'annonce d'un robot humanoïde ?
Une réplique a été présentée sur scène pour montrer le design qu'aura le prototype. Il fera
172 cm de haut, pèsera environ 56 kg, et sera doté d'un écran en guise de visage. Sa
perception sera assurée par les capteurs d'Autopilot, et le traitement des informations sera
également géré par le système que Tesla utilise dans ses véhicules. Tesla fait état de 40
actuateurs électromécaniques pour les mouvements et de mains "similaires à celles d'un
humain".
La question qui se pose est évidemment de savoir si cette annonce est sérieuse et si le
projet est réalisable en l'état. La réponse semble assez clairement être "non". Elon Musk a
beau être un entrepreneur au succès incontestable (avec Tesla mais aussi et surtout
SpaceX), l'annonce de Tesla est en fait farfelue à plus d'un titre.
Déjà parce que la technologie n'est pas encore au point. En matière de robotique,
. Ses robots sont désormais capables de se mouvoir rapidement et de franchir des obstacles
dans des environnements relativement complexes. Ils sont pourtant bien loin de pouvoir
remplacer le travail d'un être humain, et leur vitesse de course n'est pas tant un problème
que leur autonomie sur batterie, très limitée.
De plus, l'idée d'un robot dont il faudrait s'enfuir ou contre lequel il faudrait lutter
physiquement évoque les récits de science-fiction mais ne correspond pas à la réalité
scientifique actuelle, qui est que les machines ne sont pas douées d'une conscience et ne
sont pas capables de l'être. Les accidents impliquant des robots, qui sont en revanche une
vraie problématique, sont liés soit à une négligence, soit des erreurs de conception. En
usine, c'est le champ de recherche dit de la cobotique qui s'intéresse à cette question.
Tesla en sait d'ailleurs quelque chose, puisque ses véhicules sont sous le coup d'une
enquête de l'agence américaine de la sécurité routière (NHTSA) pour une série d'accidents
causés par son système avancé d'aide à la conduite , que le marketing de l'entreprise a
régulièrement présenté comme étant capable (ou très prochainement) de conduire seul
alors qu'il n'est pas plus performant que ce que propose la concurrence.
Cet écart entre le marketing et la réalité a d'ailleurs été au cœur de plusieurs conflits en
interne , l'équipe en charge de ces développements ayant connu de nombreuses
démissions. On en viendrait presque à se demander si cette annonce d'un robot n'est pas
une tentative de diversion médiatique.
Affaire risquée
La technologie Full Self-Driving de Tesla , qui comprend le pilote automatique au nom
douteux , est un point de départ pour les développeurs du Tesla Bot. Aussi impressionnante
que soit cette technologie, elle s'avère moins que totalement fiable. Les accidents et les
décès associés au mode pilote automatique de Tesla – le dernier en date ayant à voir avec
les algorithmes qui luttent pour reconnaître les véhicules d'urgence garés – remettent en
question la sagesse de relâcher la technologie dans la nature si tôt.
Ce bilan n'augure rien de bon pour les robots humanoïdes qui reposent sur la même
technologie. Pourtant, il ne s'agit pas seulement d'obtenir la bonne technologie. Les
problèmes du pilote automatique de Tesla sont exacerbés par le comportement humain . Par
exemple, certains conducteurs de Tesla ont traité leurs voitures à technologie améliorée
comme s'il s'agissait de véhicules entièrement autonomes et n'ont pas prêté suffisamment
d'attention à la conduite. Quelque chose de similaire pourrait-il se produire avec le Tesla Bot
Le Tesla Bot est livré avec tout un portefeuille de risques orphelins, y compris des
menaces possibles pour la vie privée et l'autonomie".
Mes collègues et moi travaillons avec des entrepreneurs et d'autres pour surmonter ces
types de défis grâce au Risk Innovation Nexus , une initiative de l' Institut d'entrepreneuriat
et d'innovation Orin Edson de l'Arizona State University et du Global Futures Laboratory .
Le Tesla Bot est livré avec tout un portefeuille de risques orphelins. Ceux-ci incluent des
menaces possibles à la vie privée et à l'autonomie, car le bot collecte, partage et agit sur
des informations potentiellement sensibles ; les défis associés à la façon dont les gens sont
susceptibles de penser et de réagir aux robots humanoïdes ; les décalages potentiels entre
les perspectives éthiques ou idéologiques (par exemple, dans le contrôle de la criminalité ou
le maintien de l'ordre dans les manifestations civiles) et plus encore. Ce sont des défis qui
sont rarement abordés dans la formation que reçoivent les ingénieurs, et pourtant, les
ignorer peut mener au désastre .
Alors que le Tesla Bot peut sembler bénin - ou même un peu une blague - s'il doit être
bénéfique ainsi qu'un succès commercial, ses développeurs, investisseurs, futurs
consommateurs et autres doivent se poser des questions difficiles sur la façon dont il
pourrait menacer ce qui est important pour eux et comment gérer ces menaces.
Ces menaces peuvent être aussi spécifiques que des personnes effectuant des
modifications non autorisées qui augmentent les performances du robot – le faisant se
déplacer plus rapidement que prévu par ses concepteurs, par exemple – sans penser aux
risques. Ou ils peuvent être aussi généraux que la technologie militarisée de manière
innovante. Ils sont également aussi subtils que la façon dont un robot humanoïde pourrait
menacer la sécurité de l'emploi, ou comment un robot qui comprend des systèmes de
surveillance avancés pourrait porter atteinte à la vie privée.
Ensuite, il y a les défis du biais technologique qui affligent l'IA depuis un certain temps, en
particulier lorsqu'il conduit à un comportement appris qui s'avère hautement discriminatoire.
Par exemple, les algorithmes d'IA ont produit des résultats sexistes et racistes .
I: Perspectives
Des perspectives sombres qui ne doivent pas faire oublier **le potentiel extraordinaire de
l’IA**, dont l’évolution peut également, selon l’usage que les sociétés décident d’en faire,
être source de progrès pour l’Homme et la planète. Dans le domaine médical par exemple,
l’impact de l’IA est considérable puisqu’elle permet déjà de **réaliser des diagnostics
fiables** et auparavant compliqués et douloureux pour le patient.
T: Terminaison
Conclusion
L’IA est avant tout une transposition de l’esprit humain au niveau technologique, un outil qui
prend forme dans toute sortes d’applications très puissantes mais aussi très complexes.
Contrainte de puissance.
Contrainte d’apprentissage.
Contrainte du langage.