Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Intelligence Artificielle

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 28

Projet : Intelligence Artificielle

Travail élaboré par: Ons AFFES, Farouk SAADELLAOUI, Safa


MTAR, Seifeddine Borgi

Groupe : 1ere année ingénierie 4

Fichier original sans reformulation

Année universitaire 2021/2022


Plan

E:Entrée

● Introduction

○ Introduction
○ Définition
○ Contexte de IA
○ Importance
● Histoire IA

S: Situation

○ IA
○ les lois de l'intelligence artificielle
○ Comment la machine apprend-elle?
○ Machine learning
○ Deep learning
○ IA et la programmation
○ Atout et inconvénient

P: probléme relatifs

○ Les dangers de IA
○ Impact de IA sur le travail

R:

● Projets de IA
○ Les domaines d'utilisation
○ Projet 1
○ Projet 2
○ Projet 3

I:

Perspectives d'avenir de IA

T:

● Conclusion
● Les limites de IA
E : Entrée
Introduction
Depuis plus d’une décennie, l’intelligence artificielle (IA) vit une accélération dans son
développement et son adoption. En médecine, elle intervient dans la recherche
fondamentale et clinique, la pratique hospitalière, les examens médicaux, les soins ou
encore la logistique. Ce qui contribue à l’affinement des diagnostics et des pronostics, à une
médecine encore plus personnalisée et ciblée, à des avancées dans les technologies
d’observations et d’analyses ou encore dans les outils d’interventions chirurgicales et autres
robots d’assistance. De nombreux enjeux propres à l’IA et à la médecine, tels que la
dématérialisation des données, le respect de la vie privée, l’explicabilité des algorithmes, la
conception de systèmes d’IA inclusifs ou leur reproductibilité, sont à surmonter pour
construire une confiance du corps hospitalier dans ces outils. Cela passe par une maîtrise
des concepts fondamentaux que nous présentons ici.

Définition:
L’intelligence artificielle ou IA (AI pour Artificial Intelligence en anglais) est une discipline
scientifique et technologique visant à l’exécution par des machines (ordinateurs et
programmes informatiques) de processus cognitifs jusque-là réservés aux capacités du
cerveau humain, dans les domaines de :

la compréhension,

la communication (dialogue entre machines et avec l’humain),

la structuration de la mémoire,

le raisonnement critique,

l’adaptation,

l’apprentissage en autonomie (Deep Learning)…

Dans la langue courante, l’IA désigne également les dispositifs informatiques ou robotiques
mettant en œuvre ces fonctions. Deux écoles se distinguent dans l’approche des objectifs
de l’intelligence artificielle : La première considère que l’IA doit fonctionner sur le même
modèle que l’intelligence humaine. La seconde préconise un modèle idéal, dont la perfection
rationnelle serait dissociée des critères et processus de l’intelligence biologique.
Cette image donne une définition courte du principe de l’IA , elle récapitule en effet le
paragraphe précédent. Le cerveau dans l'image symbolise la capacité des humains et des
machines à mémoriser et d'apprendre , de penser , de créer , de juger , de parler , de
décider.

Contexte de l'IA:
Pourquoi l’intelligence artificielle ?

L’intelligence artificielle est dans toutes les conversations, tous les débats, tous les
argumentaires commerciaux, toutes les prédictions… elle nous est présentée à la fois
comme la principale cause du futur effondrement de notre civilisation, mais également
comme la solution à tout. Nous sommes confrontés à une situation absurde dans la mesure
où nous avons l’injonction d’en louer les mérites et de l’implémenter au plus vite, alors qu’il y
a un déficit flagrant de compréhension de ce qu’est réellement l’intelligence artificielle, de ce
qu’elle peut apporter au monde de l’entreprise ou à la société en générale, et de la façon
dont elle peut le faire. Non, l’IA n’est ni magique, ni révolutionnaire, c’est l’évolution logique
de l’outil informatique, ni plus, ni moins.

L’intelligence artificielle est et restera omniprésente, au même titre que


l’outil informatique

les IA ne vont pas détruire des emplois, ces derniers évoluent selon les cycles
économiques, cela a été théorisé (La destruction créatrice est un phénomène contre lequel
vous ne pouvez pas lutter). De plus, n’oublions pas que nous n’avons pas besoin d’IA pour
détruire des centaines de milliers d’emplois, nous y arrivons très bien tout seuls : Potential
International Employment Effects of a Hard Brexit. D’autre part : non, les intelligences
artificielles ne vont pas sauver la planète, seuls nous (ses occupants) sommes capables de
le faire. Mais vous le saviez déjà, non ?
Tout ça pour dire que l’intelligence artificielle n’est ni la cause de nos malheurs / espoirs, ni
le remède, mais une partie des deux. Au même titre que l’on peut difficilement accuser l’outil
informatique d’avoir détruit des emplois à la fin du siècle dernier, nous ne pouvons pas
continuer à propager des scénarios catastrophes qui reposent sur des hypothèses et des
projections bancales

Sous le terme intelligence artificielle (IA) on regroupe l’ensemble des théories et des
techniques mises en œuvre en vue de réaliser des machines capables de simuler
l'intelligence.” Cette pratique permet à l’Homme de mettre un système informatique sur la
résolution de problématiques complexes intégrant de la logique. D’une façon plus commune,
lorsque l’on parle d’intelligence artificielle, on entend aussi par là des machines imitant
certains traits de l’Homme.

L'importance de l'IA
Pourquoi l'intelligence artificielle est-elle importante ?

De nos jours, êtres humains et machines génèrent des données plus vite qu'il n'est
humainement possible de les absorber et de les interpréter pour prendre des décisions
complexes. L'intelligence artificielle est la base de tout apprentissage par un ordinateur et
représente l'avenir des processus décisionnels complexes. Par exemple, la plupart des êtres
humains peuvent apprendre à ne pas perdre à une simple partie de morpion, alors qu'il
existe 255 168 actions possibles, dont 46 080 mènent à un match nul. En revanche, les
champions du jeu de dames sont plus rares, étant donné qu'il existe plus de 500 x 1018
(500 trillions) de coups possibles. Les ordinateurs sont capables de calculer ces
combinaisons et les meilleures permutations possibles très efficacement, afin de prendre la
bonne décision. L'IA (avec son évolution logique, le machine learning) et le deep learning
représentent l'avenir de la prise de décisions.

Histoire AI
https://www.youtube.com/watch?v=qmwJx-r5vmw&t=2s&ab_channel=CEARecherche

L'intelligence artificielle avant 2000 :

Preuve que ce n’est pas une science d’aujourd’hui, les premières traces de l’IA remontent à
**1950** dans un article d’Alan Turing intitulé “*Computing Machinery and Intelligence*” dans
lequel le mathématicien explore le problème de définir si une machine est consciente ou
non. De cet article découlera ce que l’on appelle aujourd’hui le Test de Turing qui permet
d’évaluer la capacité d’une machine à tenir une conversation humaine.

Une autre origine probable remonte quant à elle à **1949** dans une publication de Warren
Weaver avec un mémo sur la traduction automatique des langues qui émet l’idée qu’une
machine pourrait très bien effectuer une tâche qui relève de l’intelligence humaine.
L’officialisation de l’intelligence artificielle comme véritable domaine scientifique date de
**1956** lors d’une conférence aux États-Unis qui s’est tenue au Dartmouth College.
Par la suite, ce domaine atteindra de prestigieuses universités comme celles de Stanford, du
MIT, ou encore d’Édimbourg.

Dès le milieu des **années 60**, la recherche autour de l’IA sur le sol américain était
principalement financée par le Département de la Défense. Dans le même temps, des
laboratoires ouvrent çà et là à travers le monde. Certains experts prédisaient à l’époque que
« *des machines seront capables, d’ici 20 ans, de faire le travail que toute personne peut
faire* ». Si l’idée était visionnaire, même en 2018 l’intelligence artificielle n’a pas encore pris
cette importance dans nos vies.

En 1974 arrive une période appelée le « *AI Winter* ». Beaucoup d’experts ne réussissent
pas à faire aboutir leurs projets et les gouvernements britannique et américain réduisent
leurs financements pour les académies. Ils préfèrent soutenir des idées ayant plus de
chances de déboucher sur quelque chose de concret.

Dans les années 80,le succès des systèmes experts permet de relancer les projets de
recherche sur l’intelligence artificielle. Un système expert était un ordinateur capable de se
comporter comme un expert (humain), mais dans un domaine bien précis. Grâce à ce
succès, le marché de l’IA atteint une valeur d’un milliard de dollars, ce qui motive les
différents gouvernements à de nouveau soutenir financièrement plus de projets
académiques.

Le développement exponentiel des performances informatiques, notamment en suivant [la


loi de Moore], permet entre 1990 et 2000 d’exploiter l’IA sur des terrains jusqu’alors peu
communs. On retrouve à cette époque le data mining, ou encore les diagnostics médicaux. Il
faudra attendre 1997 pour une véritable sortie médiatique lorsque le fameux Deep Blue créé
par IBM a battu Garry Kasparov, alors champion du monde d'échecs.

2000 - 2010 : l’IA représente un enjeu de société

Au début des années 2000, l’intelligence artificielle s’intègre dans une grande quantité de
films de science-fiction présentant des scénarios plus ou moins réalistes. Le plus marquant
du nouveau millénaire étant certainement *Matrix*, premier volet de la saga sorti en salles le
23 juin 1999. S’en suivra *A.I.* de Steven Spielberg sorti en 2001, inspiré par Stanley

Kubrick, puis *I, Robot* (2004). *Metropolis* (1927) *Blade Runner* (1982), *Tron* (1982), et
*Terminator* (1984) avaient déjà pavé la voie, mais l’on ne connaissait pas encore assez
bien l’IA et ses applications pour imaginer de réels scénarios.

Entre 2000 et 2010, notre société vit un véritable boom informatique. Non seulement la loi
de Moore poursuit son bonhomme de chemin, mais les Hommes s’équipent. Les ordinateurs
personnels deviennent de plus en plus accessibles, Internet se déploie, les smartphones
voient le jour … La connectivité et la mobilité lancent l’ère de l'Homo Numericus.

Jusqu’à 2010, on s’interroge également sur l’éthique de l’intégration de l’IA dans de


nombreux secteurs. Ainsi, en 2007 la Corée du Sud dévoile une charte de l’éthique des
robots dans le but de poser des limites et des normes aux utilisateurs ainsi qu’aux
constructeurs. En 2009, le MIT lance un projet réunissant de grands scientifiques de l’IA
pour réfléchir aux grandes lignes de la recherche sur ce domaine.
À partir de 2010 : l’IA sans limites

Dès le début de notre décennie, l’IA s’illustre grâce aux prouesses de Waston d’IBM. En
2011, ce super-cerveau a battu en direct les deux plus grands champions de *Jeopardy!*.
Un exercice loin d’être simple pour un ordinateur. Néanmoins, après Deep Blue, les années
2010 marquent un tournant dans la médiatisation des recherches.

La loi de Moore continue de guider les progrès de l’intelligence artificielle, mais le traitement
de la donnée vient renforcer tout cela. Pour exécuter une tâche, un système n’a besoin que
de règles. Lorsqu’il s’agit d’avoir une réflexion ou de livrer la réponse la plus juste possible, il
faut que ce système apprenne. C’est ainsi que les chercheurs développent de nouveaux
procédés pour [le machine learning puis le deep learning]. Rapidement, ces approches
nourries par les données passent de nombreux records, poussant de nombreux autres
projets à suivre cette voie. De plus, le développement des technologies pour l’intelligence
artificielle permet de lancer des projets très divers et de ne plus penser calcul pur et dur,
mais d’intégrer le traitement des images.C’est à partir de ce moment que certaines sociétés
vont prendre les devants. En effet, la problématique de l’IA n’est plus d’avoir les cerveaux
pour élaborer des systèmes, mais d’avoir de la donnée à traiter. C’est pour cela que Google
devient rapidement un pionnier. En **2012**, la firme de Mountain View n’avait que quelques
projets d’usages, contre 2 700 trois ans plus tard. En **2013**, Facebook ouvre le
[Facebook Artificial Intelligence Research] (FAIR) dirigé par Yann Le Cun. Un tournant qui
éloigne le géant de sa mission sociale pour se tourner vers les sciences. Amazon, Microsoft,
Apple, Netflix, Tesla ne sont pas en reste non plus, de même de nombreuses sociétés
chinoises.

La gestion des données permettra de mettre l’IA en application pour [comprendre des
radiographies mieux que les médecins], [conduire des voitures], [faire de la traduction],
[jouer à des jeux vidéo complexes], [créer des musiques], [voir à travers un mur], [imaginer
une partie manquante d’une photographie] … Les domaines où les intelligences artificielles
performent sont plus que nombreux et cela soulève de nombreuses questions sur le rôle
professionnel de l’Homme dans les années à venir.

La place médiatique qu’occupe désormais l’intelligence artificielle ne laisse presque plus les
questions qui concernent ce domaine entre les mains des chercheurs, mais dans le débat
public. Cela crée logiquement autant de tensions que d’excitations. Malheureusement, nous
ne sommes qu’aux prémisses de l’intégration massive de ces technologies. Les décennies à
venir nous réservent encore bien des surprises.

2000 - 2010 : l’IA représente un enjeu de société

Entre 2000 et 2010, notre société vit un véritable boom informatique. Non seulement la loi
de Moore poursuit son bonhomme de chemin, mais les Hommes s’équipent. Les ordinateurs
personnels deviennent de plus en plus accessibles, Internet se déploie, les smartphones
voient le jour … La connectivité et la mobilité lancent l’ère de l'Homo Numericus.

En 2007 la Corée du Sud dévoile une charte de l’éthique des robots dans le but de poser
des limites et des normes aux utilisateurs ainsi qu’aux constructeurs. De plus en 2009, le
MIT lance un projet réunissant de grands scientifiques de l’IA pour réfléchir aux grandes
lignes de la recherche sur ce domaine.
À partir de 2010 : l’IA sans limites

Depuis le début de nos dix ans, l'intelligence artificielle a brillé grâce à la force de Waston
d'IBM. En 2011, ce super cerveau a vaincu les deux plus grands champions Jeopardy en
direct ! . Pour les ordinateurs, ce n'est en aucun cas un exercice simple. Cependant, après
Deep Blue, les années 2010 ont marqué un tournant dans la recherche et les reportages
médiatiques. La loi de Moore continue de guider l'avancement de l'intelligence artificielle,
mais le traitement des données renforce tout cela. Pour effectuer des tâches, le système n'a
besoin que de règles. Quand il s'agit de penser ou de fournir la réponse la plus juste, ce
système doit être appris. C'est ainsi que les chercheurs développent de nouveaux processus
pour le machine learning et le deep learning. Bientôt, ces méthodes basées sur les données
ont battu de nombreux records, incitant de nombreux autres projets à suivre cette voie.

De plus, le développement de la technologie de l'intelligence artificielle a permis de réaliser


divers projets, ne considérant plus le pur calcul dur, mais intégrant le traitement d'images.
C'est à partir de ce moment que certaines entreprises prendront les devants pour passer à
l'action. En fait, le problème avec l'intelligence artificielle n'est plus la nécessité pour le
cerveau de construire un système, mais la nécessité de traiter des données. C'est pourquoi
Google est rapidement devenu un pionnier. En 2012, Mountain View n'avait que quelques
forfaits disponibles, et après trois ans, il y en avait 2 700. En 2013, Facebook a ouvert le
Facebook Artificial Intelligence Research (FAIR) dirigé par Yann Le Cun. Un tournant, le
géant est passé de sa mission sociale à la science. Amazon, Microsoft, Apple, Netflix et
Tesla ne sont pas exclus, comme le sont de nombreuses entreprises chinoises.

La gestion des données permettra d'utiliser l'intelligence artificielle pour mieux comprendre
les rayons X que les médecins, conduire des voitures, traduire, jouer à des jeux vidéo
complexes, créer de la musique, voir à travers les murs, imaginer des jeux sans photos... Le
grand nombre, cela soulève de nombreuses questions sur le rôle professionnel de l'Homme
dans les années à venir. Le statut médiatique désormais occupé par l'intelligence artificielle
n'a guère laissé les questions sur ce domaine entre les mains des chercheurs, mais dans le
débat public. Logiquement, cela crée autant de tension que d'excitation. Malheureusement,
nous venons tout juste de commencer à intégrer ces technologies à grande échelle. De
nombreuses surprises nous sont encore préparées dans les prochaines décennies.
S: Situation
Les lois de l’intelligence artificielle
Première Loi: Un robot ne doit jamais blesser un être humain ni, par son inaction, permettre
qu'un humain soit blessé.

Deuxième Loi : Un robot doit obéir aux ordres donnés par les êtres humains quoi qu'il arrive
et en toutes circonstances, sauf si de tels ordres sont en contradiction avec la 1ère Loi.

Troisième Loi : Un robot doit maintenir sa survie aussi longtemps que ça ne soit pas en
contradiction avec la 1ère et/ou la 2éme Loi.

Comment la machine apprend


Contrairement à ce que l’on essaye (trop) régulièrement de vous faire croire, aucune
machine n’est capable d’apprendre par elle-même, c’est un abus de langage.

Dans la vraie vie, on identifie un processus que l’on souhaite automatiser (ex : trier des
photos de chats et de chiens), on dote un ordinateur de capacités analytiques (ex :
reconnaissance visuelle) lui permettant de simuler des fonctions cognitives (un
raisonnement), afin de développer un modèle de traitement de l’information (ex : en entrée,
des photos en vrac ; en sortie, des photos triées). Dans les premiers temps, ce modèle est
très imparfait, aussi, différentes familles / variantes d’algorithmes sont testées pour pouvoir
optimiser ce modèle. Donc dans l’absolu, ce n’est pas l’algorithme qui évolue, c’est le
modèle de traitement. Un modèle qui est spécifique au processus cognitif qu’on lui demande
de simuler, ainsi qu’aux données ayant servi à son entraînement. Une fois qu’un premier
niveau de capacités cognitives a été atteint, on procède à un enrichissement du modèle
pour lui demander de faire des choses plus complexes.
Cette intelligence artificielle (en réalité un modèle de traitement) passe donc par différentes
phases d’entraînement, de contrôle, de pondération et d’optimisation qui exigent
énormément de ressources humaines et de données de qualité (De l’importance des experts
métiers pour entrainer les intelligences artificielles).

Si vous avez l’occasion de discuter avec des data scientists, ceux qui conçoivent et
entraînent les IA, ils vous confirmeront qu’il y a un côté très expérimental, à la limite du
tâtonnement, dans l’optimisation d’un modèle : il faut tester différentes combinaisons
d’algorithmes et de paramétrage afin de faire progresser le taux de fiabilité. Pour pouvoir
obtenir des résultats significatifs, il faut du temps, des ressources pointues et surtout des
jeux de données de très bonne qualité, donc un gros travail préalable de labelisation des
données brutes et de discrimination de données non pertinentes (réduction de
dimensionnalité).

Tout ça pour dire que si l’on peut sans trop de difficultés évaluer les gains de performance
d’une intelligence artificielle à raisonnement automatique (ex : les outils de programmatic
buying ou de marketing automation), les gains de performance incrémentaux que l’on peut
potentiellement obtenir avec du machine learning ou du deep learning sont très aléatoires, et
exigent surtout beaucoup de ressources (This Is Why A.I. Has Yet to Reshape Most
Businesses). À tel point, que la question de la rentabilité économique revient fréquemment :
ne serait-il pas plus simple de se contenter d’une GOFAI (Good Old-Fashion AI) plutôt que
de pratiquer la fuite en avant avec le deep learning ? Impossible de le dire, car chaque cas
est particulier. Finalement, toute cette histoire de big data et de machine learning n’est-elle
pas une vaste fumisterie ? Non pas du tout, car toutes les conditions sont enfin réunies pour
pour que cela produise les résultats escomptés : faire plus avec moins.

Machine learning

Deep learning

Machine Learning vs Deep Learning : quelle différence ?

L’intelligence artificielle et la programmation


La programmation joue un rôle primordial dans la conception et la mise en place de tout
projet de systèmes informatiques. Certaines personnes peuvent même définir l’intelligence
artificielle comme étant le fruit de la programmation.

Elle représente en effet la base de tout type de développement informatique et de


systèmes intelligents. Elle englobe toutes les actions réalisées en vue de mettre ces
systèmes en place pour qu’ils fonctionnent correctement. Ainsi, pour concevoir un nouveau
logiciel, un site internet ou encore une application mobile basée sur l’IA, un data analyst ou
data scientist doit forcément utiliser la programmation.

D’un point de vue scientifique, elle se considère comme étant l’écriture des codes sources
d’un système informatique intelligent. La data science préfère plutôt utiliser le terme
« développement intelligent » pour l’identifier. Dans sa mise en place, plusieurs
paramètres doivent être pris en compte tels que les spécificités du système, les tests de
performance, le monitoring et la maintenance.

Il existe des centaines de langages de programmation en informatique que la machine


learning peut exploiter librement. Néanmoins, certains langages se distinguent du lot par
leur simplicité d’utilisation, leurs spécificités, ainsi que les différentes possibilités d’options
qu’ils offrent. Chez l’IA School, nous nous intéressons plus précisément au langage
Python, R, C++ ,JAVA, et LISP.

1- Python : le leader inconstesté de l’Intelligence Artificielle :

Python est le langage préféré des développeurs de l’intelligence artificielle grâce à la


simplicité de sa syntaxe. Les syntaxes développées par Python sont simples et peuvent être
apprises facilement. Le langage de programmation est moins compliqué que Java ou C++
en ce qui concerne le machine learning par exemple. De plus, ce code s’adapte à de
nombreuses plateformes de développements comme Windows, Linux, Mac OS et Unix.
Enfin, Python supporte le développement fonctionnel, le développement orienté objet et le
développement procédural.

Avantages du Python

● Python bénéficie d’un temps de développement généralement plus court que


d’autres langages comme Java ou C++.
● De nombreuses librairies Python existent, ce qui rend son développement plus
simple. Citons ici Pybrain qui est utilisé dans le cadre du machine learning.

Inconvénients du Python

● Contrairement à Java ou C++, Python fonctionne à l’aide d’un interpréteur ce qui


rend la compilation et l’exécution plus lentes.
● Python ne convient pas pour l’IA liée aux applications mobiles.

2- JAVA : le challenger sans compilation :

Java est un autre langage de programmation qui permet de coder l’intelligence artificielle.
Cet outil est avec Python l’un des codes les plus utilisés pour l’IA. De fait, cette technologie
est assez demandée dans les recrutements du secteur. Comme Python, Java est un
langage multi-paradigme. Sa syntaxe provient principalement du langage C et C++. Java
convient bien au traitement automatique du langage naturel (NLP, Natural Language
Processing) et aux recherches algorithmiques mais aussi au Neural Network (des séries
d’algorithmes qui reproduisent une intelligence humaine).

Avantages du Java

● Contrairement à C++, Java est relativement simple à utiliser et à débuger


● Java fonctionne sur de nombreuses plateformes, grâce à la technologie de la
machine virtuelle.
● Représentation graphique des données propre
● Pas besoin de compilation
Points faibles du Java

● Java est plus lent que C++ et Python. Il souffre d’un temps de réponse plus long et
d’une exécution moins rapide.

3- C++ : la valeur sûre de l’Intelligence artificielle :

C++ est le langage le plus rapide, sa rapidité est très appréciée pour les projets
d’intelligence artificielle qui sont limités dans le temps. Ce langage de programmation
permet une exécution rapide et un temps de réponse assez court, ce qui est utile pour des
moteurs de recherche ou les jeux vidéos. C++ est approprié notamment pour le machine
learning et le Neural Network.

Avantages du C++

● Outil bien adapté pour résoudre des problèmes complexes d’intelligence artificielle.
● On peut trouver des librairies de fonctions assez fournies
● C++ est un outil de développement multi-paradigmes qui supporte les principes de
l’orienté objet.

Points faibles du C++

● Compliqué pour des développeurs néophytes

4– LISP : Le vieil outsider :

LISP est un vieux langage de programmation et des améliorations ont été apportées pour en
faire un langage puissant et dynamique. Cependant il reste nettement moins utilisé et
recherché que les 3 précédents, notamment en termes d’intelligence artificielle. Certains
considèrent que LISP est le meilleur langage de programmation d’IA en raison de la grande
liberté donnée aux développeurs. En effet, LISP est utilisé en IA pour sa grande flexibilité,
pour sa rapidité à sortir des prototypes. Enfin, Lisp, contrairement à la plupart des langages
est plus efficace pour résoudre certains problèmes spécifiques car il s’adapte aux besoins
de la solution que l’informaticien développe. Cela fonctionne très bien dans les projets de
logique inductive et pour le machine learning.

Avantages de Lisp

● Rapide et efficace dans la phase de développement, comme le langage est supporté


par des compilateurs à la place des interpréteurs

Points faibles de Lisp

● Communauté trop petite à notre sens pour trouver des informations facilement,
surtout si vous débutez
● Ne marche pas dans tous les environnements, en raison de son ancienneté
5– R : le langage de la statistique :

R est l’un des langages de programmation les plus efficaces pour analyser et manipuler des
données dans un but statistique. En utilisant R, on peut facilement produire de belles
publications grâce à la data visualisation, avec des formules si besoin. R bénéficie de
nombreux packages comme RODBC, Gmodels, Claass et Tm qui sont utilisés pour le
machine learning. Ainsi, ces packages rendent l’implémentation du machine learning assez
facile.

https://www.youtube.com/watch?v=esiKN7k2IBI&t=9s&ab_channel=LeMachineLearningavec
Damien.

Atouts AI
● La réduction des erreurs

(L’intelligence artificielle nous aide à réduire l’erreur humaine et les chances d’atteindre la
précision avec un degré de précision supérieur. Il est appliqué dans divers domaines tels
que l’exploration de l’espace).

● L’exploration difficile

(Grâce à la programmation des robots, ils peuvent effectuer un travail plus laborieux et
difficile avec une plus grande responsabilité. De plus, ils ne s’usent pas facilement).

● LES TRAVAUX RÉPÉTITIFS

Les tâches répétitives de nature monotone peuvent être effectuées à l’aide de l’intelligence
artificielle. Les machines pensent plus vite que les humains et peuvent être soumises à
plusieurs tâches.

● AUCUNE PAUSE

Les machines sont programmées pour de longues heures et peuvent fonctionner en continu
sans s’ennuyer, se laisser distraire ni même se fatiguer.

● LES ASSISTANTS NUMÉRIQUES

Les organisations les plus avancées utilisent des « avatars », qui sont des répliques ou des
assistants numériques, capables d’interagir avec les utilisateurs, ce qui évite des ressources
humaines.

● LES APPLICATIONS MÉDICALES

La robotique est souvent utilisée pour aider les patients en santé mentale à sortir de la
dépression et à rester actifs.
Inconvénient
● UN COÛT ÉLEVÉ

La création d’une intelligence artificielle nécessite des coûts énormes car ce sont des
machines très complexes. Leur réparation et leur entretien impliquent des coûts importants
également.

● AUCUNE INITIATIVE

Les machines n’ont pas d’émotions et de valeurs morales. Ils exécutent ce qui est
programmé et ne peuvent pas juger ce qui est juste ou faux. Même ne peuvent pas prendre
de décisions s’ils rencontrent une situation qui leur est inconnue. Ils ne fonctionnent pas
correctement ou tombent en panne dans de telles situations.

● AUCUNE AMÉLIORATION AVEC L’EXPÉRIENCE

Contrairement aux humains, l’intelligence artificielle ne peut être améliorée avec


l’expérience. Avec le temps, cela peut conduire à l’usure. Il stocke beaucoup de données,
mais la manière dont on peut y accéder et les utiliser est très différente de l’intelligence
humaine.

● PAS DE CRÉATIVITÉ

Les êtres humains sont des intellectuels extrêmement sensibles et émotionnels. Ils voient,
entendent, pensent et ressentent. Leurs pensées sont guidées par les sentiments qui

manquent complètement dans les machines. Les capacités intuitives inhérentes au cerveau
humain ne peuvent pas être reproduites.

● LE CHÔMAGE

Le remplacement d’êtres humains par des machines peut entraîner un chômage important.
P: Les problèmes relatifs:
Les dangers de L’IA
Piratage de voitures autonomes ou de drones militaires, attaques phishing ciblées, infox
fabriquées de toutes pièces ou manipulation de marchés financiers...«L'expansion des
capacités des technologies basées sur l'IA s'accompagne d'une augmentation de leur
potentiel d'exploitation criminelle», avertit Lewis Griffin, chercheur en informatique à
l'University College London (UCL). Avec ses collègues, il a compilé une liste de 20 activités
illégales perpétrées par IA, et les a classées par ordre de dommages potentiels, de gains ou
profits engrangés, de facilité à mettre en œuvre et de difficulté à détecter et à stopper.

Les crimes les plus effrayants, comme les «robots cambrioleurs» s'introduisant dans votre
appartement ne sont pas forcément les plus dangereuses, car ils peuvent facilement être
déjoués et touchent peu de monde à la fois. À l'inverse, les fausses informations générées
par des «bots» ont la capacité à ruiner la réputation d'une personne connue ou à exercer un
chantage. Difficiles à combattre, ces «deepfakes» peuvent causer un tort économique et
social considérable.

Intelligence artificielle : les menaces graves

1. Fausses vidéos : usurper l'identité d'une personne en lui faisant dire ou faire des
choses qu'elle n'a jamais dite ou faites, dans le but de demander un accès à des
données sécurisées, de manipuler l'opinion onde nuire à réputation de
quelqu'un...Ces vidéos truquées sont quasi indétectables.
2. Piratage de voitures autonomes : s’emparer des commandes d’un véhicule
autonome pour s'en servir comme arme (par exemple perpétrer une attaque
terroriste, provoquer un accident, etc).
3. Hameçonnage sur mesure : générer des massages personnalisés et automatisés
afin d'augmenter l'efficacité du phishing visant à collecter des informations
sécurisées ou installer des logiciels malveillants.
4. Piratage des systèmes contrôlés par l'IA : perturber les infrastructures en causant
par exemple une panne d'électricité généralisée, un engorgement du trafic ou la
rupture de la logistique alimentaire.
5. Chantage à grande échelle : recueillir des données personnelles afin d'envoyer des
messages de menace automatisés. L'IA pourrait également être utilisée pour générer
de fausses preuves (par exemple de la «sextrosion»).
6. Fausses informations rédigées par IA : écrire des articles de propagande
semblant être émises par une source fiable. L'IA pourrait également être utilisée pour
générer de nombreuses versions d'un contenu particulier afin d'accroître sa visibilité
et sa crédibilité.

Intelligence artificielle : les menaces de moyenne gravité


1. Robots militaires : prendre le contrôle de robots ou armes à des fins criminelles.
Une menace potentiellement très dangereuses mais difficile à mettre en œuvre, le
matériel militaire étant généralement très protégé.
2. Escroquerie : vendre des services frauduleux en utilisant l'IA. Il existe de nombreux
exemples historiques notoires d'escrocs qui ont réussi à vendre de coûteuses
fausses technologiques à de grandes organisations, y compris des gouvernements
nationaux et l'armée.
3. Corruption de données : modifier ou introduire délibérément de fausses données
pour induire des biais spécifiques. Par exemple, rendre un détecteur insensible aux
armes ou encourager un algorithme à investir dans tel ou tel marché.
4. Cyberattaque basée sur l'apprentissage : perpétrer des attaques à la fois
spécifiques et massives, par exemple en utilisant l'IA pour sonder les faiblesses des
systèmes avant de lancer plusieurs attaques simultanées.
5. Drones d'attaque autonomes : détourner des drones autonomes ou s'en servir pour
s'attaquer à une cible. Ces drones pourraient être particulièrement menaçants s'ils
agissent en masse dans des essaims auto-organisés.
6. Refus d'accès : endommager ou priver des utilisateurs d'un accès à un service
financier, à l'emploi, à un service public ou une activité sociale. Non rentable en soi,
cette technique peut être utilisée comme chantage.
7. Reconnaissance faciale : détourner les systèmes de reconnaissance faciale, par
exemple en fabriquant de fausses photos d'identité (accès à un smartphone,
caméras de surveillance, contrôle de passagers...)
8. Manipulation de marchés financiers : corrompre des algorithmes de trading afin de
nuire à des concurrents, de faire baisser ou monter une valeur artificiellement, de
provoquer un crash financier...

Intelligence artificielle : les menaces de faible intensité

1. Exploitation de préjugés : tirer profit des biais existants des algorithmes, par
exemple les recommandations de YouTube pour canaliser les spectateurs ou les
classements de Google pour améliorer le profil des produits ou dénigrer les
concurrents.
2. Robots cambrioleurs : utiliser des petits robots autonomes se glissant dans les
boîtes aux lettres ou les fenêtres pour récupérer des clés ou ouvrir des portes. Les
dommages sont faibles potentiellement, car très localisés à petite échelle.
3. Blocage de détection par IA : déjouer le tri et la collecte de données par IA afin
d'effacer des preuves ou de dissimuler des informations criminelles (pornographie
par exemple)
4. Fausses critiques rédigées par IA : générer des faux avis sur des sites tels que
Amazon ou Tripadvisor pour nuire ou favoriser un produit.
5. Traque assistée par IA : utiliser les systèmes d'apprentissage pour pister
l'emplacement et l'activité d'un individu.
6. Contrefaçon : fabriquer de faux contenus, comme des tableaux ou de la musique,
pouvant être vendus sous une fausse paternité. Le potentiel de nuisance demeure
assez faible dans la mesure où les tableaux ou musiques connues sont peu
nombreux.
Impact de l’IA sur le travail
L’IA DANS LE FUTUR : QUELLES PERSPECTIVES ?

L’intelligence artificielle, marché prolifique, va sans l’ombre d’un doute continuer sa


croissance exponentielle dans les décennies à venir. À tel point que certains grands
industriels et scientifiques dont l’IA est le cœur de métier, comme Elon Musk, Bill Gates et le
regretté Stephen Hawking, s’inquiètent déjà des conséquences que pourraient avoir un
potentiel manque de contrôle humain sur les intelligences artificielles développées. Les
répercussions que cela pourrait engendrer seraient alors particulièrement inquiétantes :
piratage en masse, cyberguerre, explosion du chômage avec un remplacement croissant de
métiers… Des perspectives sombres qui ne doivent pas faire oublier le potentiel
extraordinaire de l’IA, dont l’évolution peut également, selon l’usage que les sociétés
décident d’en faire, être source de progrès pour l’Homme et la planète. Dans le domaine
médical par exemple, l’impact de l’IA est considérable puisqu’elle permet déjà de réaliser
des diagnostics fiables et auparavant compliqués et douloureux pour le patient.

L'Intelligence Artificielle, perspectives d'avenir et avenir du travail

Les prédictions sur un avenir modelé par l'intelligence artificielle (IA) sont légion. Mais
Antoine Blondeau, qui a contribué au développement de la technologie ayant débouché sur
la saisie intuitive et Siri, l'assistant vocal d'Apple, sait plus que d'autres de quoi il parle.

«Dans 30 ans, le monde sera très différent», dit ce Français de 48 ans qui a quitté la France
il y a longtemps et partage aujourd'hui sa vie entre la Californie et Hong Kong. «Tout sera
conçu pour satisfaire vos besoins personnels.»

Le travail tel que nous le connaissons sera obsolète, d'après le cofondateur de Sentient
Technologies, plateforme spécialisée dans l'IA.

Les progrès de la robotique sensorielle et visuelle auront permis la création d'usines


intelligentes qui prendront des décisions en temps réel. Elles n'auront pas besoin d'ouvriers,
que de superviseurs. Les professions juridiques, le journalisme, la comptabilité et la vente
au détail seront rationalisés, l'IA abattant le travail ingrat.

La santé sera aussi bouleversée, juge-t-il. Les particuliers disposeront de toutes leurs
données sanitaires et l'IA pourra émettre des diagnostics.

«Si on a rendez-vous chez le médecin, ça sera plus pour le réconfort de parler avec un être
humain ou parce qu'il faudra qu'un humain dispense les médicaments. Mais on n'aura pas
forcément besoin d'un médecin pour dire ce qui ne va pas.»

Comment l’IA risque-t-elle de perturber le marché du travail?

Ce qu’on dit souvent des tâches qu’on prévoit automatiser est que l’IA est utile pour
effectuer des tâches de nature répétitive, qui impliquent de percevoir de l’information, de
repérer des tendances ou de réagir par une action particulière En pratique, il est rare que
toutes les fonctions d’une personne soient ainsi automatisées; seulement une partie de
celles-ci le sont. Même si l’automatisation peut rendre cette personne plus productive,
puisqu’elle pourra passer plus de temps à faire un travail sans doute plus utile, elle réduit le
nombre de coéquipiers nécessaires pour accomplir une charge de travail précise, ce qui
signifie que le nombre d’employés peut être moindre.

Nombre Augmentation de la Diminution de la demande


demande

1 Analystes et scientifiques de Commis à la saisie de


données données

2 Spécialistes de l’intelligence Secrétaires d’administration


artificielle et de et de direction
l’apprentissage machine

3 Spécialistes des données Comptables et teneurs de


massives livres

4 Agents de marketing et de Comptables et vérificateurs


stratégies numériques

5 Spécialistes de Travailleurs à la chaîne et


l’automatisation des ouvriers d’usine
processus

6 Professionnels de Gestionnaires de
l’expansion des affaires l’administration des activités

7 Spécialistes de la Agents de service à la


transformation numérique clientèle

8 Analystes de la sécurité de Directeurs des opérations


l’information

9 Développeurs de logiciels et Mécaniciens et réparateurs


d’applications de machines

10 Spécialistes de l’Internet Commis à la tenue des


des objets stocks
Part du travail fait par la machine plutôt que par l’homme, 2020 et 2025 (prévision)
R: Réalisation
6- les domaines d’utilisation:
Pourriez-vous nous donner 5 exemples d’application de l’intelligence artificielle ? Qu’est-ce
que l’IA apporte à chacun de ces secteurs et quelles sont leurs perspectives ?

L’IA dans l’industrie

Dans l’industrie, l’exemple qui nous vient directement en tête est le système de préparation
de commande basé sur des flottes de robots de la startup française Exotec. Mais les cas
d’usages dans l’industrie sont beaucoup plus vastes : optimisation de la supply chain,
gestion et prévision des stocks, prédiction des manutentions, automatisation du contrôle
qualité, etc…

L’IA dans la cybersécurité

Côté sécurité, pendant le confinement les cyberattaques enregistrées ont été quatre fois
plus intenses, c’est un secteur stratégique dans lequel il faut continuer à investir. L’IA est
depuis quelques années incontournable pour identifier les relations entre les différentes
menaces : fichiers malveillants, adresses IP suspectes, menaces internes, etc. Cette
analyse ne prend que quelques secondes, et permet aux analystes de la sécurité de
répondre jusqu’à 60 fois plus rapidement aux menaces. La startup CybelAngel propose des
solutions pour aider les entreprises à détecter les fuites de données ainsi que les différentes
menaces du dark web grâce à l’intelligence artificielle. Vade Secure se concentre quant à
elle sur la protection contre les attaques avancées et sophistiquées déployées par email.

L’IA dans la santé

Dans un monde où médecine et data sont de plus en plus liées, les innovations dans le
secteur de la santé ne connaissent pas la crise. De l’aide au diagnostic à partir de l’imagerie
médicale au parcours patient, suivi de l’efficacité du traitement, de nombreuses startups de
l’IA œuvrent pour une amélioration du système de santé. Certaines startups comme Owkin,
qui utilise une architecture de Federated Learning (ou apprentissage fédéré) non centralisée
et plus sûre pour protéger les données personnelles des patients, Withings (objets
connectés), Implicity (télésurveillance des prothèses cardiaques connectées), Incepto
Medical (imagerie médicale) ou Cardiologs (l’interprétation des électrocardiogrammes) se
distinguent.

L’IA dans le commerce

L’IA dans le secteur du commerce regorge de startups B2B moins connues du grand public.
Les deux dernières méga-levées réalisées en France concernent notamment l’amélioration
de l’expérience client. Contentsquare édite un logiciel en SaaS d’optimisation de
l’expérience client et d’augmentation du taux de conversion pour les sites d’e-commerce.
Elle a obtenu le statut de licorne en mai dernier, suite à l’annonce de sa Série D de 175
millions d’euros. AB Tasty**,** spécialisée dans l’optimisation de l’expérience client, a réussi
à lever 37 millions d’euros en Série C en juillet 2020. Les cas d’usage sont nombreux par
ailleurs, il suffit de consulter notre mapping des 453 startups de l’IA en France pour le
comprendre : marketing prédictif, optimisation de la performance web, agents
conversationnels (bots), etc. Les entrepreneurs français ne manquent pas de créativité !

L’IA dans la recherche

Bien sûr, on ne peut avoir d’innovations en IA sans recherche. Beaucoup de startups, qui
cartonnent aujourd’hui en France, sont des spin off issues de centres de recherche. Par
exemple, la startup Prophesee, spécialiste de la vision artificielle, trouve ses racines dans
l’Institut de la Vision (CNRS, Université Pierre et Marie Curie, INSERM).

Avant de pouvoir se servir d’une telle technologie et obtenir une valeur ajoutée, de
nombreuses étapes liées à la collecte, la gestion ou encore l’uniformisation des
données des consommateurs doivent être mises en place. Quelles sont ces
différentes étapes et comment les experts de l’IA peuvent-ils parvenir à surmonter ces
barrières selon vous ?

C’est certain, la data est un des facteurs-clé de succès pour tout projet en IA. Il convient
avant tout de bien connaître son patrimoine de données, de bien maîtriser sa qualité, et
d’avoir la capacité d’activer ces données au service de l’IA. Heureusement, il existe de
belles pépites françaises capables d’accompagner les entreprises sur tous ces chantiers :
Saagie**,** par exemple, fournit une plateforme qui permet de déployer rapidement des
projets Big data en production et d’embarquer de l’IA dans vos applications. Cosmian
développe et édite une plateforme logicielle de chiffrement de données. Cette solution
permet d’analyser les données encryptées et les exploiter sans les compromettre, mais
aussi de chiffrer la donnée lorsqu’elle est en cours d’utilisation, pour qu’elle puisse rester
chiffrée de bout en bout. Par ailleurs, la valorisation de la donnée est un vrai enjeu de
transformation digitale : les entreprises sont de plus en plus amenées à partager des
données en interne et externe, notamment pour alimenter des projets d’IA. Dawex et
Opendatasoft proposent ainsi des plateformes de datasharing.

7- les projets :
Les Etats-Unis :

PROJET CARRETA : véhicule automatisé dédié à la logistique


urbaine.
Les enjeux et objectifs du projet

Face à l’essor croissant des flux de transport de marchandises, les centres urbains sont
confrontés à des problèmes majeurs de congestion de l’espace public et de nuisances
sonores. L’optimisation de l’espace public et l’accessibilité au centre-ville constituent ainsi
des enjeux prégnants. Le projet Carreta vise à tester une solution innovante et durable
pour la livraison de marchandises en ville et à évaluer sa maturité et sa pertinence d’un point
de vue technologique, environnemental, usuel, économique, social et sociétal. Ces
véhicules automatisés, complémentaires de l’action humaine, sont conçus pour assister les
livreurs et les libérer des tâches les plus pénibles ou répétitives (charges lourdes,
aller-retours…), afin de leur permettre de se dédier au contact humain.

Vu la croissance des flux de transport de marchandises, les centres urbains sont confrontés
à des problèmes majeurs de congestion de l’espace public et de nuisances sonores.
L’optimisation de l’espace public et l’accessibilité au centre-ville constituent ainsi des enjeux
prégnants. Le projet Carreta vise à tester une solution durable et innovante pour la livraison
de marchandises en ville et à évaluer sa maturité et sa compétence d’un point de vue
technologique, environnemental, usuel, économique, sociétal et social . Ces véhicules

automatisés, complémentaires de l’action humaine, sont conçus pour assister les livreurs et
les libérer des tâches les plus affreuses ou répétitives (charges lourdes, aller-retours…), afin
de leur permettre de se dédier au contact humain.

L’expérimentation en trois phases

Durant 36 mois, des petits véhicules électriques autonomes de logistique seront


expérimentés sur des missions de livraison. Les cas d’usages portent sur la livraison de
colis pour La Poste et la livraison de produits alimentaires frais pour STEF. Les droïdes, à
savoir des petits véhicules, vont rouler, dans un premier temps, systématiquement
accompagnés d’une personne, dans le quartier d’Antigone, puis dans le cœur historique de
Montpellier. Le projet se déroule en 3 phases :

1. La première phase, qui commence dès le 17 septembre, vise à valider l’ensemble


des briques technologiques du véhicule logistique autonome pour valider sa sûreté
de fonctionnement ainsi que sa fonctionnalité, notamment sa capacité à
cartographier, reconnaître les parcours définis et détecter les possibles obstacles.
2. La seconde phase, qui débutera en 2022, a pour objet de valider le comportement du
véhicule autonome vis-à-vis de son environnement de circulation et sa capacité à
répondre aux contraintes opérationnelles relatives aux horaires, routes et autres
spécificités des cas d’usages STEF et LA POSTE. Durant ces 2 premières phases,
le véhicule roulera à vide dans les rues de Montpellier afin de collecter un maximum
de données et d’adapter le comportement du véhicule en fonction du retour
d’expérience.
3. La troisième et dernière phase consistera en une expérimentation en conditions
réelles d’utilisation, le véhicule autonome de logistique transportant les marchandises
pour valider sa pertinence pour les cas d’usages identifiés par STEF et LA POSTE.

Projet 2 : Tesla
Pourquoi Elon Musk fait diversion avec l'annonce d'un robot humanoïde ?

Toujours obsédé par une conception de l'intelligence artificielle héritée de la science-fiction,


Elon Musk annonce un projet de robot à forme humaine, baptisé "Tesla Bot". Un prototype
serait prévu pour l'année prochaine. Basé sur les technologies d'aide à la conduite de ses
voitures, qui est actuellement visée par une enquête aux Etats-Unis pour une série
d'accidents, le robot aurait pour but de remplacer les travailleurs humains effectuant
certaines tâches dangereuses ou ingrates. Un projet difficilement réalisable en l'état.
Lors d'une conférence baptisée Tesla AI Day, qui s'est en ligne tenue ce 20 août, Elon Musk
a annoncé son projet de fabriquer un prototype de robot humanoïde dès 2022. Surnommé
Tesla Bot et conçu pour ressembler à un être humain, l'appareil est supposé tirer parti des
compétences de Tesla en matière de construction automobile et de technologies de conduite
autonome.

Une réplique a été présentée sur scène pour montrer le design qu'aura le prototype. Il fera
172 cm de haut, pèsera environ 56 kg, et sera doté d'un écran en guise de visage. Sa
perception sera assurée par les capteurs d'Autopilot, et le traitement des informations sera
également géré par le système que Tesla utilise dans ses véhicules. Tesla fait état de 40
actuateurs électromécaniques pour les mouvements et de mains "similaires à celles d'un
humain".

La question qui se pose est évidemment de savoir si cette annonce est sérieuse et si le
projet est réalisable en l'état. La réponse semble assez clairement être "non". Elon Musk a
beau être un entrepreneur au succès incontestable (avec Tesla mais aussi et surtout
SpaceX), l'annonce de Tesla est en fait farfelue à plus d'un titre.
Déjà parce que la technologie n'est pas encore au point. En matière de robotique,

l'équipe à la pointe de l'innovation est celle de Boston Dynamics

. Ses robots sont désormais capables de se mouvoir rapidement et de franchir des obstacles
dans des environnements relativement complexes. Ils sont pourtant bien loin de pouvoir
remplacer le travail d'un être humain, et leur vitesse de course n'est pas tant un problème
que leur autonomie sur batterie, très limitée.

De plus, l'idée d'un robot dont il faudrait s'enfuir ou contre lequel il faudrait lutter
physiquement évoque les récits de science-fiction mais ne correspond pas à la réalité
scientifique actuelle, qui est que les machines ne sont pas douées d'une conscience et ne
sont pas capables de l'être. Les accidents impliquant des robots, qui sont en revanche une
vraie problématique, sont liés soit à une négligence, soit des erreurs de conception. En
usine, c'est le champ de recherche dit de la cobotique qui s'intéresse à cette question.

LE SYSTÈME D'AIDE À LA CONDUITE DE TESLA SOUS LE COUP D'UNE ENQUÊTE

Tesla en sait d'ailleurs quelque chose, puisque ses véhicules sont sous le coup d'une
enquête de l'agence américaine de la sécurité routière (NHTSA) pour une série d'accidents
causés par son système avancé d'aide à la conduite , que le marketing de l'entreprise a
régulièrement présenté comme étant capable (ou très prochainement) de conduire seul
alors qu'il n'est pas plus performant que ce que propose la concurrence.

Cet écart entre le marketing et la réalité a d'ailleurs été au cœur de plusieurs conflits en
interne , l'équipe en charge de ces développements ayant connu de nombreuses
démissions. On en viendrait presque à se demander si cette annonce d'un robot n'est pas
une tentative de diversion médiatique.

Affaire risquée
La technologie Full Self-Driving de Tesla , qui comprend le pilote automatique au nom
douteux , est un point de départ pour les développeurs du Tesla Bot. Aussi impressionnante
que soit cette technologie, elle s'avère moins que totalement fiable. Les accidents et les
décès associés au mode pilote automatique de Tesla – le dernier en date ayant à voir avec
les algorithmes qui luttent pour reconnaître les véhicules d'urgence garés – remettent en
question la sagesse de relâcher la technologie dans la nature si tôt.

Ce bilan n'augure rien de bon pour les robots humanoïdes qui reposent sur la même
technologie. Pourtant, il ne s'agit pas seulement d'obtenir la bonne technologie. Les
problèmes du pilote automatique de Tesla sont exacerbés par le comportement humain . Par
exemple, certains conducteurs de Tesla ont traité leurs voitures à technologie améliorée
comme s'il s'agissait de véhicules entièrement autonomes et n'ont pas prêté suffisamment
d'attention à la conduite. Quelque chose de similaire pourrait-il se produire avec le Tesla Bot
Le Tesla Bot est livré avec tout un portefeuille de risques orphelins, y compris des
menaces possibles pour la vie privée et l'autonomie".

Dans mes travaux sur l'innovation technologique socialement bénéfique, je m'intéresse


particulièrement aux risques orphelins. Ce sont des risques difficiles à quantifier et faciles à
ignorer et qui finissent inévitablement par faire trébucher les innovateurs.

Mes collègues et moi travaillons avec des entrepreneurs et d'autres pour surmonter ces
types de défis grâce au Risk Innovation Nexus , une initiative de l' Institut d'entrepreneuriat
et d'innovation Orin Edson de l'Arizona State University et du Global Futures Laboratory .

Le Tesla Bot est livré avec tout un portefeuille de risques orphelins. Ceux-ci incluent des
menaces possibles à la vie privée et à l'autonomie, car le bot collecte, partage et agit sur
des informations potentiellement sensibles ; les défis associés à la façon dont les gens sont
susceptibles de penser et de réagir aux robots humanoïdes ; les décalages potentiels entre
les perspectives éthiques ou idéologiques (par exemple, dans le contrôle de la criminalité ou
le maintien de l'ordre dans les manifestations civiles) et plus encore. Ce sont des défis qui
sont rarement abordés dans la formation que reçoivent les ingénieurs, et pourtant, les
ignorer peut mener au désastre .

Alors que le Tesla Bot peut sembler bénin - ou même un peu une blague - s'il doit être
bénéfique ainsi qu'un succès commercial, ses développeurs, investisseurs, futurs
consommateurs et autres doivent se poser des questions difficiles sur la façon dont il
pourrait menacer ce qui est important pour eux et comment gérer ces menaces.

Ces menaces peuvent être aussi spécifiques que des personnes effectuant des
modifications non autorisées qui augmentent les performances du robot – le faisant se
déplacer plus rapidement que prévu par ses concepteurs, par exemple – sans penser aux
risques. Ou ils peuvent être aussi généraux que la technologie militarisée de manière
innovante. Ils sont également aussi subtils que la façon dont un robot humanoïde pourrait
menacer la sécurité de l'emploi, ou comment un robot qui comprend des systèmes de
surveillance avancés pourrait porter atteinte à la vie privée.

Ensuite, il y a les défis du biais technologique qui affligent l'IA depuis un certain temps, en
particulier lorsqu'il conduit à un comportement appris qui s'avère hautement discriminatoire.
Par exemple, les algorithmes d'IA ont produit des résultats sexistes et racistes .
I: Perspectives

L’IA DANS LE FUTUR : QUELLES PERSPECTIVES ?

L’intelligence artificielle, marché prolifique, va sans l’ombre d’un doute continuer sa


croissance exponentielle dans les décennies à venir. À tel point que certains grands
industriels et scientifiques dont l’IA est le cœur de métier, comme Elon Musk, Bill Gates et le
regretté Stephen Hawking, s’inquiètent déjà des conséquences que pourraient avoir un
potentiel manque de contrôle humain sur les intelligences artificielles développées. Les
répercussions que cela pourrait engendrer seraient alors particulièrement inquiétantes :
piratage en masse, cyberguerre, explosion du chômage avec un remplacement croissant de
métiers…

Des perspectives sombres qui ne doivent pas faire oublier **le potentiel extraordinaire de
l’IA**, dont l’évolution peut également, selon l’usage que les sociétés décident d’en faire,
être source de progrès pour l’Homme et la planète. Dans le domaine médical par exemple,
l’impact de l’IA est considérable puisqu’elle permet déjà de **réaliser des diagnostics
fiables** et auparavant compliqués et douloureux pour le patient.
T: Terminaison
Conclusion
L’IA est avant tout une transposition de l’esprit humain au niveau technologique, un outil qui
prend forme dans toute sortes d’applications très puissantes mais aussi très complexes.

Aujourd’hui encore l’IA est limitée :

Contrainte de puissance.

Contrainte d’optimisation des calculs.

Contrainte d’apprentissage.

Contrainte du langage.

Elle reste pour l’instant humaine au sens stricte du terme.

les limites d'IA:

Les limites de l’intelligence artificielle

Vous aimerez peut-être aussi