Cours C2SI PDF
Cours C2SI PDF
Cours C2SI PDF
Rabat
Laboratoire de Recherche Mathmatiques,
Informatique et Applications
iii
iii
1
1
2
3
3
6
7
7
9
9
9
10
11
14
15
21
25
30
30
1.1
1.2
1.3
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . .
Notions sur la complexit . . . . . . . . . . . . . . . . . .
Les mthodes de rsolution exactes . . . . . . . . . . . .
1.3.1
1.3.2
1.3.3
1.3.4
1.4
1.5
1.6
Heuristiques . . . . . . . . . .
Mthodes de trajectoire . .
1.5.1
La mthode de descente .
Mtaheuristiques . . . . . . .
1.6.1
1.6.2
1.6.3
1.6.4
1.6.5
1.6.6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Conclusion . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Bibliographie
33
5
6
10
12
16
18
18
iii
1.8
iv
19
20
22
26
29
1
1.1
Introduction
Chapitre 1.
1.2
Dfinition 1.1
Une fonction f (n) est O( g(n)) ( f (n) est de complexit g(n)), sil existe un rel
c > 0 et un entier positif n0 tel que pour tout n n0 on a | f (n)| c.g(n).
Dfinition 1.2
Un algorithme en temps polynomial est un algorithme dont le temps de la complexit est en O( p(n)), o p est une fonction polynomiale et n est la taille de
linstance (ou sa longueur dentre).
Si k est le plus grand exposant de ce polynme en n, le problme correspondant
est dit tre rsoluble en O(nk ) et appartient la classe P, un exemple de problme
polynomial est celui de la connexit dans un graphe.
Dfinition 1.3
La classe NP contient les problmes de dcision qui peuvent tre dcids sur une
machine non dterministe en temps polynomial. Cest la classe des problmes qui
admettent un algorithme polynomial capable de tester la validit dune solution
du problme. Intuitivement, les problmes de cette classe sont les problmes qui
peuvent tre rsolus en numrant lensemble de solutions possibles et en les testant laide dun algorithme polynomial.
Dfinition 1.4
Dfinition 1.5
Dfinition 1.6
La classe NP-difficile : un problme est NP-difficile sil est plus difficile quun
problme NP-complet, cest dire sil existe un problme NP-complet se rduisant
ce problme par une rduction de Turing.
1.3
Chapitre 1.
toutes les solutions. Lensemble de neouds de larbre quil reste encore parcourir comme tant susceptibles de contenir une solution optimale, cest--dire encore diviser, est appel ensemble des
neouds actifs.
- La stratgie de parcours
La largeur dabord : Cette stratgie favorise les sommets les plus
proches de la racine en faisant moins de sparations du problme initial. Elle est moins efficace que les deux autres stratgies prsentes,
La profondeur dabord : Cette stratgie avantage les sommets les
plus loigns de la racine (de profondeur la plus leve) en
appliquant plus de sparations au problme initial. Cette voie
mne rapidement une solution optimale en conomisant la
mmoire,
Le meilleur dabord : Cette stratgie consiste explorer des sousproblmes possdant la meilleure borne. Elle permet aussi
dviter lexploration de tous les sous-problmes qui possdent
une mauvaise valuation par rapport la valeur optimale.
xi N
Pour ne pas violer la contrainte du problme chaque variable peut
prendre les valeurs suivantes x1 {0, 1, 2, 3}, x2 {0, 1, 2}, x3 {0, 1, 2}
et x4 {0, 1, 2, 3, 4}, voir la figure 1.1.
Chapitre 1.
Figure 1.2 Rsolution de lexemple de sac dos par Branch & Bound.
(1.1)
Dans le cas, o (POC) est de grande taille pour le reprsenter explicitement en mmoire ou pour quil tient dans un solveur de programmation
linaire, on utilise une technique qui consiste enlever une partie de ces
contraintes et de rsoudre le problme relax (POCR). La solution optimale de (PL) est contenue dans lensemble de solutions ralisables de
cette relaxation. Pour un problme de minimisation la solution optimale
du problme (POCR) est infrieure ou gale la solution optimale donne
par (POC).
Cette mthode consiste rsoudre un problme relax, et ajouter itrativement des contraintes du problme initial. On dfinit une contrainte
pour le problme de minimisation (1.1) par le couple (s, s0 ) o s Rn et
s0 R, cette contrainte est dite viole par la solution courante x si pour
tout y { x : Ax b} on a s T x < s0 et s T y s0 , on appelle alors ces
contraintes des coupes planes. On arrte lalgorithme lorsquil ny a plus
de contraintes violes par la solution courante, on obtient ainsi une solution optimale pour le problme initial.
La mthode des coupes planes est peu performante mais sa performance est amliore lorsquelle est combine avec la mthode "Branch
and Bound".
Chapitre 1.
Le cot rduit des variables est calcul laide des variables duales obtenues aprs la rsolution du problme restreint. Le point du dual ainsi
utilis dans le sous problme est appel point de sparation. Souvent, il
sagit dune solution optimale du dual du problme restreint.
On considre le programme linaire continu (LP) suivant :
Min iT ci xi
( LP) iT aij xi , b j j = 1, ..., n
xi 0, i T
Nous supposons que le nombre de variables de T est trop grand pour
que le problme (LP) puisse tre rsolu en temps raisonnable, et que nous
voulions le rsoudre par gnration de colonnes. Nous cherchons donc
rsoudre le problme restreint associ au problme matre avec un ensemble restreint de variables not Rl . Il faut que le problme restreint soit
ralisable. Il est possible dutiliser des colonnes simples par exemple des
colonnes alatoires, ou encore celles issues dune solution faisable obtenue
partir dune heuristique.
Le problme restreint (RLP) est donn sous la forme suivante :
Min i Rl ci xi
( RLP) i Rl aij x j , b j j = 1, ..., n
xi 0, i Rl
Le problme (RLP) est maintenant de taille rduite et sera plus facile
rsoudre par un solveur. Cette rsolution nous fournira les valeurs optimales des variables duales v j associes aux contraintes. Ces valeurs sont
passes au sous problme qui nous permet dobtenir la ou les colonnes
rajouter dans lensemble Rl .
Le calcul du cot rduit nous permet de savoir si une colonne a fait diminuer la valeur de lobjectif (et donc de lamliorer). Prenons par exemple
la colonne xi du problme matre (LP), son cot rduit vaut :
n
ci = ci aij v j
j =1
Remarque
La mthode de la gnration de colonnes peut tre combine avec
un processus de Branch&Bound pour rsoudre un programme linaire en
nombres entiers, cette mthode est appele Branch&Price.
1.4. Heuristiques
1.4
Heuristiques
En optimisation combinatoire, une heuristique est un algorithme approch qui permet didentifier en temps polynomial au moins une solution
ralisable rapide, pas obligatoirement optimale. Lusage dune heuristique
est efficace pour calculer une solution approche dun problme et ainsi
acclrer le processus de rsolution exacte. Gnralement une heuristique
est conue pour un problme particulier, en sappuyant sur sa structure
propre sans offrir aucune garantit quant la qualit de la solution calcule. Les heuristiques peuvent tre classes en deux catgories :
Mthodes constructives qui gnrent des solutions partir dune solution initiale en essayant den ajouter petit petit des lments jusqu
ce quune solution complte soit obtenue,
Mthodes de fouilles locales qui dmarrent avec une solution initialement complte (probablement moins intressante), et de manire
rptitive essaie damliorer cette solution en explorant son voisinage.
1.5
Mthodes de trajectoire
Les mthodes de recherche locale passent dune solution une autre
dans lespace des solutions candidates (lespace de recherche) quon note
S, jusqu ce quune solution considre comme optimale soit trouve ou
que le temps imparti soit dpass. La mthode de recherche locale la plus
lmentaire est la mthode de descente.
1.5.1
La mthode de descente
Pour un problme de minimisation dune fonction f , la mthode descente peut tre dcrite comme suit :
Algorithm 2 La mthode de descente
1. Solution initiale s ;
2. Repeter :
3.
4.
Chapitre 1.
10
1.6
Mtaheuristiques
Face aux difficults rencontres par les heuristiques pour avoir une
solution ralisable de bonne qualit pour des problmes doptimisation
difficiles, les mtaheuristiques ont fait leur apparition. Ces algorithmes
sont plus complets et complexes quune simple heuristique, et permettent
gnralement dobtenir une solution de trs bonne qualit pour des problmes issus des domaines de la recherche oprationnelle ou de lingnierie dont on ne connait pas de mthodes efficaces pour les traiter ou bien
quand la rsolution du problme ncessite un temps lev ou une grande
mmoire de stockage.
Le rapport entre le temps dexcution et la qualit de la solution trouve
dune mtaheuristique reste alors dans la majorit des cas trs intressant
par rapport aux diffrents types dapproches de rsolution.
La plupart des mtaheuristiques utilisent des processus alatoires et itratifs comme moyens de rassembler de linformation, dexplorer lespace
de recherche et de faire face des problmes comme lexplosion combinatoire. Une mtaheuristique peut tre adapte pour diffrents types de
problmes, tandis quune heuristique est utilise un problme donn.
Plusieurs dentre elles sont souvent inspires par des systmes naturels
dans de nombreux domaines tels que : la biologie (algorithmes volutionnaires et gntiques) la physique (recuit simul), et aussi lthologie
(algorithmes de colonies de fourmis).
Un des enjeux de la conception des mtaheuristiques est donc de faciliter
le choix dune mthode et le rglage des paramtres pour les adapter un
problme donn.
Les mtaheuristiques peuvent tre classes de nombreuses faons. On
peut distinguer celles qui travaillent avec une population de solutions de
celles qui ne manipulent quune seule solution la fois. Les mthodes qui
tentent itrativement damliorer une solution sont appeles mthodes de
recherche locale ou mthodes de trajectoire. Ces mthodes construisent
une trajectoire dans lespace des solutions en tentant de se diriger vers
des solutions optimales. Les exemples les plus connus de ces mthodes
sont : La recherche Tabou et le Recuit Simul. Les algorithmes gntiques,
loptimisation par essaim de particules et Les algorithmes de colonies de
fourmis prsentent les exemples les plus connus des mthodes qui travaillent avec une population.
1.6. Mtaheuristiques
11
P( E, T ) = exp
E
T
(1.2)
Chapitre 1.
12
1.6. Mtaheuristiques
13
Avantages
La mthode du recuit simul a lavantage dtre souple vis--vis des
volutions du problme et facile implmenter,
Contrairement aux mthodes de descente, SA vite le pige des optima locaux,
Excellents rsultats pour un nombre de problmes complexes.
Inconvnients
Nombreux tests ncessaires pour trouver les bons paramtres,
Chapitre 1.
14
Avantages et inconvnients
La recherche tabou est une mthode de recherche locale, et la structure de son algorithme de base est proche de celle du recuit simul, avec
lavantage davoir un paramtrage simplifi : le paramtrage consistera
dabord trouver une valeur indicative t ditrations pendant lesquelles
les mouvements sont interdits. Il faudra galement choisir une stratgie
de mmorisation. En revanche, la mthode tabou exige une gestion de
la mmoire de plus en plus lourde en mettant des stratgies de mmorisation complexe. Lefficacit de la mthode tabou offre son utilisation
1.6. Mtaheuristiques
15
Chapitre 1.
16
positifs de dpart que nous allons faire voluer, ce choix de la population initiale dindividus conditionne fortement la rapidit de lalgorithme. Nanmoins, une initialisation alatoire est plus simple
raliser : les valeurs des gnes sont tires au hasard selon une distribution uniforme. Toutefois, il peut tre utile de guider la gnration
initiale vers des sous domaines intressants de lespace de recherche.
Par exemple lors dune recherche doptima dans un problme doptimisation sous contraintes, il est prfrable de produire des lments
satisfaisant les contraintes. La population initiale doit tre suffisamment diversifie et de taille assez importante pour que la recherche
puisse parcourir lespace dtat dans un temps limit.
- Fonction dadaptation (Fitness)
Lvaluation de la Fitness est gnralement ltape dans laquelle on
mesure la performance de chaque individu. Pour pouvoir juger la
qualit dun individu et ainsi le comparer aux autres, il faut tablir une mesure commune dvaluation. Aucune rgle nexiste pour
dfinir cette fonction, son calcul peut ainsi tre quelconque, que ce
soit une simple quation ou une fonction affine. La manire la plus
simple est de poser la fonction dadaptation comme la formalisation
du critre doptimisation.
- Slection
La slection permet didentifier statistiquement les meilleurs individus dune population et dliminer les mauvais, pendant le passage
dune gnration une autre, ce processus est bas sur la performance de lindividu. Loprateur de slection doit tre conu pour
donner galement une chance aux mauvais lments, car ces lments peuvent, par croisement ou mutation, engendrer une descen-
1.6. Mtaheuristiques
dance pertinente par rapport au critre doptimisation. Il existe diffrentes techniques de slection, on propose quelques unes.
Slection uniforme : On ne sinteresse pas la valeur dadaptation
fitness et la slection seffectue dune manire alatoire et uniforme
telle que chaque individu i a la mme probabilit Prob(i ) = 1/Tpop
comme tous les autres individus (Tpop est la taille de la population).
Slection par tournoi : Deux individus sont choisis au hasard, on
compare leurs fonctions dadaptation et le mieux adapt est slectionn.
litisme : Cette mthode de slection permet de favoriser les
meilleurs individus de la population. Ce sont donc les individus les
plus prometteurs qui vont participer lamlioration de notre population. On peut constater que cette mthode induisait une convergence prmature de lalgorithme.
Slection par roulette : La slection des individus par la mthode
de la roulette sinspire de la roue de loterie sur laquelle chaque individu est reprsent par un secteur proportionnel sa fitness. On
fait tourner la roue et on slectionne un individu. Les individus les
mieux valus ont statistiquement plus de chance dtre slectionns, mais donne aussi une possibilit aux individus mal adapts
dtre choisis. chaque individu i une probabilit est associe, dtre
choisi proportionnelle son adaptation f i :
Prob(i ) = f i / f j , o f j dsigne la somme des adaptations de la
population.
Reste stochastique sans remplacement : Cette slection associe la
slection par roulette et la slection dterministe. Un nombre minimal de reprsentants de chaque individu parmi les futurs parents
est dtermin par avance en fonction de son adaptation, puis la population sera complte par un tirages alatoires. Pour un individu
i, le nombre de reprsentation dans la future gnration est donn
par E( f i ), o E dsigne la partie entire et f i dsigne ladaptation de
i rapporte la moyenne des adaptations de tous les individus. La
gnration suivante est alors complte par la mthode de slection
par roulette telle que lvaluation dun individu est donne par le
reste stochastique ri = f i E( f i ).
- Croisement
Loprateur de croisement favorise lexploration de lespace de recherche et enrichit la diversit de la population en manipulant la
structure des chromosomes, le croisement fait avec deux parents et
gnre deux enfants, en esprant quun des deux enfants au moins
hritera de bons gnes des deux parents et sera mieux adapt queux.
Il existe plusieurs mthodes de croisement par exemple le croisement en un point, ou en multiples points voir les figures 1.6 et 1.7.
17
Chapitre 1.
18
Exemple
Nous considrons par exemple les deux parents :
P1 = (34|165|27) et P2 = (12|356|47)
Aprs le croisement les deux parents vont produire deux enfants en changeant tout dabord les deux parties linterieure de chaque parent comme
suit :
E1 = ( xx |356| xx ) et E2 = ( xx |165| xx )
Lchange dfinit ainsi une srie de permutations : 1 3, 6 5, 5 6.
Certaines valeurs de gnes sont donc inchanges ( car elles sont diffrentes
aux valeurs du bolc intrieur) :
E1 = ( x4|356|27) et E2 = ( x2|165|47)
Finalement, le premier x de lenfant E1 est remplac par 1 en raison de
la permutation 1 3. De la mme manire, on ralise les permutations
pour les autres x. Les individus enfants finaux sont donc de la forme :
E1 = (14|356|27) et E2 = (32|165|47)
- Mutation
Loprateur de mutation est un processus o un changement mineur
du code gntique appliqu un individu pour introduire de la diversit et ainsi dviter de tomber dans des optimums locaux. Cet
oprateur est appliqu avec une probabilit Pm gnralement infrieure celle du croisement Pc , voir la figure 1.8.
1.6. Mtaheuristiques
Figure 1.8 Reprsentation schmatique dune mutation dans le cas dun codage binaire.
19
Chapitre 1.
20
Individu
Squence
Adaptation
% du total
01011
11
18.6
10011
19
32.2
00101
8.5
11000
24
40.7
59
100
Total
Individu
Squence
11000
00101
11000
01011
Parents
Enfants
001|01
110|00
00100
11001
110|00
010|11
01000
11011
1.6. Mtaheuristiques
21
Parents
Enfants
00100
11001
00100
11101
01000
11011
01100
11011
Squence
Adaptation
00100
11101
29
01100
12
11011
27
Total
72
Chapitre 1.
22
Principe de lalgorithme
Dans ce paragraphe on dcrit limplmentation dun algorithme de
colonie de fourmis original dit Ant System (AS) (Colorni et al. 1992a),
orient pour rsoudre le problme de voyageur de commerce (TSP), ce
problme consiste trouver le plus court cycle hamiltonien dans un
graphe, o chaque sommet du graphe reprsente une ville. La distance
entre les villes i et j est reprsente par dij , et le couple (i, j) reprsente
larte entre ces deux villes. Nous initialisons dabord la quantit de phromone sur les artes init > 0, chaque fourmi parcourt le graphe est
construit un trajet complet (une solution). A chaque tape de la construction des solutions, la fourmi doit dcider quel sommet elle va se dplacer,
cette dcision est prise dune manire probabiliste fonde sur les valeurs
de phromone et dune information statistique qui permet notamment de
trouver une bonne solution.
La probabilit pour quune fourmi k se dplace du sommet i au sommet
j, qui appartient un ensemble de sommets qui ne sont pas encore visits
1.6. Mtaheuristiques
23
(1.3)
l Sik
et sont deux paramtres qui influencent sur limportance de lintensit de phromone ij , et linformation statistique dite visibilit ij . Cette
valeur guide le choix des fourmis vers des villes proches, et viter le plus
possible celles trop lointaines (ij = d1ij ). Pour = 0, on prend en compte
juste la visibilit cest--dire que le choix sera tomb chaque fois sur la
ville la plus proche. Si = 0, seules les pistes de phromones jouent sur le
choix. Pour viter une slection trop rapide dun chemin, un compromis
convenable entre ces deux paramtres est obligatoire.
Q
Lk (t)
(1.4)
k
O ij (t) = m
k =1 ij ( t ), t reprsente une itration donne et m le
nombre de fourmis.
Diffrentes variantes
- Ant System et litisme
Cette variante a t introduite en 1996 par Dorigo et al. dans (Dorigo
et al. 1996) dont seules les fourmis qui ont effectu le plus court
chemin dposent une grande quantit de phromones, ce qui permet
daugmenter la quantit de phromones sur les meilleures solutions
et favoriser ainsi lexploration des solutions prometteuses par toutes
les autres fourmis.
Chapitre 1.
24
- Ant-Q System
Pour cette variante propose par (Dorigo et Gambardella 1997), (Dorigo et al. 1999), la rgle de mise jour locale est inspire du "Qlearning". Aucune amlioration na t dmontr pour cette variante
par rapport lalgorithme AS.
- Max-Min Ant System (MMAS)
Cette variante base sur lalgorithme (AS), a t propose par Sttzle
et Hoos (Sttzle et Hoos 1997), (Sttzle et Hoos Holger 2000), et
prsente quelques diffrences :
1. Dterminer des valeurs des pistes bornes par min et max ,
2. Initialiser les valeurs de phromones sur les pistes par la valeur
maximale max ,
3. Seule la meilleure fourmi met jour une piste de phromone,
4. La mise jour dune piste de phromones est faite dune manire inversement proportionnelle cest--dire que les pistes les
plus fortes sont moins renforces que les plus faibles,
5. Possibilit de rinitialiser les pistes des phromones.
1.6. Mtaheuristiques
25
Chapitre 1.
26
Algorithme de base
Un essaim de particules survole lespace de recherche, en qute de
loptimum global.
Dans Rn , la particule i (solution potentielle) de lessaim est modlise
par son vecteur position xi = ( xi1 , xi2 , ..., xin ) et par son vecteur vitesse
vi = (vi1 , vi2 , ..., vin ).
Cette particule garde en mmoire la meilleure position par laquelle elle
est dj passe, que lon note pi = ( pi1 , pi2 , ..., pin ). La meilleure position atteinte par toutes les particules de lessaim est note p g = ( p g1 , p g2 , ..., p gn ).
Au temps t + 1, le vecteur vitesse est calcul partir de 1.5
vij (t + 1) = vij (t) + c1 r1 ( pij (t) xij (t)) + c2 r2 ( p gj (t) xij (t))
(1.5)
(1.6)
Il est noter que le terme "vitesse" est ici abusif car les vecteurs vi ne
sont pas homognes une vitesse. Il serait plus appropri de parler de
"direction de dplacement".
La stratgie de dplacement dune particule est illustre dans la figure
1.11.
1.6. Mtaheuristiques
27
(1.8)
Une grande valeur de est synonyme dune grande amplitude de mouvement et donc dexploration globale de lespace de recherche. Les tudes
menes par Shi et Eberhart indiquent une meilleure convergence pour
entre 0.8 et 1.2. La dtermination de la meilleure valeur de ce paramtre
pour chaque algorithme se fait travers des exprimentations numriques.
Chapitre 1.
28
| 2 +
2
p
2 4|
, = 1 + 2 > 4.
(1.9)
(1.10)
1.6. Mtaheuristiques
utilis. (Anghinolfi et Paolucci 2009) proposent une classification des diverses approches de la littrature concernant lOEP pour loptimisation
discrte.
Figure 1.12 Graphe dinfluence dun essaim de particules. ( gauche) Graphe compltement connect, ( droite) Graphe dinformation circulaire.
29
Chapitre 1.
30
1.6. Mtaheuristiques
10:
11:
Initialisation :
Gnrer une population initiale R0 .
Poser i 0
la recherche disperse :
Tant que le critre darrt nest pas atteint faire
Ci Combinaisons linaires des points de Ri .
Ai procdure de rparation(Ci ) (admissibles).
Di recherche locale (Ai ) (amlioration).
Ri+1 points dans Ri Di (Mise--jour de lensemble de rfrence)
i i+1
Fin Tant que
Conclusion du chapitre
Nous pouvons conclure que les mtaheuristiques prsentent une classe
de mthodes approches adaptables une grande varit de problmes
doptimisation combinatoire et mnent des rsultats pertinents. Mais
il existe assez peu de contributions permettant de comprendre la raison
de cette efficacit, et aucune preuve ne peut montrer quune mtaheuristique sera plus efficace quune autre sur un problme donn. Certaines
mtaheuristiques prsentent lavantage dtre simples mettre en oeuvre,
comme le cas du recuit simul, dautres sont bien adaptes la rsolution de certaines classes de problme, trs contraints, comme le systme
de colonies de fourmis. La qualit des solutions trouves par les mtaheuristiques dpend de leur paramtrage, et de lquilibre entre un balayage
de tout lespace des solutions (diversification) et une exploration locale
(lintensification).
31
Bibliographie
D. Anghinolfi et M. Paolucci. A new discrete particle swarm optimization approach for the single-machine total weighted tardiness scheduling problem with sequence-dependent setup times. European Journal of
Operational Research, 193(1) :7385, 2009. (Cit page 29.)
V. Cern. A thermodynamical approach to the traveling salesman problem : an efficient simulation algorithm. Journal of Optimization Theory
and Applications, 45(1) :4151, 1985. (Cit page 11.)
M. Clerc et J. Kennedy. The particle swarm - explosion, stability, and
convergence in a multidimensional complex space. IEEE Transactions on
Evolutionary Computation, 6(1) :5873, 2002. (Cit page 28.)
A. Colorni, M. Dorigo, et V. Maniezzo. Distributed optimization by ant
colonies. in varela, f. and bourgine, p., editors, proceedings of ECAL91.
First European Conference on Artificial Life, Paris, France, pages 134142,
1992a. (Cit page 22.)
A. Colorni, M. Dorigo, et V. Maniezzo. An investigation of some proprieties of an "ant algorithm". In Manner and Manderick, pages 509520,
1992b. (Cit page 21.)
D. Costa et A. Hertz. Ants can color graphs. Journal of the Operational
Research Society, 48 :295305, 1997. (Cit page 22.)
M. Dorigo, G. Caro, et L. M. Gambardella. Ant algorithms for discrete
optimization. Artificial Life, 5(2) :137172, 1999. (Cit page 24.)
M. Dorigo, A. Colorni, et V. Maniezzo. The ant system : Optimization by
a colony of cooperating agents. IEEE Transactions on Systems, Man, and
Cybernetics-Part B, 26, No.1 :2941, 1996. (Cit pages 22 et 23.)
M. Dorigo et L. M. Gambardella. Ant colony system : A cooperative learning approach to the travelling salesman problem. IEEE Transactions on
Evolutionary Computation, 1(1) :5366, 1997. (Cit page 24.)
L. M. Gambardella, E. D. Taillard, et M. Dorigo. Ant colonies for the
quadratic assignment problem. Journal of the Operational Research Society,
50(2) :167176, 1999. (Cit page 22.)
F. Glover. Future paths for integer programming and links to artificial
intelligence. Computers and Operations Research, 13 :533549, 1986. (Cit
page 14.)
33
34
Bibliographie
Bibliographie
Y. Shi et R. C. Eberhart. A modified particle swarm optimizer. In Proceedings of the IEEE international conference on evolutionary computation, pages
6973, 1998. (Cit pages 27 et 28.)
T. Sttzle et H. Hoos. The max-min ant system and local search for the
traveling salesman problem. In Proceedings of ICEC97. IEEE fourth international conference on evolutionary computation. New York : IEEE Press,
pages 308313, 1997. (Cit page 24.)
T. Sttzle et H. Hoos Holger. Max min ant system. Future Generation
Computer Systems, 16(8) :889914, 2000. (Cit page 24.)
35
Bibliographie
37