SlideShare une entreprise Scribd logo
CHAPITRE IV:
HEURISTIQUES
ET MÉTA-HEURISTIQUES
Université Blida 1
Faculté des Sciences
Département d’Informatique
Master GSI (Génie des Systèmes Informatiques)
Semestre 1
Mme AROUSSI
2015-2016
Disponible sur https://sites.google.com/a/esi.dz/s-aroussi/
 Problèmes d’Optimisation Combinatoire
 Classification des Méthodes de Résolution
 Méthodes Exactes
 Méthode de séparation et d’évaluation
 Méthodes Approchées
 Méthodes par construction (algorithme de glouton)
 Méthodes de voisinage (recuit simulé & recherche taboue)
2
PLAN DU CHAPITRE IV
3
 On qualifié généralement de « combinatoires » les
problèmes dont la résolution se ramène à l'examen d'un
nombre fini de combinaisons (appelée aussi solutions).
Bien souvent cette résolution se heurte à une explosion
du nombre de combinaisons à explorer.
 En mathématique, l’optimisation combinatoire recouvre
toutes les méthodes qui permettent de déterminer
l’optimum d’une fonction avec ou sans contraintes.
PROBLÈME D’OPTIMISATION COMBINATOIRE
4
 Un Problème d‘Optimisation Combinatoire (POC) peut être définie
comme suit:
 Un ensemble de combinaisons ou de solutions X,
 Un ensemble de contraintes C (éventuellement vide)
 Un sous-ensemble S de X représentant les solutions admissibles (ou
réalisables) qui vérifient les contraintes C
 Une fonction de coût f (fonction objectif) qui assigne à chaque
solution s  S une valeur f(s).
 Il s’agit de trouver une solution optimale (ou optimum global) s*  S
qui optimise (minimise ou maximise) la fonction de coût f
PROBLÈME D’OPTIMISATION COMBINATOIRE
5
 Soit « Dist » une fonction qui mesure la distance entre deux
solutions: Dist: S x S  R (e.g. Distance euclidienne,
Manhattan, Hamming) . La notion de voisinage est définie par
rapport à une distance N(si) = {sk ∈ S / Dist(si,sk) ≤ ε}
 Une solution s∈S est un minimum local relativement à la
structure de voisinage N si f(s)≤f(s’) pour tout s’∈N(s).
 Une solution s∈S est un minimum global si f(s)≤f(s’) pour
tout s’∈S.
PROBLÈME D’OPTIMISATION COMBINATOIRE
6
PROBLÈME D’OPTIMISATION COMBINATOIRE
S2: Optimum global
S0: Solution de départ
S1: Optimum local
S: Solutions réalisables
F: fonction objectif
7
PROBLÈME D’OPTIMISATION COMBINATOIRE
 Résoudre un problème d’optimisation combinatoire nécessite
l’étude des points suivants:
1. Définir l’ensemble des solutions « X »
2. Exprimer l’ensemble des contraintes du problème « C »
afin de définir l’ensemble des solutions réalisables « S »,
3. Exprimer la fonction objectif « f » à optimiser,
4. Choisir la méthode de résolution à utiliser,
 Les trois premiers points relèvent de la modélisation du
problème, le dernier point de sa résolution.
8
PROBLÈME D’OPTIMISATION COMBINATOIRE
 A chaque problème d'optimisation, on peut associer un
problème de décision dont le but est de déterminer s'il existe
une solution pour laquelle la fonction objectif soit inférieure
(resp. supérieure) ou égale à une valeur donnée.
 La complexité d'un problème d'optimisation est liée à celle du
problème de décision qui lui est associé. En particulier, si le
problème de décision est NP-complet, alors le problème
d'optimisation est dit NP-difficile.
9
CLASSIFICATION DES MÉTHODES DE RÉSOLUTION
 La majorité des problèmes d'optimisation combinatoire, sont des
problèmes NP-difficiles et donc ils ne possèdent pas à ce jour un
algorithme efficace, i.e. de complexité polynomiale, valable de trouver la
solution optimale en un temps raisonnable.
 Ceci a motivé les chercheurs à développer de nombreuses méthodes de
résolution en recherche opérationnelle et en intelligence artificielle:
 La recherche s’est d'abord orientée vers des heuristiques spécifiques
aux problèmes,
 elle s’est progressivement intéressée aux méthodes plus générales,
c'est à dire les méta-heuristiques.
10
CLASSIFICATION DES MÉTHODES DE RÉSOLUTION
 Ces méthodes de résolution peuvent être réparties en deux
grandes classes:
 Méthodes exactes (complètes): Elles se basent
généralement sur une recherche complètes de l’espace des
combinaisons afin de trouver une solution optimale.
 Méthodes approchées (incomplètes): Elles permettent
de trouver une bonne solution (pas forcément optimale)
dans un temps raisonnable.
11
CLASSIFICATION DES MÉTHODES DE RÉSOLUTION
Méthodes Exactes
Méthodes de séparation et
d’évaluation
Méthode avec retour en arrière
Programmation dynamique
Programmation linéaire
Méthodes Approchées
Heuristiques
Méta-heuristiques
12
MÉTHODES EXACTES
 Le principe des méthodes exactes consiste
généralement à énumérer, souvent de manière
implicite, l'ensemble des solutions dans le but de
trouver la solution optimale:
 Avantage: Certitude de trouver la solution optimale.
 Inconvénient: Temps d’exécution prohibitif.
13
MÉTHODES EXACTES
Les algorithmes exacts les plus réussis dans
la littérature appartiennent aux quatre
paradigmes :
 Méthodes de séparation et d’évaluation
 Méthodes avec retour arrière
 Programmation dynamique
 Programmation linaire
14
MÉTHODES EXACTES
MÉTHODES DE SÉPARATION ET D’ÉVALUATION
 L’algorithme de séparation et évaluation, plus connu sous son
appellation anglaise Branch and Bound (B&B), repose sur une
méthode arborescente de recherche d’une solution optimale par
séparations et évaluations, en représentant les états solutions
par un arbre d’états, avec des nœuds, et des feuilles.
 Le branch-and-bound est basé sur trois axes principaux :
1. L’évaluation,
2. La séparation,
3. La stratégie de parcours.
15
MÉTHODES EXACTES
MÉTHODES DE SÉPARATION ET D’ÉVALUATION
1. L’évaluation permet de réduire l’espace de recherche en éliminant
quelques sous ensembles qui ne contiennent pas la solution
optimale.
 Exemple d’un POC cas de minimisation: Le B&B utilise une
élimination de branches dans l’arborescence de recherche de la manière
suivante : mémoriser la solution de plus bas coût rencontré pendant
l’exploration, et à comparer le coût de chaque nœud parcouru à celui de
la meilleure solution. Si le coût du nœud considéré est supérieur au
meilleur coût, on arrête l’exploration de la branche et toutes les
solutions de cette branche seront nécessairement de coût plus élevé que
la meilleure solution déjà trouvée.
16
MÉTHODES EXACTES
MÉTHODES DE SÉPARATION ET D’ÉVALUATION
2. La séparation consiste à diviser le problème en
sous-problèmes. Ainsi, en résolvant tous les sous-
problèmes et en gardant la meilleure solution
trouvée, on est assuré d’avoir résolu le problème
initial. Cela revient à construire un arbre
permettant d’énumérer toutes les solutions.
17
MÉTHODES EXACTES
MÉTHODES DE SÉPARATION ET D’ÉVALUATION
3. La stratégie de parcours. Il existe trois parcours
possible de l’arbre:
a. La profondeur d’abord: Cette stratégie avantage les sommets les plus éloignés de la
racine en appliquant plus de séparations au problème initial. Cette voie mène rapidement
à une solution optimale en économisant la mémoire,
b. Le meilleur d’abord: Cette stratégie consiste à explorer des sous-problèmes
possédant la meilleure borne. Elle permet aussi d’éviter l’exploration de tous les sous-
problèmes qui possèdent une mauvaise évaluation par rapport à la valeur optimale.
c. La largeur d’abord: Cette stratégie favorise les sommets les plus proches de la racine
en faisant moins de séparations du problème initial. Elle est moins efficace que les deux
autres stratégies présentées,
18
MÉTHODES APPROCHÉES
 Les méthodes approchées ont pour but de trouver une solution
admissible en un temps raisonnable, mais sans garantie
l’optimalité de cette solution. L’avantage principale de ces
méthodes est qu'elles peuvent s'appliquer à n'importe quelle
classe de problèmes, faciles ou très difficiles. De plus, elles ont
démontré leurs robustesses et efficacités face à plusieurs
problèmes d’optimisation combinatoires.
 Elles englobent deux classes : Heuristiques & Méta-
heuristiques
19
MÉTHODES APPROCHÉES
HEURISTIQUES
 Les heuristiques sont des règles empiriques simples
basées sur l'expérience, ne fournissant pas
nécessairement une solution optimale.
Exemple: Heuristiques de Choix de Variables du
problème Max-Sat
Du fait de la relation forte entre l’ordre d’affectation des variables et la taille de
l’arbre de recherche développé, une « bonne » heuristique de branchement est
déterminante pour l’efficacité d’un algorithme de recherche. Parmi ces
heuristiques:
20
MÉTHODES APPROCHÉES
HEURISTIQUES
 Exemple: Heuristiques de Choix de Variables du
problème Max-Sat
1. L’heuristique MOMS (Maximum Occurrences in Clauses of Minimum Size)
est l’une des heuristiques les plus simples. Elle sélectionne la variable
ayant le plus d’occurrences dans les clauses les plus courtes. Ce choix se
justifie par le fait qu’elle favorise la propagation des littéraux unitaires.
2. L’heuristique JW (Jeroslow-Wang) est basée également sur la longueur des
clauses. Elle donne aussi plus de poids aux variables apparaissant dans les
clauses les plus courtes.
21
MÉTHODES APPROCHÉES
HEURISTIQUES
 Exemple: Heuristiques de Choix de Variables du
problème Max-Sat
3. L’heuristique UP ( Unit Propagation) permet de sélectionner une variable
en prévoyant à l’avance son influence sur le processus de la recherche,
contrairement aux heuristiques MOMS et JW qui sélectionnent une
variable en fonction de l’état courant du processus de recherche. Cette
étude de l’influence de la variable est calculée via la procédure de
propagation unitaire ce qui permet d’estimer son poids. La variable ayant
le poids le plus fort est sélectionnée.
22
MÉTHODES APPROCHÉES
MÉTA-HEURISTIQUES
Le mot Méta-Heuristique est dérivé de la composition de
deux mots grecs:
 heuristique qui vient du verbe heuriskein (ευρισκειν) et qui
signifie ‘trouver’
 meta qui est un suffixe signifiant ‘au-delà’, ‘dans un niveau
supérieur’.
23
MÉTHODES APPROCHÉES
MÉTA-HEURISTIQUES
Une Méta-heuristique peut être définie comme une
méthode algorithmique capable de guider et d’orienter le
processus de recherche dans un espace de solution
(souvent très grand) à des régions riches en solutions
optimales dans le but de trouver des solutions, peut-être
pas toujours optimales, en tout cas très proches de
l’optimum, en un temps raisonnable.
24
MÉTHODES APPROCHÉES
MÉTA-HEURISTIQUES
Les propriétés fondamentales des Méta-Heuristiques sont
les suivantes:
1. Les méta-heuristiques sont des stratégies qui permettent de
guider la recherche d’une solution optimale
2. Le but visé par les méta-heuristiques est d’explorer l’espace de
recherche efficacement afin de déterminer des solutions
(presque) optimales.
3. Les techniques qui constituent des algorithmes de type méta-
heuristique vont de la simple procédure de recherche locale à
des processus d’apprentissage complexes.
4. Les méta-heuristiques sont en général non-déterministes et ne
donnent aucune garantie d’optimalité
25
MÉTHODES APPROCHÉES
MÉTA-HEURISTIQUES
Les propriétés fondamentales des Méta-Heuristiques sont
les suivantes:
5. Les méta-heuristiques peuvent contenir des mécanismes qui
permettent d’éviter d’être bloqué dans des régions de l’espace de
recherche.
6. Les concepts de base des méta-heuristiques peuvent être décrit
de manière abstraite, sans faire appel à un problème spécifique.
7. Les méta-heuristiques peuvent faire appel à des heuristiques
qui tiennent compte de la spécificité du problème traité, mais
ces heuristiques sont contrôlées par une stratégie de niveau
supérieur.
8. Les méta-heuristiques peuvent faire usage de l’expérience
accumulée durant la recherche de l’optimum, pour mieux guider
la suite du processus de recherche.
26
MÉTHODES APPROCHÉES
MÉTA-HEURISTIQUES
On classer les méta-heuristiques selon leur principe de
fonctionnement:
 Méthodes par construction (approche gloutonne);
 Méthodes de voisinage (recuit simulé, recherche
tabou);
 Méthodes évolutives (algorithmes génétiques)
 Méthodes biomimétiques (algorithme de colonies de
fourmis & d’essaim de particules)
27
MÉTA-HEURISTIQUES
MÉTHODES PAR CONSTRUCTION
Principe:
 On démarre d’une solution initiale vide;
 A chaque itération, une variable est choisie (aléatoirement ou via
une heuristique) à laquelle est attribuée une valeur du domaine;
 Le critère d’arrêt est l’affectation d’une valeur à toutes les
variables du problème.
Avantage et inconvénient: Simples mais performances
médiocres.
Exemple : méthode gloutonne
28
MÉTHODES PAR CONSTRUCTION
MÉTHODE GLOUTONNE
 La méthode gloutonne permet de construire une solution
pas à pas
 sans jamais revenir sur ses décisions,
 en prenant à chaque étape la solution qui semble la
meilleure localement (heuristique),
 en espérant obtenir une solution optimale.
29
Exemple 1: Problème du MAX-SAT
 A chaque étape, choisir une variable X (aléatoire ou heuristique)
et l’affecter une valeur de vérité VP (vrai ou faux) permettant de
satisfaire le plus grand nombre de clauses non satisfaites.
Exemple 2: Problème du sac à dos
 Trier les objets selon un critère donnée (e.g., le rapport
valeur/poids) et sélectionner un objet (e.g., de plus grand
rapport) jusqu’à atteindre la capacité maximale de sac à dos
MÉTHODES PAR CONSTRUCTION
MÉTHODE GLOUTONNE
30
MÉTA-HEURISTIQUES
MÉTHODES DE VOISINAGE
Les méthodes de voisinage se basent sur la notion de
voisinage.
Principe: Une méthode typique de voisinage débute avec
une configuration initiale, et réalise ensuite un processus
itératif qui consiste à remplacer la configuration courante
par l'un de ses voisins en tenant compte de la fonction de coût.
Ce processus s'arrête et retourne la meilleure configuration
trouvée quand la condition d'arrêt est réalisée. Cette
condition d'arrêt concerne généralement une limite pour le
nombre d'itérations, le temps d’exécution ou un objectif à
réaliser.
31
MÉTA-HEURISTIQUES
MÉTHODES DE VOISINAGE
Avantages et inconvénients: Un des avantages des
méthodes de voisinage réside précisément dans la
possibilité de contrôler le temps de calcul : la qualité de la
solution trouvée tend à s'améliorer progressivement au
cours du temps et l'utilisateur est libre d'arrêter
l'exécution au moment qu'il aura choisi. Cependant, la
solution obtenue dépend fortement de la solution initiale
et de la stratégie de voisinage et de parcours de ce
voisinage.
 Exemple: Recuit Simulé, Recherche Tabou, ……
32
MÉTHODES DE VOISINAGE
RECUIT SIMULÉ
La méthode du Recuit Simulé repose sur une analogie avec
la thermodynamique où la fonction à minimiser est l'énergie
du système.
Le recuit est un processus physique de chauffage. Un
système physique porté à une température assez élevée
devient liquide, et dans ce cas le degré de liberté des atomes
qui le composent augmente. Inversement lorsque l'on baisse
la température le degré de liberté diminue jusqu'à obtenir
un solide. Suivant la façon dont on diminue la température
on obtient des configurations d'énergie différentes :
33
MÉTHODES DE VOISINAGE
RECUIT SIMULÉ
Suivant la façon dont on diminue la température on obtient
des configurations d'énergie différentes :
 Baisse brutale de la température, la configuration atteinte est le
plus souvent un état métastable, dont l'énergie est supérieure à
celle du minimum absolu. Le système est en quelque sorte piégé
dans ce minimum local.
 Baisse progressive de la température de façon à éviter de piéger
le système dans des vallées d'énergie élevée, pour l'envoyer vers
les bassins les plus importants et les plus profonds, là où les
baisses ultérieures de température le précipiteront vers les fonds.
34
MÉTHODES DE VOISINAGE
RECUIT SIMULÉ
35
MÉTHODES DE VOISINAGE
RECUIT SIMULÉ
Le principe du recuit simulé est de parcourir de manière
itérative l’espace des solutions:
1. On part avec une solution notée s0 initialement générée de
manière aléatoire dont correspond une énergie initiale E0, et une
température initiale T0 généralement élevée.
2. A chaque itération de l’algorithme, un changement élémentaire est
effectué sur la solution, cette modification fait varier l’énergie du
système ΔE. Si cette variation est négative (la nouvelle solution
améliore la fonction objective, et permet de diminuer l’énergie du
système), elle est acceptée. Si la solution trouvée est moins bonne
que la précédente alors elle sera acceptée avec une probabilité P
calculée suivant la distribution de Boltzmann.
36
MÉTHODES DE VOISINAGE
RECUIT SIMULÉ
37
MÉTHODES DE VOISINAGE
RECUIT SIMULÉ
1. Engendrer une configuration initiale S0 de S : SS0
2. Initialiser la température T en fonction du schéma de
refroidissement
3. Répéter
a. Engendrer un voisin aléatoire S’ de S
b. Calculer ΔE = f (S’) - f(S)
c. Si Δ E ≤ 0 alors SS’
Sinon accepter S’ comme la nouvelle solution avec la probabilité
P(E, T) = exp (- ΔE/T)
a. Mettre T à jour en fonction du schéma de refroidissement
(réduire la température)
4. Jusqu’à la condition d’arrêt
38
MÉTHODES DE VOISINAGE
RECUIT SIMULÉ
Le choix de la température est primordial pour garantir
l’équilibre entre l’intensification et la diversification des
solutions dans l’espace de recherche. En effet, on peut
considérer une grande augmentation de la température comme
un processus de diversification alors que la décroissance de la
température correspond à un processus d’intensification.
39
MÉTHODES DE VOISINAGE
RECUIT SIMULÉ
Premièrement, le choix de la température initiale dépend
de la qualité de la solution de départ. Si cette solution est
choisie aléatoirement, il faut prendre une température
relativement élevée.
40
MÉTHODES DE VOISINAGE
RECUIT SIMULÉ
 De manière générale, les schémas de la décroissance (ou réduction)
de la température (ou schémas de refroidissement) peuvent être
classés en trois catégories :
 décroissance par paliers: chaque température est maintenue égale
pendant un certain nombre d'itérations, et décroît ainsi par paliers.
 Décroissance linéaire ou continue: la température est modifiée à chaque
itération.
 Décroissance non-monotone: la température décroît à chaque itération
avec des augmentations occasionnelles.
41
MÉTHODES DE VOISINAGE
RECUIT SIMULÉ
Avantages:
 Souple vis-à-vis des évolutions du problème et facile à
implémenter,
 Evite le piège des optima locaux,
 Excellents résultats pour un nombre de problèmes
complexes.
Inconvénients:
 Nombreux tests nécessaires pour trouver les bons
paramètres,
 Définir les voisinages permettant un calcul efficace de ΔE.
42
MÉTHODES DE VOISINAGE
RECHERCHE TABOU
La méthode tabou fait appel à un ensemble de règles
et de mécanismes généraux pour guider la recherche de
manière intelligente au travers de l'espace des solutions.
A l'inverse du recuit simulé qui génère de manière
aléatoire une seule solution voisine s’ ∈ N(s) à chaque
itération, la recherche tabou examine un échantillonnage
de solutions de N(s) et retient la meilleure s’ même si
s’ est plus mauvaise que s. La recherche tabou ne
s'arrête donc pas au premier optimum trouvé.
43
MÉTHODES DE VOISINAGE
RECHERCHE TABOU
Cependant, cette stratégie peut entraîner des cycles, par
exemple un cycle de longueur 2 : s→s’→s→s’ ...
Pour empêcher ce type de cycle, la recherche tabou utilise
une liste T (appelée liste tabou) qui mémorise les k
dernières solutions visitées et interdit tout mouvement
vers une solution de cette liste.
Cette liste permet d'éviter tous les cycles de longueur
inférieure ou égale à k. La valeur de k dépend du
problème à résoudre et peut éventuellement évoluer au
cours de la recherche.
44
MÉTHODES DE VOISINAGE
RECHERCHE TABOU
Les solutions ne demeurent dans T que pour un nombre
limité d’itérations. La liste T est donc une mémoire à
court terme. En effet, quand le nombre k est atteint,
chaque nouvelle solution sélectionnée remplace la plus
ancienne dans la liste. La construction de la liste tabou
est basée sur le principe FIFO, c’est-à-dire le premier
entré est le premier sorti.
45
MÉTHODES DE VOISINAGE
RECHERCHE TABOU
46
MÉTHODES DE VOISINAGE
RECHERCHE TABOU
1. Initialisation
a. S0 une solution initiale
b. SS0; S* S0; C*f(S0)
c. T =  (c’est la liste tabou dont la taille maximale est k)
2. Répéter
a. Générer un sous ensemble de solution au voisinage de s et
garder la meilleure solution s’
b. Ajouter s’ à la liste T
3. Jusqu’à la condition d’arrêt
47
MÉTHODES DE VOISINAGE
RECHERCHE TABOU
La liste tabou demande typiquement beaucoup de place
mémoire et du temps (pour les opérations de mis à jours
la liste).
 Certains préconisent l’utilisation des listes taboues réactives dont
la taille varie selon les résultats de la recherche. Ainsi, si des
solutions sont visitées de manière répétée (à intervalle > |t|)
alors on peut augmenter la longueur de la liste, ce qui aura pour
effet de diversifier la recherche. Par contre, si la solution
courante n’est que rarement améliorée, cela peut signifier qu’il
est temps d’intensifier la recherche en évitant d’interdire trop de
solutions dans le voisinage de la solutions courante, et en
diminuant donc la longueur de la liste taboue.
SOURCES DE CE COURS
 Karima Benatchba, Cours de Techniques d’optimisation, ESI, 2009.
 S. Le Digabel, Introduction aux métaheuristiques, Ecole Polytechnique de
Montréal, 2014.
 Sidi Mohamed Douiri, Souad Elbernoussi & Halima Lakhbab. Cours des
Méthodes de Résolution Exactes Heuristiques et Métaheuristiques, Faculté
des Sciences de Rabat, Université Mohammed V.
 Jin-Kao Hao, Philippe Galinier, Michel Habib. Méthaheuristiques pour
l’optimisation combinatoire et l’affectation sous contraintes, Revue
d’Intelligence Artificielle, Vol 1999.
 Saïd Jabbour, De la Satisfiabilité Propositionnelle aux Formules
Booléennes Quantifiées, thèse de doctorat, Université d’Artois, 2008.
 Nadjib Lazaar, Exploration de techniques de recherche locale pour la
génération automatique de cas de test. Etude bibliographique, 2011.
48

Contenu connexe

Tendances

Chapitre 3 la recherche tabou
Chapitre 3 la recherche tabouChapitre 3 la recherche tabou
Chapitre 3 la recherche tabou
Achraf Manaa
 
Chapitre vi np complétude
Chapitre vi np complétudeChapitre vi np complétude
Chapitre vi np complétude
Sana Aroussi
 
Arbre de décision
Arbre de décisionArbre de décision
Arbre de décision
Yassine Badri
 
L’optimisation par essaims de particules
L’optimisation par essaims de particulesL’optimisation par essaims de particules
L’optimisation par essaims de particules
chagra bassem
 
Chapitre v algorithmes gloutons
Chapitre v algorithmes gloutonsChapitre v algorithmes gloutons
Chapitre v algorithmes gloutons
Sana Aroussi
 
Algorithme génétique
Algorithme génétiqueAlgorithme génétique
Algorithme génétique
Ilhem Daoudi
 
Introduction to Machine learning
Introduction to Machine learningIntroduction to Machine learning
Introduction to Machine learning
Quentin Ambard
 
Chapitre i introduction et motivations
Chapitre i introduction et motivationsChapitre i introduction et motivations
Chapitre i introduction et motivations
Sana Aroussi
 
Introduction logique floue
Introduction logique floueIntroduction logique floue
Introduction logique floue
TECOS
 
Chapitre 2 complexité
Chapitre 2 complexitéChapitre 2 complexité
Chapitre 2 complexité
Sana Aroussi
 
Travaux dirigés 1: algorithme & structures de données (corrigés)
Travaux dirigés 1: algorithme & structures de données (corrigés)Travaux dirigés 1: algorithme & structures de données (corrigés)
Travaux dirigés 1: algorithme & structures de données (corrigés)
Ines Ouaz
 
Optimisation par colonie de fourmis par zellagui amine
Optimisation par colonie de fourmis par zellagui amineOptimisation par colonie de fourmis par zellagui amine
Optimisation par colonie de fourmis par zellagui amine
Zellagui Amine
 
Présentation PFE: Système de gestion des réclamations et interventions clients
Présentation PFE: Système de gestion des réclamations et interventions clientsPrésentation PFE: Système de gestion des réclamations et interventions clients
Présentation PFE: Système de gestion des réclamations et interventions clients
Mohamed Ayoub OUERTATANI
 
Solving Traveling Salesman problem using genetic algorithms, implementation i...
Solving Traveling Salesman problem using genetic algorithms, implementation i...Solving Traveling Salesman problem using genetic algorithms, implementation i...
Solving Traveling Salesman problem using genetic algorithms, implementation i...
MEJDAOUI Soufiane
 
Rapport de stage: mastère ISIC (Business Intelligence)
Rapport de stage: mastère ISIC (Business Intelligence)Rapport de stage: mastère ISIC (Business Intelligence)
Rapport de stage: mastère ISIC (Business Intelligence)
Ines Ben Kahla
 
Le problème de voyageur de commerce: algorithme génétique
Le problème de voyageur de commerce: algorithme génétiqueLe problème de voyageur de commerce: algorithme génétique
Le problème de voyageur de commerce: algorithme génétique
Rima Lassoued
 
Data mining - Associativité
Data mining - AssociativitéData mining - Associativité
Data mining - Associativité
Mohamed Heny SELMI
 
Exposé segmentation
Exposé segmentationExposé segmentation
Exposé segmentation
Donia Hammami
 
Merise+ +exercices+mcd+-+corrigés
Merise+ +exercices+mcd+-+corrigésMerise+ +exercices+mcd+-+corrigés
Merise+ +exercices+mcd+-+corrigés
Majid CHADAD
 
Les systèmes experts
Les systèmes expertsLes systèmes experts
Les systèmes experts
Bruno Delb
 

Tendances (20)

Chapitre 3 la recherche tabou
Chapitre 3 la recherche tabouChapitre 3 la recherche tabou
Chapitre 3 la recherche tabou
 
Chapitre vi np complétude
Chapitre vi np complétudeChapitre vi np complétude
Chapitre vi np complétude
 
Arbre de décision
Arbre de décisionArbre de décision
Arbre de décision
 
L’optimisation par essaims de particules
L’optimisation par essaims de particulesL’optimisation par essaims de particules
L’optimisation par essaims de particules
 
Chapitre v algorithmes gloutons
Chapitre v algorithmes gloutonsChapitre v algorithmes gloutons
Chapitre v algorithmes gloutons
 
Algorithme génétique
Algorithme génétiqueAlgorithme génétique
Algorithme génétique
 
Introduction to Machine learning
Introduction to Machine learningIntroduction to Machine learning
Introduction to Machine learning
 
Chapitre i introduction et motivations
Chapitre i introduction et motivationsChapitre i introduction et motivations
Chapitre i introduction et motivations
 
Introduction logique floue
Introduction logique floueIntroduction logique floue
Introduction logique floue
 
Chapitre 2 complexité
Chapitre 2 complexitéChapitre 2 complexité
Chapitre 2 complexité
 
Travaux dirigés 1: algorithme & structures de données (corrigés)
Travaux dirigés 1: algorithme & structures de données (corrigés)Travaux dirigés 1: algorithme & structures de données (corrigés)
Travaux dirigés 1: algorithme & structures de données (corrigés)
 
Optimisation par colonie de fourmis par zellagui amine
Optimisation par colonie de fourmis par zellagui amineOptimisation par colonie de fourmis par zellagui amine
Optimisation par colonie de fourmis par zellagui amine
 
Présentation PFE: Système de gestion des réclamations et interventions clients
Présentation PFE: Système de gestion des réclamations et interventions clientsPrésentation PFE: Système de gestion des réclamations et interventions clients
Présentation PFE: Système de gestion des réclamations et interventions clients
 
Solving Traveling Salesman problem using genetic algorithms, implementation i...
Solving Traveling Salesman problem using genetic algorithms, implementation i...Solving Traveling Salesman problem using genetic algorithms, implementation i...
Solving Traveling Salesman problem using genetic algorithms, implementation i...
 
Rapport de stage: mastère ISIC (Business Intelligence)
Rapport de stage: mastère ISIC (Business Intelligence)Rapport de stage: mastère ISIC (Business Intelligence)
Rapport de stage: mastère ISIC (Business Intelligence)
 
Le problème de voyageur de commerce: algorithme génétique
Le problème de voyageur de commerce: algorithme génétiqueLe problème de voyageur de commerce: algorithme génétique
Le problème de voyageur de commerce: algorithme génétique
 
Data mining - Associativité
Data mining - AssociativitéData mining - Associativité
Data mining - Associativité
 
Exposé segmentation
Exposé segmentationExposé segmentation
Exposé segmentation
 
Merise+ +exercices+mcd+-+corrigés
Merise+ +exercices+mcd+-+corrigésMerise+ +exercices+mcd+-+corrigés
Merise+ +exercices+mcd+-+corrigés
 
Les systèmes experts
Les systèmes expertsLes systèmes experts
Les systèmes experts
 

Similaire à Chapitre 4 heuristiques et méta heuristiques

presentation_probleme_ordenancement_def_sol.pdf
presentation_probleme_ordenancement_def_sol.pdfpresentation_probleme_ordenancement_def_sol.pdf
presentation_probleme_ordenancement_def_sol.pdf
hanadimzlout123
 
Recheche tabou
Recheche tabouRecheche tabou
Recheche tabou
Nesrine khelifi
 
Branch and bound
Branch and boundBranch and bound
Branch and bound
TAOUFIQ ELFILALI
 
2 solver d'excel
2 solver d'excel2 solver d'excel
2 solver d'excel
kkatia31
 
optimisation cours.pdf
optimisation cours.pdfoptimisation cours.pdf
optimisation cours.pdf
Mouloudi1
 
La progr.docx
La progr.docxLa progr.docx
La progr.docx
patrick525760
 
5_Introduction_Metaheuristiques.pdf
5_Introduction_Metaheuristiques.pdf5_Introduction_Metaheuristiques.pdf
5_Introduction_Metaheuristiques.pdf
DariusSteves
 
5_Introduction_Metaheuristiques.pdf
5_Introduction_Metaheuristiques.pdf5_Introduction_Metaheuristiques.pdf
5_Introduction_Metaheuristiques.pdf
TarakBenslimane
 
recherche operationnelle
recherche operationnelle recherche operationnelle
recherche operationnelle
mohamednacim
 
Les 10 plus populaires algorithmes du machine learning
Les 10 plus populaires algorithmes du machine learningLes 10 plus populaires algorithmes du machine learning
Les 10 plus populaires algorithmes du machine learning
Hakim Nasaoui
 
Chap XI : Outils de Simulation des modes opératoires (Plans d’expériences)
Chap XI : Outils de Simulation des modes opératoires (Plans d’expériences)Chap XI : Outils de Simulation des modes opératoires (Plans d’expériences)
Chap XI : Outils de Simulation des modes opératoires (Plans d’expériences)
Mohammed TAMALI
 
marp dov (1).ppt
marp dov (1).pptmarp dov (1).ppt
marp dov (1).ppt
hamidabdellah
 
Genetics Science Presentation in Blue Yellow Flat Graphic Style (1).pptx
Genetics Science Presentation in Blue Yellow Flat Graphic Style (1).pptxGenetics Science Presentation in Blue Yellow Flat Graphic Style (1).pptx
Genetics Science Presentation in Blue Yellow Flat Graphic Style (1).pptx
ImenBoussandel
 
Support Formation Samsung - Python - Session 2 - 2022.pptx
Support Formation Samsung - Python - Session 2 - 2022.pptxSupport Formation Samsung - Python - Session 2 - 2022.pptx
Support Formation Samsung - Python - Session 2 - 2022.pptx
bpmana
 
Plan dexperience
Plan dexperiencePlan dexperience
Plan dexperience
Nihal Bén
 
resolution_de_problemes.pdf
resolution_de_problemes.pdfresolution_de_problemes.pdf
resolution_de_problemes.pdf
KHALIDSABOURI1
 
plan-dexperience-160418013835 (2).P point tx
plan-dexperience-160418013835 (2).P point txplan-dexperience-160418013835 (2).P point tx
plan-dexperience-160418013835 (2).P point tx
KaddarHoda
 
Introduction au Prompt engineering : Découvrez cette pratique !
Introduction au Prompt engineering : Découvrez cette pratique !Introduction au Prompt engineering : Découvrez cette pratique !
Introduction au Prompt engineering : Découvrez cette pratique !
BigBrain Evolution
 
Chap III : Cours de Modélisation & Simulation des systèmes
Chap III : Cours de Modélisation & Simulation des systèmesChap III : Cours de Modélisation & Simulation des systèmes
Chap III : Cours de Modélisation & Simulation des systèmes
Mohammed TAMALI
 

Similaire à Chapitre 4 heuristiques et méta heuristiques (20)

presentation_probleme_ordenancement_def_sol.pdf
presentation_probleme_ordenancement_def_sol.pdfpresentation_probleme_ordenancement_def_sol.pdf
presentation_probleme_ordenancement_def_sol.pdf
 
Recheche tabou
Recheche tabouRecheche tabou
Recheche tabou
 
Branch and bound
Branch and boundBranch and bound
Branch and bound
 
2 solver d'excel
2 solver d'excel2 solver d'excel
2 solver d'excel
 
optimisation cours.pdf
optimisation cours.pdfoptimisation cours.pdf
optimisation cours.pdf
 
La progr.docx
La progr.docxLa progr.docx
La progr.docx
 
5_Introduction_Metaheuristiques.pdf
5_Introduction_Metaheuristiques.pdf5_Introduction_Metaheuristiques.pdf
5_Introduction_Metaheuristiques.pdf
 
5_Introduction_Metaheuristiques.pdf
5_Introduction_Metaheuristiques.pdf5_Introduction_Metaheuristiques.pdf
5_Introduction_Metaheuristiques.pdf
 
recherche operationnelle
recherche operationnelle recherche operationnelle
recherche operationnelle
 
Les 10 plus populaires algorithmes du machine learning
Les 10 plus populaires algorithmes du machine learningLes 10 plus populaires algorithmes du machine learning
Les 10 plus populaires algorithmes du machine learning
 
Chap XI : Outils de Simulation des modes opératoires (Plans d’expériences)
Chap XI : Outils de Simulation des modes opératoires (Plans d’expériences)Chap XI : Outils de Simulation des modes opératoires (Plans d’expériences)
Chap XI : Outils de Simulation des modes opératoires (Plans d’expériences)
 
marp dov (1).ppt
marp dov (1).pptmarp dov (1).ppt
marp dov (1).ppt
 
Genetics Science Presentation in Blue Yellow Flat Graphic Style (1).pptx
Genetics Science Presentation in Blue Yellow Flat Graphic Style (1).pptxGenetics Science Presentation in Blue Yellow Flat Graphic Style (1).pptx
Genetics Science Presentation in Blue Yellow Flat Graphic Style (1).pptx
 
Support Formation Samsung - Python - Session 2 - 2022.pptx
Support Formation Samsung - Python - Session 2 - 2022.pptxSupport Formation Samsung - Python - Session 2 - 2022.pptx
Support Formation Samsung - Python - Session 2 - 2022.pptx
 
Plan dexperience
Plan dexperiencePlan dexperience
Plan dexperience
 
resolution_de_problemes.pdf
resolution_de_problemes.pdfresolution_de_problemes.pdf
resolution_de_problemes.pdf
 
Chapitre 1
Chapitre 1Chapitre 1
Chapitre 1
 
plan-dexperience-160418013835 (2).P point tx
plan-dexperience-160418013835 (2).P point txplan-dexperience-160418013835 (2).P point tx
plan-dexperience-160418013835 (2).P point tx
 
Introduction au Prompt engineering : Découvrez cette pratique !
Introduction au Prompt engineering : Découvrez cette pratique !Introduction au Prompt engineering : Découvrez cette pratique !
Introduction au Prompt engineering : Découvrez cette pratique !
 
Chap III : Cours de Modélisation & Simulation des systèmes
Chap III : Cours de Modélisation & Simulation des systèmesChap III : Cours de Modélisation & Simulation des systèmes
Chap III : Cours de Modélisation & Simulation des systèmes
 

Plus de Sana Aroussi

Chapitre 1 rappel
Chapitre 1 rappelChapitre 1 rappel
Chapitre 1 rappel
Sana Aroussi
 
Gestion des threads
Gestion des threadsGestion des threads
Gestion des threads
Sana Aroussi
 
Chapitre 2 plus court chemin
Chapitre 2 plus court cheminChapitre 2 plus court chemin
Chapitre 2 plus court chemin
Sana Aroussi
 
Chapitre 1 arbres de recherche
Chapitre 1 arbres de rechercheChapitre 1 arbres de recherche
Chapitre 1 arbres de recherche
Sana Aroussi
 
Chapitre 1 rappel
Chapitre 1 rappelChapitre 1 rappel
Chapitre 1 rappel
Sana Aroussi
 
Chapitre 4 récursivité
Chapitre 4 récursivitéChapitre 4 récursivité
Chapitre 4 récursivité
Sana Aroussi
 
Chapitre 1 rappel
Chapitre 1 rappelChapitre 1 rappel
Chapitre 1 rappel
Sana Aroussi
 
Chapitre 5 arbres binaires
Chapitre 5 arbres binairesChapitre 5 arbres binaires
Chapitre 5 arbres binaires
Sana Aroussi
 
Chapitre 3 NP-complétude
Chapitre 3 NP-complétudeChapitre 3 NP-complétude
Chapitre 3 NP-complétude
Sana Aroussi
 
Chapitre 2 problème de plus court chemin
Chapitre 2 problème de plus court cheminChapitre 2 problème de plus court chemin
Chapitre 2 problème de plus court chemin
Sana Aroussi
 
Chapitre 1 arbres de recherche
Chapitre 1 arbres de rechercheChapitre 1 arbres de recherche
Chapitre 1 arbres de recherche
Sana Aroussi
 
Chapitre 6 hachage statique
Chapitre 6 hachage statiqueChapitre 6 hachage statique
Chapitre 6 hachage statique
Sana Aroussi
 
Chapitre 5 structures hierarchiques (arbres)
Chapitre 5 structures hierarchiques (arbres)Chapitre 5 structures hierarchiques (arbres)
Chapitre 5 structures hierarchiques (arbres)
Sana Aroussi
 
Chapitre 3 structures séquentielles
Chapitre 3 structures séquentiellesChapitre 3 structures séquentielles
Chapitre 3 structures séquentielles
Sana Aroussi
 
Chapitre 1 rappel
Chapitre 1   rappelChapitre 1   rappel
Chapitre 1 rappel
Sana Aroussi
 
Chapitre iv entrées sorties et bus
Chapitre iv entrées sorties et busChapitre iv entrées sorties et bus
Chapitre iv entrées sorties et bus
Sana Aroussi
 
Chapitre iii interruptions
Chapitre iii interruptionsChapitre iii interruptions
Chapitre iii interruptions
Sana Aroussi
 
Chapitre ii mémoires
Chapitre ii mémoiresChapitre ii mémoires
Chapitre ii mémoires
Sana Aroussi
 
Chapitre i architectures des processeurs récents
Chapitre i architectures des processeurs récentsChapitre i architectures des processeurs récents
Chapitre i architectures des processeurs récents
Sana Aroussi
 
Chapitre iv algorithmes de tri
Chapitre iv algorithmes de triChapitre iv algorithmes de tri
Chapitre iv algorithmes de tri
Sana Aroussi
 

Plus de Sana Aroussi (20)

Chapitre 1 rappel
Chapitre 1 rappelChapitre 1 rappel
Chapitre 1 rappel
 
Gestion des threads
Gestion des threadsGestion des threads
Gestion des threads
 
Chapitre 2 plus court chemin
Chapitre 2 plus court cheminChapitre 2 plus court chemin
Chapitre 2 plus court chemin
 
Chapitre 1 arbres de recherche
Chapitre 1 arbres de rechercheChapitre 1 arbres de recherche
Chapitre 1 arbres de recherche
 
Chapitre 1 rappel
Chapitre 1 rappelChapitre 1 rappel
Chapitre 1 rappel
 
Chapitre 4 récursivité
Chapitre 4 récursivitéChapitre 4 récursivité
Chapitre 4 récursivité
 
Chapitre 1 rappel
Chapitre 1 rappelChapitre 1 rappel
Chapitre 1 rappel
 
Chapitre 5 arbres binaires
Chapitre 5 arbres binairesChapitre 5 arbres binaires
Chapitre 5 arbres binaires
 
Chapitre 3 NP-complétude
Chapitre 3 NP-complétudeChapitre 3 NP-complétude
Chapitre 3 NP-complétude
 
Chapitre 2 problème de plus court chemin
Chapitre 2 problème de plus court cheminChapitre 2 problème de plus court chemin
Chapitre 2 problème de plus court chemin
 
Chapitre 1 arbres de recherche
Chapitre 1 arbres de rechercheChapitre 1 arbres de recherche
Chapitre 1 arbres de recherche
 
Chapitre 6 hachage statique
Chapitre 6 hachage statiqueChapitre 6 hachage statique
Chapitre 6 hachage statique
 
Chapitre 5 structures hierarchiques (arbres)
Chapitre 5 structures hierarchiques (arbres)Chapitre 5 structures hierarchiques (arbres)
Chapitre 5 structures hierarchiques (arbres)
 
Chapitre 3 structures séquentielles
Chapitre 3 structures séquentiellesChapitre 3 structures séquentielles
Chapitre 3 structures séquentielles
 
Chapitre 1 rappel
Chapitre 1   rappelChapitre 1   rappel
Chapitre 1 rappel
 
Chapitre iv entrées sorties et bus
Chapitre iv entrées sorties et busChapitre iv entrées sorties et bus
Chapitre iv entrées sorties et bus
 
Chapitre iii interruptions
Chapitre iii interruptionsChapitre iii interruptions
Chapitre iii interruptions
 
Chapitre ii mémoires
Chapitre ii mémoiresChapitre ii mémoires
Chapitre ii mémoires
 
Chapitre i architectures des processeurs récents
Chapitre i architectures des processeurs récentsChapitre i architectures des processeurs récents
Chapitre i architectures des processeurs récents
 
Chapitre iv algorithmes de tri
Chapitre iv algorithmes de triChapitre iv algorithmes de tri
Chapitre iv algorithmes de tri
 

Dernier

MARTYRS DE HOLLANDE - La révolte hollandaise et les guerres de religion..pptx
MARTYRS DE HOLLANDE - La révolte hollandaise et les guerres de religion..pptxMARTYRS DE HOLLANDE - La révolte hollandaise et les guerres de religion..pptx
MARTYRS DE HOLLANDE - La révolte hollandaise et les guerres de religion..pptx
Martin M Flynn
 
Formation M2i - Attitude constructive : développer l'art de l'optimisme
Formation M2i - Attitude constructive : développer l'art de l'optimismeFormation M2i - Attitude constructive : développer l'art de l'optimisme
Formation M2i - Attitude constructive : développer l'art de l'optimisme
M2i Formation
 
A2-Faire-une-appreciation positive et/ou négative (A2)
A2-Faire-une-appreciation positive et/ou négative (A2)A2-Faire-une-appreciation positive et/ou négative (A2)
A2-Faire-une-appreciation positive et/ou négative (A2)
lebaobabbleu
 
apprendre-a-programmer-avec-python-3.pdf
apprendre-a-programmer-avec-python-3.pdfapprendre-a-programmer-avec-python-3.pdf
apprendre-a-programmer-avec-python-3.pdf
kamouzou878
 
Microbiologie: le monde microbien et les techniques de mise en évidence.
Microbiologie: le monde microbien et les techniques de mise en évidence.Microbiologie: le monde microbien et les techniques de mise en évidence.
Microbiologie: le monde microbien et les techniques de mise en évidence.
MahouwetinJacquesGBO
 
MS-203 Microsoft 365 Messaging Study Guide to prepare the certification
MS-203 Microsoft 365 Messaging Study Guide to prepare the certificationMS-203 Microsoft 365 Messaging Study Guide to prepare the certification
MS-203 Microsoft 365 Messaging Study Guide to prepare the certification
OlivierLumeau1
 
1eT Revolutions Empire Revolution Empire
1eT Revolutions Empire Revolution Empire1eT Revolutions Empire Revolution Empire
1eT Revolutions Empire Revolution Empire
NadineHG
 
Zineb Mekouar.pptx Écrivaine marocaine
Zineb Mekouar.pptx   Écrivaine  marocaineZineb Mekouar.pptx   Écrivaine  marocaine
Zineb Mekouar.pptx Écrivaine marocaine
Txaruka
 
[218_phot_d'Autriche-Hongrie_et_des_[...]Vaffier_Hubert_btv1b8594559c.pdf
[218_phot_d'Autriche-Hongrie_et_des_[...]Vaffier_Hubert_btv1b8594559c.pdf[218_phot_d'Autriche-Hongrie_et_des_[...]Vaffier_Hubert_btv1b8594559c.pdf
[218_phot_d'Autriche-Hongrie_et_des_[...]Vaffier_Hubert_btv1b8594559c.pdf
mcevapi3
 
La Révolution Bénédictine Casadéenne du Livradois-Forez: De Charlemagne à Fra...
La Révolution Bénédictine Casadéenne du Livradois-Forez: De Charlemagne à Fra...La Révolution Bénédictine Casadéenne du Livradois-Forez: De Charlemagne à Fra...
La Révolution Bénédictine Casadéenne du Livradois-Forez: De Charlemagne à Fra...
Editions La Dondaine
 
Burkina Faso libraries newsletter for June 2024
Burkina Faso libraries newsletter for June 2024Burkina Faso libraries newsletter for June 2024
Burkina Faso libraries newsletter for June 2024
Friends of African Village Libraries
 
A2-Critiques-gastronomiques activités critiques
A2-Critiques-gastronomiques activités critiquesA2-Critiques-gastronomiques activités critiques
A2-Critiques-gastronomiques activités critiques
lebaobabbleu
 
Manuel-5.-Elevage-de-poisson-chat-africain-Clarias-gariepinus-en-bacs-hors-so...
Manuel-5.-Elevage-de-poisson-chat-africain-Clarias-gariepinus-en-bacs-hors-so...Manuel-5.-Elevage-de-poisson-chat-africain-Clarias-gariepinus-en-bacs-hors-so...
Manuel-5.-Elevage-de-poisson-chat-africain-Clarias-gariepinus-en-bacs-hors-so...
dokposeverin
 

Dernier (13)

MARTYRS DE HOLLANDE - La révolte hollandaise et les guerres de religion..pptx
MARTYRS DE HOLLANDE - La révolte hollandaise et les guerres de religion..pptxMARTYRS DE HOLLANDE - La révolte hollandaise et les guerres de religion..pptx
MARTYRS DE HOLLANDE - La révolte hollandaise et les guerres de religion..pptx
 
Formation M2i - Attitude constructive : développer l'art de l'optimisme
Formation M2i - Attitude constructive : développer l'art de l'optimismeFormation M2i - Attitude constructive : développer l'art de l'optimisme
Formation M2i - Attitude constructive : développer l'art de l'optimisme
 
A2-Faire-une-appreciation positive et/ou négative (A2)
A2-Faire-une-appreciation positive et/ou négative (A2)A2-Faire-une-appreciation positive et/ou négative (A2)
A2-Faire-une-appreciation positive et/ou négative (A2)
 
apprendre-a-programmer-avec-python-3.pdf
apprendre-a-programmer-avec-python-3.pdfapprendre-a-programmer-avec-python-3.pdf
apprendre-a-programmer-avec-python-3.pdf
 
Microbiologie: le monde microbien et les techniques de mise en évidence.
Microbiologie: le monde microbien et les techniques de mise en évidence.Microbiologie: le monde microbien et les techniques de mise en évidence.
Microbiologie: le monde microbien et les techniques de mise en évidence.
 
MS-203 Microsoft 365 Messaging Study Guide to prepare the certification
MS-203 Microsoft 365 Messaging Study Guide to prepare the certificationMS-203 Microsoft 365 Messaging Study Guide to prepare the certification
MS-203 Microsoft 365 Messaging Study Guide to prepare the certification
 
1eT Revolutions Empire Revolution Empire
1eT Revolutions Empire Revolution Empire1eT Revolutions Empire Revolution Empire
1eT Revolutions Empire Revolution Empire
 
Zineb Mekouar.pptx Écrivaine marocaine
Zineb Mekouar.pptx   Écrivaine  marocaineZineb Mekouar.pptx   Écrivaine  marocaine
Zineb Mekouar.pptx Écrivaine marocaine
 
[218_phot_d'Autriche-Hongrie_et_des_[...]Vaffier_Hubert_btv1b8594559c.pdf
[218_phot_d'Autriche-Hongrie_et_des_[...]Vaffier_Hubert_btv1b8594559c.pdf[218_phot_d'Autriche-Hongrie_et_des_[...]Vaffier_Hubert_btv1b8594559c.pdf
[218_phot_d'Autriche-Hongrie_et_des_[...]Vaffier_Hubert_btv1b8594559c.pdf
 
La Révolution Bénédictine Casadéenne du Livradois-Forez: De Charlemagne à Fra...
La Révolution Bénédictine Casadéenne du Livradois-Forez: De Charlemagne à Fra...La Révolution Bénédictine Casadéenne du Livradois-Forez: De Charlemagne à Fra...
La Révolution Bénédictine Casadéenne du Livradois-Forez: De Charlemagne à Fra...
 
Burkina Faso libraries newsletter for June 2024
Burkina Faso libraries newsletter for June 2024Burkina Faso libraries newsletter for June 2024
Burkina Faso libraries newsletter for June 2024
 
A2-Critiques-gastronomiques activités critiques
A2-Critiques-gastronomiques activités critiquesA2-Critiques-gastronomiques activités critiques
A2-Critiques-gastronomiques activités critiques
 
Manuel-5.-Elevage-de-poisson-chat-africain-Clarias-gariepinus-en-bacs-hors-so...
Manuel-5.-Elevage-de-poisson-chat-africain-Clarias-gariepinus-en-bacs-hors-so...Manuel-5.-Elevage-de-poisson-chat-africain-Clarias-gariepinus-en-bacs-hors-so...
Manuel-5.-Elevage-de-poisson-chat-africain-Clarias-gariepinus-en-bacs-hors-so...
 

Chapitre 4 heuristiques et méta heuristiques

  • 1. CHAPITRE IV: HEURISTIQUES ET MÉTA-HEURISTIQUES Université Blida 1 Faculté des Sciences Département d’Informatique Master GSI (Génie des Systèmes Informatiques) Semestre 1 Mme AROUSSI 2015-2016 Disponible sur https://sites.google.com/a/esi.dz/s-aroussi/
  • 2.  Problèmes d’Optimisation Combinatoire  Classification des Méthodes de Résolution  Méthodes Exactes  Méthode de séparation et d’évaluation  Méthodes Approchées  Méthodes par construction (algorithme de glouton)  Méthodes de voisinage (recuit simulé & recherche taboue) 2 PLAN DU CHAPITRE IV
  • 3. 3  On qualifié généralement de « combinatoires » les problèmes dont la résolution se ramène à l'examen d'un nombre fini de combinaisons (appelée aussi solutions). Bien souvent cette résolution se heurte à une explosion du nombre de combinaisons à explorer.  En mathématique, l’optimisation combinatoire recouvre toutes les méthodes qui permettent de déterminer l’optimum d’une fonction avec ou sans contraintes. PROBLÈME D’OPTIMISATION COMBINATOIRE
  • 4. 4  Un Problème d‘Optimisation Combinatoire (POC) peut être définie comme suit:  Un ensemble de combinaisons ou de solutions X,  Un ensemble de contraintes C (éventuellement vide)  Un sous-ensemble S de X représentant les solutions admissibles (ou réalisables) qui vérifient les contraintes C  Une fonction de coût f (fonction objectif) qui assigne à chaque solution s  S une valeur f(s).  Il s’agit de trouver une solution optimale (ou optimum global) s*  S qui optimise (minimise ou maximise) la fonction de coût f PROBLÈME D’OPTIMISATION COMBINATOIRE
  • 5. 5  Soit « Dist » une fonction qui mesure la distance entre deux solutions: Dist: S x S  R (e.g. Distance euclidienne, Manhattan, Hamming) . La notion de voisinage est définie par rapport à une distance N(si) = {sk ∈ S / Dist(si,sk) ≤ ε}  Une solution s∈S est un minimum local relativement à la structure de voisinage N si f(s)≤f(s’) pour tout s’∈N(s).  Une solution s∈S est un minimum global si f(s)≤f(s’) pour tout s’∈S. PROBLÈME D’OPTIMISATION COMBINATOIRE
  • 6. 6 PROBLÈME D’OPTIMISATION COMBINATOIRE S2: Optimum global S0: Solution de départ S1: Optimum local S: Solutions réalisables F: fonction objectif
  • 7. 7 PROBLÈME D’OPTIMISATION COMBINATOIRE  Résoudre un problème d’optimisation combinatoire nécessite l’étude des points suivants: 1. Définir l’ensemble des solutions « X » 2. Exprimer l’ensemble des contraintes du problème « C » afin de définir l’ensemble des solutions réalisables « S », 3. Exprimer la fonction objectif « f » à optimiser, 4. Choisir la méthode de résolution à utiliser,  Les trois premiers points relèvent de la modélisation du problème, le dernier point de sa résolution.
  • 8. 8 PROBLÈME D’OPTIMISATION COMBINATOIRE  A chaque problème d'optimisation, on peut associer un problème de décision dont le but est de déterminer s'il existe une solution pour laquelle la fonction objectif soit inférieure (resp. supérieure) ou égale à une valeur donnée.  La complexité d'un problème d'optimisation est liée à celle du problème de décision qui lui est associé. En particulier, si le problème de décision est NP-complet, alors le problème d'optimisation est dit NP-difficile.
  • 9. 9 CLASSIFICATION DES MÉTHODES DE RÉSOLUTION  La majorité des problèmes d'optimisation combinatoire, sont des problèmes NP-difficiles et donc ils ne possèdent pas à ce jour un algorithme efficace, i.e. de complexité polynomiale, valable de trouver la solution optimale en un temps raisonnable.  Ceci a motivé les chercheurs à développer de nombreuses méthodes de résolution en recherche opérationnelle et en intelligence artificielle:  La recherche s’est d'abord orientée vers des heuristiques spécifiques aux problèmes,  elle s’est progressivement intéressée aux méthodes plus générales, c'est à dire les méta-heuristiques.
  • 10. 10 CLASSIFICATION DES MÉTHODES DE RÉSOLUTION  Ces méthodes de résolution peuvent être réparties en deux grandes classes:  Méthodes exactes (complètes): Elles se basent généralement sur une recherche complètes de l’espace des combinaisons afin de trouver une solution optimale.  Méthodes approchées (incomplètes): Elles permettent de trouver une bonne solution (pas forcément optimale) dans un temps raisonnable.
  • 11. 11 CLASSIFICATION DES MÉTHODES DE RÉSOLUTION Méthodes Exactes Méthodes de séparation et d’évaluation Méthode avec retour en arrière Programmation dynamique Programmation linéaire Méthodes Approchées Heuristiques Méta-heuristiques
  • 12. 12 MÉTHODES EXACTES  Le principe des méthodes exactes consiste généralement à énumérer, souvent de manière implicite, l'ensemble des solutions dans le but de trouver la solution optimale:  Avantage: Certitude de trouver la solution optimale.  Inconvénient: Temps d’exécution prohibitif.
  • 13. 13 MÉTHODES EXACTES Les algorithmes exacts les plus réussis dans la littérature appartiennent aux quatre paradigmes :  Méthodes de séparation et d’évaluation  Méthodes avec retour arrière  Programmation dynamique  Programmation linaire
  • 14. 14 MÉTHODES EXACTES MÉTHODES DE SÉPARATION ET D’ÉVALUATION  L’algorithme de séparation et évaluation, plus connu sous son appellation anglaise Branch and Bound (B&B), repose sur une méthode arborescente de recherche d’une solution optimale par séparations et évaluations, en représentant les états solutions par un arbre d’états, avec des nœuds, et des feuilles.  Le branch-and-bound est basé sur trois axes principaux : 1. L’évaluation, 2. La séparation, 3. La stratégie de parcours.
  • 15. 15 MÉTHODES EXACTES MÉTHODES DE SÉPARATION ET D’ÉVALUATION 1. L’évaluation permet de réduire l’espace de recherche en éliminant quelques sous ensembles qui ne contiennent pas la solution optimale.  Exemple d’un POC cas de minimisation: Le B&B utilise une élimination de branches dans l’arborescence de recherche de la manière suivante : mémoriser la solution de plus bas coût rencontré pendant l’exploration, et à comparer le coût de chaque nœud parcouru à celui de la meilleure solution. Si le coût du nœud considéré est supérieur au meilleur coût, on arrête l’exploration de la branche et toutes les solutions de cette branche seront nécessairement de coût plus élevé que la meilleure solution déjà trouvée.
  • 16. 16 MÉTHODES EXACTES MÉTHODES DE SÉPARATION ET D’ÉVALUATION 2. La séparation consiste à diviser le problème en sous-problèmes. Ainsi, en résolvant tous les sous- problèmes et en gardant la meilleure solution trouvée, on est assuré d’avoir résolu le problème initial. Cela revient à construire un arbre permettant d’énumérer toutes les solutions.
  • 17. 17 MÉTHODES EXACTES MÉTHODES DE SÉPARATION ET D’ÉVALUATION 3. La stratégie de parcours. Il existe trois parcours possible de l’arbre: a. La profondeur d’abord: Cette stratégie avantage les sommets les plus éloignés de la racine en appliquant plus de séparations au problème initial. Cette voie mène rapidement à une solution optimale en économisant la mémoire, b. Le meilleur d’abord: Cette stratégie consiste à explorer des sous-problèmes possédant la meilleure borne. Elle permet aussi d’éviter l’exploration de tous les sous- problèmes qui possèdent une mauvaise évaluation par rapport à la valeur optimale. c. La largeur d’abord: Cette stratégie favorise les sommets les plus proches de la racine en faisant moins de séparations du problème initial. Elle est moins efficace que les deux autres stratégies présentées,
  • 18. 18 MÉTHODES APPROCHÉES  Les méthodes approchées ont pour but de trouver une solution admissible en un temps raisonnable, mais sans garantie l’optimalité de cette solution. L’avantage principale de ces méthodes est qu'elles peuvent s'appliquer à n'importe quelle classe de problèmes, faciles ou très difficiles. De plus, elles ont démontré leurs robustesses et efficacités face à plusieurs problèmes d’optimisation combinatoires.  Elles englobent deux classes : Heuristiques & Méta- heuristiques
  • 19. 19 MÉTHODES APPROCHÉES HEURISTIQUES  Les heuristiques sont des règles empiriques simples basées sur l'expérience, ne fournissant pas nécessairement une solution optimale. Exemple: Heuristiques de Choix de Variables du problème Max-Sat Du fait de la relation forte entre l’ordre d’affectation des variables et la taille de l’arbre de recherche développé, une « bonne » heuristique de branchement est déterminante pour l’efficacité d’un algorithme de recherche. Parmi ces heuristiques:
  • 20. 20 MÉTHODES APPROCHÉES HEURISTIQUES  Exemple: Heuristiques de Choix de Variables du problème Max-Sat 1. L’heuristique MOMS (Maximum Occurrences in Clauses of Minimum Size) est l’une des heuristiques les plus simples. Elle sélectionne la variable ayant le plus d’occurrences dans les clauses les plus courtes. Ce choix se justifie par le fait qu’elle favorise la propagation des littéraux unitaires. 2. L’heuristique JW (Jeroslow-Wang) est basée également sur la longueur des clauses. Elle donne aussi plus de poids aux variables apparaissant dans les clauses les plus courtes.
  • 21. 21 MÉTHODES APPROCHÉES HEURISTIQUES  Exemple: Heuristiques de Choix de Variables du problème Max-Sat 3. L’heuristique UP ( Unit Propagation) permet de sélectionner une variable en prévoyant à l’avance son influence sur le processus de la recherche, contrairement aux heuristiques MOMS et JW qui sélectionnent une variable en fonction de l’état courant du processus de recherche. Cette étude de l’influence de la variable est calculée via la procédure de propagation unitaire ce qui permet d’estimer son poids. La variable ayant le poids le plus fort est sélectionnée.
  • 22. 22 MÉTHODES APPROCHÉES MÉTA-HEURISTIQUES Le mot Méta-Heuristique est dérivé de la composition de deux mots grecs:  heuristique qui vient du verbe heuriskein (ευρισκειν) et qui signifie ‘trouver’  meta qui est un suffixe signifiant ‘au-delà’, ‘dans un niveau supérieur’.
  • 23. 23 MÉTHODES APPROCHÉES MÉTA-HEURISTIQUES Une Méta-heuristique peut être définie comme une méthode algorithmique capable de guider et d’orienter le processus de recherche dans un espace de solution (souvent très grand) à des régions riches en solutions optimales dans le but de trouver des solutions, peut-être pas toujours optimales, en tout cas très proches de l’optimum, en un temps raisonnable.
  • 24. 24 MÉTHODES APPROCHÉES MÉTA-HEURISTIQUES Les propriétés fondamentales des Méta-Heuristiques sont les suivantes: 1. Les méta-heuristiques sont des stratégies qui permettent de guider la recherche d’une solution optimale 2. Le but visé par les méta-heuristiques est d’explorer l’espace de recherche efficacement afin de déterminer des solutions (presque) optimales. 3. Les techniques qui constituent des algorithmes de type méta- heuristique vont de la simple procédure de recherche locale à des processus d’apprentissage complexes. 4. Les méta-heuristiques sont en général non-déterministes et ne donnent aucune garantie d’optimalité
  • 25. 25 MÉTHODES APPROCHÉES MÉTA-HEURISTIQUES Les propriétés fondamentales des Méta-Heuristiques sont les suivantes: 5. Les méta-heuristiques peuvent contenir des mécanismes qui permettent d’éviter d’être bloqué dans des régions de l’espace de recherche. 6. Les concepts de base des méta-heuristiques peuvent être décrit de manière abstraite, sans faire appel à un problème spécifique. 7. Les méta-heuristiques peuvent faire appel à des heuristiques qui tiennent compte de la spécificité du problème traité, mais ces heuristiques sont contrôlées par une stratégie de niveau supérieur. 8. Les méta-heuristiques peuvent faire usage de l’expérience accumulée durant la recherche de l’optimum, pour mieux guider la suite du processus de recherche.
  • 26. 26 MÉTHODES APPROCHÉES MÉTA-HEURISTIQUES On classer les méta-heuristiques selon leur principe de fonctionnement:  Méthodes par construction (approche gloutonne);  Méthodes de voisinage (recuit simulé, recherche tabou);  Méthodes évolutives (algorithmes génétiques)  Méthodes biomimétiques (algorithme de colonies de fourmis & d’essaim de particules)
  • 27. 27 MÉTA-HEURISTIQUES MÉTHODES PAR CONSTRUCTION Principe:  On démarre d’une solution initiale vide;  A chaque itération, une variable est choisie (aléatoirement ou via une heuristique) à laquelle est attribuée une valeur du domaine;  Le critère d’arrêt est l’affectation d’une valeur à toutes les variables du problème. Avantage et inconvénient: Simples mais performances médiocres. Exemple : méthode gloutonne
  • 28. 28 MÉTHODES PAR CONSTRUCTION MÉTHODE GLOUTONNE  La méthode gloutonne permet de construire une solution pas à pas  sans jamais revenir sur ses décisions,  en prenant à chaque étape la solution qui semble la meilleure localement (heuristique),  en espérant obtenir une solution optimale.
  • 29. 29 Exemple 1: Problème du MAX-SAT  A chaque étape, choisir une variable X (aléatoire ou heuristique) et l’affecter une valeur de vérité VP (vrai ou faux) permettant de satisfaire le plus grand nombre de clauses non satisfaites. Exemple 2: Problème du sac à dos  Trier les objets selon un critère donnée (e.g., le rapport valeur/poids) et sélectionner un objet (e.g., de plus grand rapport) jusqu’à atteindre la capacité maximale de sac à dos MÉTHODES PAR CONSTRUCTION MÉTHODE GLOUTONNE
  • 30. 30 MÉTA-HEURISTIQUES MÉTHODES DE VOISINAGE Les méthodes de voisinage se basent sur la notion de voisinage. Principe: Une méthode typique de voisinage débute avec une configuration initiale, et réalise ensuite un processus itératif qui consiste à remplacer la configuration courante par l'un de ses voisins en tenant compte de la fonction de coût. Ce processus s'arrête et retourne la meilleure configuration trouvée quand la condition d'arrêt est réalisée. Cette condition d'arrêt concerne généralement une limite pour le nombre d'itérations, le temps d’exécution ou un objectif à réaliser.
  • 31. 31 MÉTA-HEURISTIQUES MÉTHODES DE VOISINAGE Avantages et inconvénients: Un des avantages des méthodes de voisinage réside précisément dans la possibilité de contrôler le temps de calcul : la qualité de la solution trouvée tend à s'améliorer progressivement au cours du temps et l'utilisateur est libre d'arrêter l'exécution au moment qu'il aura choisi. Cependant, la solution obtenue dépend fortement de la solution initiale et de la stratégie de voisinage et de parcours de ce voisinage.  Exemple: Recuit Simulé, Recherche Tabou, ……
  • 32. 32 MÉTHODES DE VOISINAGE RECUIT SIMULÉ La méthode du Recuit Simulé repose sur une analogie avec la thermodynamique où la fonction à minimiser est l'énergie du système. Le recuit est un processus physique de chauffage. Un système physique porté à une température assez élevée devient liquide, et dans ce cas le degré de liberté des atomes qui le composent augmente. Inversement lorsque l'on baisse la température le degré de liberté diminue jusqu'à obtenir un solide. Suivant la façon dont on diminue la température on obtient des configurations d'énergie différentes :
  • 33. 33 MÉTHODES DE VOISINAGE RECUIT SIMULÉ Suivant la façon dont on diminue la température on obtient des configurations d'énergie différentes :  Baisse brutale de la température, la configuration atteinte est le plus souvent un état métastable, dont l'énergie est supérieure à celle du minimum absolu. Le système est en quelque sorte piégé dans ce minimum local.  Baisse progressive de la température de façon à éviter de piéger le système dans des vallées d'énergie élevée, pour l'envoyer vers les bassins les plus importants et les plus profonds, là où les baisses ultérieures de température le précipiteront vers les fonds.
  • 35. 35 MÉTHODES DE VOISINAGE RECUIT SIMULÉ Le principe du recuit simulé est de parcourir de manière itérative l’espace des solutions: 1. On part avec une solution notée s0 initialement générée de manière aléatoire dont correspond une énergie initiale E0, et une température initiale T0 généralement élevée. 2. A chaque itération de l’algorithme, un changement élémentaire est effectué sur la solution, cette modification fait varier l’énergie du système ΔE. Si cette variation est négative (la nouvelle solution améliore la fonction objective, et permet de diminuer l’énergie du système), elle est acceptée. Si la solution trouvée est moins bonne que la précédente alors elle sera acceptée avec une probabilité P calculée suivant la distribution de Boltzmann.
  • 37. 37 MÉTHODES DE VOISINAGE RECUIT SIMULÉ 1. Engendrer une configuration initiale S0 de S : SS0 2. Initialiser la température T en fonction du schéma de refroidissement 3. Répéter a. Engendrer un voisin aléatoire S’ de S b. Calculer ΔE = f (S’) - f(S) c. Si Δ E ≤ 0 alors SS’ Sinon accepter S’ comme la nouvelle solution avec la probabilité P(E, T) = exp (- ΔE/T) a. Mettre T à jour en fonction du schéma de refroidissement (réduire la température) 4. Jusqu’à la condition d’arrêt
  • 38. 38 MÉTHODES DE VOISINAGE RECUIT SIMULÉ Le choix de la température est primordial pour garantir l’équilibre entre l’intensification et la diversification des solutions dans l’espace de recherche. En effet, on peut considérer une grande augmentation de la température comme un processus de diversification alors que la décroissance de la température correspond à un processus d’intensification.
  • 39. 39 MÉTHODES DE VOISINAGE RECUIT SIMULÉ Premièrement, le choix de la température initiale dépend de la qualité de la solution de départ. Si cette solution est choisie aléatoirement, il faut prendre une température relativement élevée.
  • 40. 40 MÉTHODES DE VOISINAGE RECUIT SIMULÉ  De manière générale, les schémas de la décroissance (ou réduction) de la température (ou schémas de refroidissement) peuvent être classés en trois catégories :  décroissance par paliers: chaque température est maintenue égale pendant un certain nombre d'itérations, et décroît ainsi par paliers.  Décroissance linéaire ou continue: la température est modifiée à chaque itération.  Décroissance non-monotone: la température décroît à chaque itération avec des augmentations occasionnelles.
  • 41. 41 MÉTHODES DE VOISINAGE RECUIT SIMULÉ Avantages:  Souple vis-à-vis des évolutions du problème et facile à implémenter,  Evite le piège des optima locaux,  Excellents résultats pour un nombre de problèmes complexes. Inconvénients:  Nombreux tests nécessaires pour trouver les bons paramètres,  Définir les voisinages permettant un calcul efficace de ΔE.
  • 42. 42 MÉTHODES DE VOISINAGE RECHERCHE TABOU La méthode tabou fait appel à un ensemble de règles et de mécanismes généraux pour guider la recherche de manière intelligente au travers de l'espace des solutions. A l'inverse du recuit simulé qui génère de manière aléatoire une seule solution voisine s’ ∈ N(s) à chaque itération, la recherche tabou examine un échantillonnage de solutions de N(s) et retient la meilleure s’ même si s’ est plus mauvaise que s. La recherche tabou ne s'arrête donc pas au premier optimum trouvé.
  • 43. 43 MÉTHODES DE VOISINAGE RECHERCHE TABOU Cependant, cette stratégie peut entraîner des cycles, par exemple un cycle de longueur 2 : s→s’→s→s’ ... Pour empêcher ce type de cycle, la recherche tabou utilise une liste T (appelée liste tabou) qui mémorise les k dernières solutions visitées et interdit tout mouvement vers une solution de cette liste. Cette liste permet d'éviter tous les cycles de longueur inférieure ou égale à k. La valeur de k dépend du problème à résoudre et peut éventuellement évoluer au cours de la recherche.
  • 44. 44 MÉTHODES DE VOISINAGE RECHERCHE TABOU Les solutions ne demeurent dans T que pour un nombre limité d’itérations. La liste T est donc une mémoire à court terme. En effet, quand le nombre k est atteint, chaque nouvelle solution sélectionnée remplace la plus ancienne dans la liste. La construction de la liste tabou est basée sur le principe FIFO, c’est-à-dire le premier entré est le premier sorti.
  • 46. 46 MÉTHODES DE VOISINAGE RECHERCHE TABOU 1. Initialisation a. S0 une solution initiale b. SS0; S* S0; C*f(S0) c. T =  (c’est la liste tabou dont la taille maximale est k) 2. Répéter a. Générer un sous ensemble de solution au voisinage de s et garder la meilleure solution s’ b. Ajouter s’ à la liste T 3. Jusqu’à la condition d’arrêt
  • 47. 47 MÉTHODES DE VOISINAGE RECHERCHE TABOU La liste tabou demande typiquement beaucoup de place mémoire et du temps (pour les opérations de mis à jours la liste).  Certains préconisent l’utilisation des listes taboues réactives dont la taille varie selon les résultats de la recherche. Ainsi, si des solutions sont visitées de manière répétée (à intervalle > |t|) alors on peut augmenter la longueur de la liste, ce qui aura pour effet de diversifier la recherche. Par contre, si la solution courante n’est que rarement améliorée, cela peut signifier qu’il est temps d’intensifier la recherche en évitant d’interdire trop de solutions dans le voisinage de la solutions courante, et en diminuant donc la longueur de la liste taboue.
  • 48. SOURCES DE CE COURS  Karima Benatchba, Cours de Techniques d’optimisation, ESI, 2009.  S. Le Digabel, Introduction aux métaheuristiques, Ecole Polytechnique de Montréal, 2014.  Sidi Mohamed Douiri, Souad Elbernoussi & Halima Lakhbab. Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques, Faculté des Sciences de Rabat, Université Mohammed V.  Jin-Kao Hao, Philippe Galinier, Michel Habib. Méthaheuristiques pour l’optimisation combinatoire et l’affectation sous contraintes, Revue d’Intelligence Artificielle, Vol 1999.  Saïd Jabbour, De la Satisfiabilité Propositionnelle aux Formules Booléennes Quantifiées, thèse de doctorat, Université d’Artois, 2008.  Nadjib Lazaar, Exploration de techniques de recherche locale pour la génération automatique de cas de test. Etude bibliographique, 2011. 48