Une Approche Hybride de Simulation-Optimisation
Basée sur la Fouille de Données pour les Problèmes
d’ordonnancement;
A Hybrid Simulation/Optimization Approach to Scheduling
Problems using Data Mining;
A data mining based approach to discover previously unknown priority
dispatching rules for job shop scheduling problem is presented. This approach is
based upon seeking the knowledge that is assumed to be embedded in the
efficient solutions provided by the optimization module built using tabu search.
The objective is to discover the scheduling concepts using data mining and hence
to obtain a set of rules capable of approximating the efficient solutions for a job
shop scheduling problem (JSSP). A data mining based scheduling framework is
presented and implemented for a job shop problem with maximum lateness and
mean tardiness as the scheduling objectives. The results obtained are very
promising.
A Hybrid Simulation/Optimization Approach to Scheduling
Problems using Data Mining;
GAL2024 - Décarbonation du secteur laitier : la filière s'engage
Une Approche Hybride de Simulation-Optimisation Basée sur la Fouille de Données pour les Problèmes d’ordonnancement
1. 1 Resum´e
Au cours des cinquante derni`eres ann´ees, la th´eorie d’ordonancement a ´evolu´e comme un
axe majeur de la recherche active attirant un large large spectre des chercheurs scienti-
fiques allant de la gestion informatique `a des ing´enieurs de production. Etant de nature
tr`es complexe des probl`emes de th´eorie de l’ordonnancement, il ya eu un effort continu
dans le d´eveloppement de m´ethodologies de solution flexible. Il existe une quantit´e impor-
tante de documentation sur une grande vari´et´e de m´ethodes pour r´esoudre les probl`emes
d’horaire diff´erent. Ces m´ethodes vont de la priorit´e standard de l’industrie d’exp´edition
des r`egles `a l’´etat de l’art-meta-heuristiques et des algorithmes d’optimisation complexes,
ce qui en fait un domaine multidisciplinaire.
Le premier chapitre pr´esente le probl`eme d’ordonnancement et des concepts fondamentaux
dans le domaine de la planification. Les ´el´ements cl´es, dont des probl`emes d’ordonnance-
ment magasin est compos´e ainsi que les notations utilis´ees pour caract´eriser le probl`eme
sont rappel´es. Par la suite, nous pr´esentons les diff´erentes cat´egories de l’ordonnancement.
Classification des probl`emes d’ordonnancement sont ensuite pr´esent´ees afin de distinguer
les diff´erentes combinaisons de la planification des environnements, des conditions et des
objectifs.
Un probl`eme d’ordonnancement est un repr´esentant typique d’une classe d’optimisation
combinatoire de probl`emes. Dans le contexte des syst`emes de fabrication, probl`eme d’or-
donnancement est g´en´eralement d´esign´e comme un probl`eme d’ordonnancement de la ma-
chine. Il vise `a allou´e efficacement les machines disponibles `a job, ou des op´erations dans
un job et les suivantes cadencement de ces jobs sur des machines individuelles (Shaw et al.,
1992). Les diff´erents composants d’un probl`eme d’ordonnancement de la machine sont les
tˆaches, les contraintes, les ressources et les fonctions objectif. Un job Jj (ou une tˆache)
est une entit´e fondamentaux d´ecrits dans le domaine temporel par une date de d´ebut
2. 106 Resum´e
et date d’arriv´ee, qui est ex´ecut´e pour un temps de execution sur une ou plusieurs res-
sources/machines (Esquirol and Lopez, 1999). Une ressource, Mk est une entit´e physique
ou virtuelle de la capacit´e limit´ee et/ou la disponibilit´e, allou´es `a l’ex´ecution des jobs
en comp´etition pour la machine. Une contrainte repr´esente un ensemble restreint de va-
leur qui peuvent ˆetre prises par une variable de d´ecision impliqu´es dans le probl`eme.
Un objectif refl`ete les caract´eristiques souhait´ees dans la solution `a trouver. Mesures du
performance pr´ecise la mesure dans laquelle les objectifs souhait´es sont atteints. Ceux-ci
peuvent ˆetre fond´ees sur les d´elais de r´ealisation, les dates d’´ech´eance ou de l’inventaire,
les coˆuts d’utilisation etc.
Une solution `a un probl`eme d’ordonnancement repr´esentent un ordonacement (σ) qui
satisfait toutes les contraintes du probl`eme. L’espace d’ordonacement peut ˆetre parti-
tionn´e en sous-classes sur la base de la fa¸con dont les diff´erentes op´erations sont ex´ecut´ees
`a l’horizon de temps. Cette classification permette de classer les diff´erents ordonacement
selon une certaine mesure r´eguli`ere des performances (celui qui est non-d´ecroissante en
temps fini). Un ordonnancement semi-actif est un ordonnancement align´e `a gauche pos-
sible, o`u acune tˆache peut ˆetre d´eplac´e vers sa gauche sans changer l’ordre des op´erations
et sans retarder toute autre op´eration. Si aucune op´eration ne peut s’effectuer plus tˆot
sans retarder la date de d´epart d’une autre op´eration, l’ordonnancement est actif. Pour
un ordonnancement non-retard, aucune machine est le temp s’inactivt´e pendant une op´e-
ration est en attente d’ˆetre trait´ees sur cette machine. Un ordonnancement optimal est
un ordonnancement qui donne la meilleure valeur possible pour une certaine mesure de
performance donn´e.
Le nombre de probl`emes dans l’ordonnacement sont pratiquement illimit´ee, grˆace `a des
combinaisons d’une grande vari´et´e de l’environnement, la diversit´e des contraintes et des
diff´erents types d’objectifs. Bas´e sur le processus d’arriv´ee des jobs, des probl`emes d’or-
donnancement dans lequel nombre des jobs sont connues et fixes avec tous les jobs ayant
la mˆeme date d’arriv´e sont vis´es que les probl`emes statique, contrairement aux probl`emes
dynamiques o`u les jobs sont toujours r´ev´el´e au cours du processus d’ex´ecution (S.French,
1982). En ordonnancement d´eterministe, les variables d´ecrivant les donn´ees du probl`eme
sont connus a-priori, contrairement `a la programmation stochastique, o`u ces variables sont
de nature probabiliste. Dans un environnement en une seule ´etape, chaque job consistent
en une seule op´eration et passe par une seule machine, tandis que dans un stade multi-
m´etiers de l’environnement compos´e de plusieurs op´erations en passant par diff´erentes
machines (Pinedo and Chao, 1999).
Certains mod`eles classiques sont largement utilis´es pour repr´esenter les syst`emes de fa-
La distinction entre « un ordonnancement » et « l’ordonnancement » est plus visible en anglais :
on parle respectivement de ”‘schedule”’ et ”‘scheduling”’.
3. 107
brication complexes et pour l’´evaluation comparative des m´ethodes utilis´ees pour les r´e-
soudre. Les mod`eles les plus couramment utilis´es sur la route des flux de mati`eres (Smit,
1992) , notamment flow-shop, job-shop et un magasin ouvert. Une notation trois champs
α/β/γ, propos´e par (Graham et al., 1979) est la m´ethode la plus utilis´ee descriptive pour
repr´esenter un probl`eme d’ordonnancement avec α sur le terrain que l’environnement
machine, β et contraintes d´ecrivant γ pour la fonction objectif(s).
Le probl`eme de job-shop est consid´er´e comme l’un des probl`eme d’ordonnancement les
plus g´en´erale et bien d´evelopp´e avec beaucoup de signification pratique. Le probl`eme est
g´en´eralement NP-difficile (non-d´eterministe polynomial dur), sauf pour quelques rares cas
particuliers (Vaessens et al., 1996) . Conway et al. (1967) d´ecrit le probl`eme comme un
d´efi passionnant qui est extrˆemement difficile `a r´esoudre, malgr´e sa structure tr`es simple.
La raison de insolubilit´e du probl`eme de calcul d’ordonnancement de job shop est le fait
que de nombreux facteurs contradictoires doivent ˆetre pris en compte en plus de sa nature
combinatoire (Zobolas et al., 2008) .
L’histoire de r´esoudre le probl`eme d’ordonnancement de job shop couvre un large ´even-
tail d’approches. Initialement, l’interet des chercheurs rest´es sur des approches exactes.
Il s’agit notamment des m´ethodes ant´erieurement efficace, des m´ethodes math´ematiques
et techniques ´enum´eratives. ”‘Branch and bound”’ sont parmi les plus r´eussis des m´e-
thodes exactes, cependant ils demandent un temps de calcul ph´enom´enale pour obtenir
la solution optimale. Plus tard, une `ere de m´ethodes heuristiques est observ´ee, bien que
simples r`egles de r´epartition sont d´ej`a en cours d’utilisation. Plusieurs heuristiques goulot
d’´etranglement sont d´evelopp´ees au cours de cette p´eriode. Par la suite, avec l’´emergence
de m´eta-heuristiques plus sophistiqu´e et des techniques bas´ees sur l’intelligence artifi-
cielle, des progr`es notables soient r´ealis´es dans fin des ann´ees 80 et au d´ebut des ann´ees
90 (Jain and Meeran, 1998). Les m´eta-heuristiques puissantes associ´ee `a la puissance de
calcul des syst`emes informatiques modernes ont permis de utiliser de ces approches sur les
probl`emes relativement plus importante. Toutefois, (Lawrence and Sewell, 1997) constat´e
que les performances de ces m´ethodes de r´esolution se d´et´eriore en raison de l’incertitude
du temps de traitement par rapport aux horaires mis `a jour dynamiquement heuristique.
Le deuxi`eme chapitre pr´esente l’´etat de l’art sur les r`egles de priorit´e d’exp´edition dans
le contexte de l’environnement d’ordonnancement des tˆaches boutique. syst`emes de clas-
sification les plus fr´equemment utilis´es pour ces PDR dans la litt´erature sont pass´es en
revue. Ensuite, une discussion d´etaill´ee sur la structure et les caract´eristiques des PDR
les plus fr´equemment utilis´es dans la litt´erature. Comme mentionn´e pr´ec´edemment, dans
l’ordonnacement dynamique, les jobs sont toujours r´ev´el´e au cours du processus d’ex´ecu-
tion pr´evu. L’rdonnancement dynamique est ´etroitement li´ee au contrˆole en temps r´eel,
4. 108 Resum´e
que les d´ecisions doivent ˆetre prises en fonction de l’´etat actuel du syst`eme. Cet aspect
en ligne a une grande influence sur les d´ecisions de l’ordonnacement que la cr´eation d’un
ordonnacement et l’ex´ecution d’un ordonnacement ne restent plus de deux processus dif-
f´erents. Les d´ecisions de l’ordonnacement sont `a faire dans un temps tr`es court que le
temps requis pour g´en´erer un ordonnacement devient facteur relativement plus important
que de simplement trouver un ordonnacement de meilleure qualit´e dans une p´eriode de
temps prolong´ee. En outre, l’ordonnacement doit ˆetre tr`es flexible pour faire face `a des
circonstances impr´evues. R`egles de priotit´e sont consid´er´ees comme le meilleur choix dans
un tel environnement, principalement en raison de leur facilit´e de mise en œuvre et d’appel
intuitive en d´epit de leur pi`etre performance en g´en´eral.
Dans l’approche de l’exp´edition, chaque machine est charg´ee d`es que il ya au moins un
job qui attendent un service en face de la file d’attente, ce qui ´elimine tout temps inutile
au ralenti `a des ressources. A chaque ´etape successive, de toutes les op´erations qui sont
prˆets `a ˆetre executer se voient attribuer un indice de priorit´e et l’op´eration avec l’indice
de la plus haute priorit´e est choisi pour ˆetre s´equenc´es. L’approche g´en´erale d’une r`egle de
r´epartition, en fonction de (Montana, 2005), est de d´efinir un score associ´e `a l’attribution
d’une tˆache donn´ee `a une ressource donn´ee et ensuite de s´electionner la tˆache admissibles
qui minimise (ou maximise) qui score pour la ressource choisie d`es qu’il est disponible
pour le traitement. L’approche bas´ee sur la priorit´e des r`egles de r´epartition est la plus
simple et est l’un de l’approche la plus largement utilis´ee en pratique pour l’exp´edition
des jobs pour le traitement sur des machines en temps r´eel.
Pour identifier les caract´eristiques et faire une ´etude comparative du comportement des
r`egles de priorit´es de r´epartition diff´erentes, ils sont class´es de fa¸cons diff´erentes . En
g´en´eral, les classifications structurelles fond´ees, l’information mesure fond´ee bas´ee sur la
performance des PDR se trouvent dans la litt´erature.
De nombreuses ´etudes ont ´et´e faites sur la nature, l’efficacit´e et la performance de r`egles de
priorit´e diff´erentes dans des conditions variables d’ordonnancement. Panwalker and Iskander
(1977) a examin´e 113 r`egles de priorit´e envoi tandis que les r`egles nouvelles font constam-
ment leur apparition. Les commentaires importants faits par la suite inclus (Blackstone et al.,
1982; Kiran Milton and Ali, 1984; Haupt, 1989; Ramasesh, 1990; Jain and Meeran, 1998).
La r`egle du FIFO est consid´er´e comme une r`egle de priorit´e ´equitable, en particulier
dans les op´erations de service et largement utilis´e comme une r`egle de r´ef´erence dans la
litt´erature en raison de sa facilit´e de mise en œuvre dans un environnement de fabrication.
La r`egle, SI (Shortest Imminent) est probablement le plus largement pdr test´e dans la lit-
t´erature. Conway (1965b) a ´et´e le premier `a r´esumer qu’elle devrait ˆetre consid´er´ee comme
5. 109
la r´ef´erence standard pour toutes les ´etudes de r´epartition, mˆeme si, dans ses exp´eriences
la r`egle SI ne pr´esentent pas la valeur minimale pour l’une des mesures de performance y
compris la dur´ee moyenne de la file et la moyenne travaux en cours mesur´ee avec le travail
total. Il minimise le temps d’´ecoulement moyen dans le cas d’un probl`eme seule machine
(S.French, 1982). Cette r`egle comporte bien avec l’ext´erieur fix´e les dates d’´ech´eance et
est moins sensible `a la m´ethode d’attribution date d’´ech´eance (Conway, 1965a). Il est
moins sensible aux erreurs de pr´evision des dates d’´ech´eance (Eilon and Hodgson, 1967)
et minimise le nombre d’jobs en attente dans la file d’attente citepJones98.
EDD (Earliest Due Date) est la r`egle la plus importante qui officialise naturelle, com-
portement intuitif date d’´ech´eance de la vie quotidienne. Il minimise le retard maximal
en cas d’une machine unique (S.French, 1982). La performance des r`egles bas´ees de date
d’´ech´eance tels que la r`egle EDD est excellent quand il ya suffisamment de capacit´e de
production.
Slack est d´efini comme le temps jusqu’`a ce que le travail est due (moins de sa dur´ee
restante de traitement) et est n´egative si la date d’´ech´eance de l’job est d´ej`a pass´ee. La
r`egle SLACK attribue la plus haute priorit´e `a un job avec le moins de marge. Si le marge
d’un job j `a quelque instant t est n´egatif (z´ero), le job j sera certainement (probablement)
ˆetre tardive. D’autre part, si la marge est positive, le job peut ˆetre ou ne pas ˆetre en
retard, en fonction de la dur´ee des travaux va attendre `a la suite des op´erations. Si le
marge d´epasse une certaine estimation g´en´ereuse du temps d’attente, de job j est pr´evu
d’achever `a temps. Cette r`egle est con¸cue pour objectifs date d’´ech´eance li´ees. Bien que
(Jones and Rabelo, 1998) jug´e que la r`egle de base SLACK ˆetre sup´erieure `a la r`egle
SI en g´en´eral, mais est d´epass´ee par SI pour les magasins encombr´es et serr´es les dates
d’´ech´eance. Une des raisons de ce comportement peut ˆetre que lorsque le pantalon de
tous les jobs sont n´egatifs (i.e. jobs sont en retard), SI fonctionne tr`es bien, mais SLACK
choisit toujours de traiter d’abord le job ayant le marge minimum, ce qui peut avoir un
temps de traitement tr`es long restants .
Les r`egles combin´e de travail en appliquant PDR diff´erentes `a certains groupes sp´ecifi´es
des jobs ou de l’utilisation PDR diff´erentes selon le statut de atelier. Ces r`egles incluent
Modified Operation Due date (MOD) et la r`egle CR/SI .
En r`egle MOD, la priorit´e est d´efinie comme la date de son op´eration d’origine en raison ou
`a son heure la plus finir, si cette date est plus grande. Ainsi, lorsque tous les travaux sont
sur le plan op´erationnel fin, MOD enverra sur la base du SI, et quand tous les travaux sont
«en avance» (i.e., de p´eriode creuse exploitation sup´erieur `a z´ero), MOD enverra `a l’aide
ODD (Operation Due Date). Depuis la premi`ere situation se produit plus fr´equemment
lorsque due `a jour sont serr´es, le s´equen¸cage souhait´e SI domine. Lorsque, en raison des
6. 110 Resum´e
dates-sont lˆaches, la majorit´e des jobs sont en avance et une r`egle efficace `a base de retard,
ODD, pr´edomine. Baker and Kanet (1983a) d´emontr´e que la r`egle de MOD se compare
tr`es favorablement avec d’autres r`egles de r´epartition et, comme pr´evu, est plus robuste
aux changements dans l’´etanch´eit´e date d’´ech´eance que les autres r`egles de retard orient´ee.
Anderson and Nyirenda (1990) compos´e une nouvelle extension de la r`egle de MOD, ap-
pel´e le r`egle CR/SI, qui est facile `a mettre en œuvre sans aucune estimation des para-
m`etres. Ils ont montr´e que la r`egle fonctionne mieux que la r`egle MOD dans conditions
diverses. La r`egle CR/SI fixe la date d’exploitation comme un multiple du temps de trai-
tement de l’op´eration imminente et que le rapport critique de ce job. La r`egle CR/SI fonc-
tions mˆeme que la r`egle de MOD, lorsque les jobs sont dans les d´elais pr´evus (Kemppainen,
2005).
Carroll (1965) introduit la r`egle COst OVer Time (COVERT) en particulier pour le pro-
bl`eme de retard moyen. La r`egle COVERT calcule les indices de priorit´e sur la base de
la rel`eve et les temps d’attente pr´evisible d’un job sur les machines suivantes. L’indice
de priorit´e COVERT repr´esente le coˆut retard diff´erentiel pr´evu par unit´e de temps de
traitement imminent. La lenteur attendu est une mesure relative de la quantit´e de retard
d’un job pourraient ´eprouver si elle est retard´ee par une unit´e de temps.
Russell et al. (1987) a constat´e que la performance globale de la r`egle COVERT est mieux
quand il utilise dynamique moyenne des temps d’attente avec un petit param`etre look-
ahead (h1 = 1). Son succ`es a ´et´e retard´ee par le fait que seule une minorit´e de chercheurs
de planification a utilis´e comme une r`egle de r´ef´erence revendiquant la difficult´e de choisir
une valeur appropri´ee pour le param`etre, mˆeme si elle d´epasse la majorit´e des r`egles de
priorit´e de dispatching de la plupart des mesures de performance (Russell et al., 1987).
Ces PDR sont fr´equemment utilis´es pour comparer les performances de diff´erents crit`eres
comme le temps de d´ebit moyen,retard moyen , la productivit´e des machines et le job en
cours etc. Dans cet etude, nous nous concentrons sur les mesures retard base, en particu-
lier sur le retard maximal qui peut ˆetre tr`es utile pour le d´ecideur dans la boutique. Seules
quelques ´etudes se trouvent dans la litt´erature (Manfred Moser and Sebastian Engell,
1992) sur cette mesure de la performance du grand int´erˆet pratique.
Malheureusement, la sup´eriorit´e d’une r`egle d’ordonnancement `a l’autre n’est pas ´evident
et souvent des r´esultats contradictoires ont ´et´e rapport´es probablement en raison de condi-
tions diff´erentes et des param`etres-param`etres utilis´es pour l’environnement de program-
mation par diff´erentes recherches. Par cons´equent, il ya encore un manque de r´esultats
satisfaisants sur l’envoi d’´Etat qui aurait pu mener `a de vastes applications dans le monde
r´eel. En outre, la performance de priorit´e r`egles de r´epartition d´epend des crit`eres de
7. 111
performance. Une r`egle apparemment tr`es efficace en ce qui concerne l’un des crit`eres
de performance peut donner des r´esultats tr`es m´ediocres pour certains autres crit`eres de
performance, mˆeme dans les mˆemes conditions.
Mˆeme aux regles de priorit´e pragmatiques, la performance globale de la priorit´e des r`egles
depriorit´e diminue en raison de la nature dynamique et stochastique du syst`eme.Par cons´e-
quent, pour fins de mise en œuvre, il est important de tester quelles sont les tol´erances
de PDR diff´erents dans le d´etail et la port´ee des informations disponibles. En outre, la
sensibilit´e des PDR choisi pour date d’´ech´eance diff´erentes m´ethodes param`etre (et donc
potentiellement diff´erents types d’utilisation) dans un atelier de travail dynamique serait
´etudi´ee. Pour ´etudier la pr´evisibilit´e des progr`es sur le temps de l’job grˆace `a la boutique
en classant les jobs et donc d’´evaluer, dans quelle mesure la performance du syst`eme est
li´ee au type de r`egles de priorit´e utilis´e. (i.e. pour ´etudier l’effet de maintenir op´erationnels
les dates d’´ech´eance sur les performances globales du syst`eme en ce qui concerne des PDR
s´electionn´e).
Dans Chapter 3, une analyse bas´ee sur la simulation des mesures de retard de performance
en fonction d’un ensemble de PDR fr´equemment utilis´ee est ´etablie en vue de mettre en
´evidence les similitudes/diff´erences dans le comportement de ces PDR. Les mesures de
performance en fonction de retard ne sont pas ind´ependants des autres. En outre, la re-
lation entre ces mesures du rendement n’est g´en´eralement pas ´evident, mˆeme pour les
strat´egies d’ordonnancement simples tels que les r`egles de priorit´e. Bas´e sur le comporte-
ment de priorit´e diff´erentes exp´edition r`egles en ce qui concerne ces mesures de rendement
Nous identifions deux types de PDR bas´e sur la distribution de la retard maximum (i.e.
Tmax), une mesure tr`es importante repr´esentant le comportement pire des cas. Le com-
portement du pire en ce qui concerne avec retard est tr`es difficile `a identifier en raison de
sa non-lin´earit´e. Toutefois, il est possible d’´etablir des lignes directrices en pr´evision de
ce comportement dans le pire des cas en ce qui concerne avec retard ainsi que la largeur
de la lenteur en ´evaluant la racine carr´ee moyenne retard (Trms). R´esultats montrant la
corr´elation entre les deux mesures tr`es importantes, retard maximum (Tmax) et retard
racine-carr´ee (Trms) sont pr´esent´ees, ainsi-avec la discussion sur ces r´esultats.
L’ordonnancement dynamique des syst`emes de fabrication pour objectifs la date d’´ech´eance
base a re¸cu une attention consid´erable de la part des praticiens et des chercheurs en
raison de l’importance de la r´eunion des dates d’´ech´eance dans la plupart des indus-
tries (Raman et al., 1989). Malheureusement, l’´etude des objectifs de base de la date
d’´ech´eance est beaucoup plus compliqu´e que les objectifs de flux-temps en fonction de
(Baker and Kanet, 1983b). Dans quelle mesure l’objectif du maintien de la raison-dates
est atteint, est jug´e par des mesures retard base (S.French, 1982). Cependant, il n’y a pas
8. 112 Resum´e
de mesure unique universellement accept´ee sur cette dimension. Retards est un crit`ere
important dans les syst`emes r´eels qui peuvent ˆetre mesur´es grˆace `a plusieurs mesures du
rendement. Le retard de d’un job est calcul´e comme Tj = max(0,Cj − dj). Les mesures
fond´ees sur retards sont utilis´es pour classer les strat´egies d’ordonnancement dans des
conditions diff´erentes en ce qui concerne avec date d’´ech´eance des objectifs en fonction.
Cependant, la sup´eriorit´e d’une strat´egie sur l’autre n’est pas ´evident, en g´en´eral, pour un
m´elange de mesures du rendement et des conditions. Habituellement certaines lignes di-
rectrices soient adopt´ees de l’expertise de l’ordonnanceur, la litt´erature et/ou des donn´ees
de planification historique.
Voici les mesures de performance utilis´e principalement en ce qui concerne avec le retard.
Retard total, ΣjTj repr´esente un niveau moyen de satisfaction de la client`ele en termes
de performances de livraison citep Lejmi02. Il est ´equivalent au retard, ¯T.
Nombre des jobs en retard, ΣUj mesures combien des jobs sont tardives. Il est ´equi-
valent au retard de pourcentage, percenttardiness.
retard condition moyenne, CMT mesure la quantit´e moyenne de retard pour les tra-
vaux termin´es qui se trouvent ˆetre tardive.
Maximum retard, Tmax indique un comportement pire des cas.
Racine du moyen carr´e de retard, Trms permet de diff´erencier un syst`eme qui pr´e-
sente un petit nombre des jobs avec plus de retard `a partir d’un syst`eme qui pr´esente
beaucoup de jobs tardive avec retard faible.
Variation de retard, σ2
T est utilis´e pour mesurer la dispersion statistique des valeurs
de retard.
Pour cette ´etude, nous avons examin´e le mod`ele d’un atelier de travail non pond´er´ee
qui est fr´equemment utilis´e dans la litt´erature pour ´evaluer la performance des PDR
(Eilon and Cotterill, 1968; Baker and Kanet, 1983a; Baker, 1984; Russell et al., 1987;
Schultz, 1989; Pierreval and Mebarki, 1997; Mebarki and Shahzad, 2008). Le syst`eme est
un job-shop de quatre machine. Chaque machine peut effectuer une seule op´eration `a la
fois. Le nombre d’op´erations d’un job trait´ees dans le syst`eme est uniform´ement r´epartie,
entre 2 et 6. Le routage de chaque job est al´eatoire. Plus pr´ecis´ement, lorsqu’un job sort
d’une machine et a besoins d’une autre op´eration, chaque machine a la mˆeme probabilit´e
d’ˆetre le prochain, sauf celui vient de sortir, qui ne peut pas ˆetre choisi. Les d´elais de
traitement sur les machines sont distribu´ees de fa¸con exponentielle avec une moyenne de
1.
L’arriv´ee des jobs dans le syst`eme est mod´elis´e comme un processus de Poisson, et en
9. 113
raison des particularit´es de ce mod`ele d’essai, le taux d’utilisation d’atelier est ´egal `a la
moyenne d’arriv´ee. Les dates d’´ech´eance des jobs sont d´etermin´es en utilisant le contenu
du travail totale (TWK) m´ethode (Baker, 1984).
Il ya 2 × 3 = 6 configurations pour simuler. Deux niveaux de la charge de l’atelier ont
d´efini. Un niveau de charge mod´er´e d’atelier , ce qui correspond `a un taux d’utilisation
de 80 % pour les ressources, et un niveau ´elev´e de la charge d’atelier, qui correspond au
taux d’utilisation de 90 %. Pour chaque niveau de charge, trois niveaux diff´erents de date
d’´ech´eance ont ´et´e ´etablis. Chaque ´etanch´eit´e de ´ech´eance donn´ee (e.g., serr´es, mod´er´e
ou lib´ere) est calcul´ee diff´eremment selon le taux d’utilisation des ressources (Schultz,
1989; Pierreval and Mebarki, 1997). Les mesures de performances ont ´et´e recueillies pour
5000 jobs de plus de 100 ´echantillons, avec un warm-up p´eriode de 1.000 unit´es de temps
(correspondant approximativement `a 500 jobs).
Figure 5.5.4 pr´esente les box-plots de Tmax pour l’ensemble des PDR sous diff´erentes
conditions de fonctionnement de 100 r´ep´etitions. Pour chaque r`egle, il ya 6 box-plots,
chacun correspondant `a un ´etat de fonctionnement particulier, e.g. la boˆıte de la parcelle
de Figure 3.1 repr´esente le niveau ´elev´e de la charge atelier (i.e. = 90 %) et ´etanche dates
d’´ech´eance, Figure 3.2 repr´esente le niveau ´elev´e de la charge atelier et mod´er´ee dates
d’´ech´eance et ainsi de suite.
A partir de ces box-plots, on peut distinguer deux ensembles de r`egles bas´ees sur leur
comportement en ce qui concerne avec Tmax. Begin itemize Item FIFO, EDD, SLACK,
CR a not´e que la s´erie 1 pour lequel (Tmax ) est assez faible avec un degr´e de dispersion
et il ya tr`es peu de valeurs aberrantes. Item SI, SPT, MOD a not´e que la s´erie 2 pour
lesquelles il existe un degr´e beaucoup plus ´elev´e de dispersion pour Tmax comptant un
grand nombre de valeurs extrˆemes. End itemize
Under higher loading conditions, the performance of the pdrs deteriorate however, there
is no significant impact on the relative ranking of the pdrs.
Pour les autres r`egles (CR/SI, COVERT, CEXSPT, ATC, MF), on peut observer que ces
r`egles changent leur comportement en ce qui concerne les conditions diff´erentes de charge
et de ´etanch´eit´e de date d’´ech´eance. Pour les param`etres de date d’´ech´eance serr´ee, le
comportement de ces r`egles compare `a des r`egles de l’ensemble 1. Toutefois, comme le les
param`etres de date d’´ech´eance en vrac , ces r`egles ont tendance `a se comporter comme des
r`egles de l’ensemble 2. Ce comportement est inh´erent `a la structure de ces r`egles (et donc
appelle g´en´eralement que l’heuristique de compromis). Par exemple, CR/SI ne prendre en
compte la valeur de retard relatif et il a deux comportements diff´erents pour des jobs en
retard et des jobs pas en retard.
10. 114 Resum´e
Les courbes de distribution correspondante des valeurs retard, obtenu grˆace `a l’ex´ecution
de simulation unique et long, pour ces deux ensembles de r`egles comme illustr´e dans
Figure 3.7 et Figure 3.8, montrent clairement les deux types de comportements pour les
r`egles de l’ensemble 1 et les r`egles de l’ensemble 2. Les mesures montrent que des r`egles de
la l’ensemble 1, les valeurs sont distribu´ee assez uniform´ement, contrairement aux r`egles
de la l’ensemble 2 o`u la concentration des valeur de retard n’est que sur quelques jobs,
qui sont tr`es tardive , Ce qui justifie la valeur ´elev´ee de retard maximum pour les r`egles
de l’ensemble 2. C’est un comportement typique qui est mesur´ee par Trms, tel que
mentionn´e pr´ec´edemment. Afin de v´erifier si les deux ensembles de r`egles pr´ealablement
identifi´es dans en ce qui concerne les Tmax, peut aussi discriminer en utilisant le Trms, il
est d´ecid´e de mesurer la performance relative de ces PDR de r´ef´erence en ce qui concerne
les Trms.
Figure 3.9 and Figure 3.10 present a comparison of Tmax and Trms under different opera-
ting conditions within the two sets of rules previously identified. Rules of set 1 perform
significantly well for Tmax, with SLACK rule as always the best performing rule. For rules
of set 1, EDD and SLACK exhibit quite a similar behavior, however for FIFO, Tmax and
Trms are not as strongly correlated as the other two pdrs of this set. Probably, this is
due to the fact that, in FIFO there is neither the involvement of due date factor nor the
processing times resulting in higher values for tardiness (as compared to other two rules
of set 1).
Figure 3.9 et Figure 3.10 pr´esente une comparaison de Tmax et Trms dans des conditions
d’exploitation diff´erentes dans les deux ensembles de r`egles pr´ealablement identifi´es. Pour
les r`egles de l’ensemble 1, des r´esultats sont nettement bien pour Tmax, SLACK toujours la
meilleure r`egle. Pour les r`egles de l’ensemble 1, EDD et SLACK pr´esentent un comporte-
ment similaire, mais pour FIFO, Tmax et Trms ne sont pas aussi fortement corr´el´es que les
deux autres PDR de cet ensemble. Probablement, cela est dˆu au fait que, dans le FIFO il
y a ni l’implication du facteur de la date d’´ech´eance, ni les d´elais de traitement, r´esultant
en des valeurs plus ´elev´ees pour retard (par rapport `a deux autres r`egles de l’ensemble 1).
Pour les mod`eles stochastiques, il est n´ecessaire de construire un intervalle de confiance
pour une estimation de param`etres dans des inf´erences statistiques. La proc´edure de boots-
trapping est utilis´ee pour obtenir des intervalles de confiance `a 95 % pour la corr´elation
coefficients entre Tmax et Trms, qui sont pr´esent´es dans le Table 3.3.
Pour la r`egle SI, par exemple, sous une charge ´elev´ee et la date d’´ech´eance libre, les limites
de confiance pour le coefficient de corr´elation est 0,814 (limite inferior) et 0,918 (limite
sup´erieure). Le Table 3.3 pr´esente une forte preuve quantitative que Tmax et Trms sont
positivement corr´el´ees. En outre, cette preuve ne n´ecessite aucune des hypoth`eses fortes
11. 115
sur les distribution de probabilit´e du coefficient de corr´elation. Il est ´egalement observer
que cette corr´elation est plus forte pour les param`etres de date d’´ech´eance libre pour
toutes les r`egles.
La racine de la retard moyenne-carr´es (Trms) est une mesure tr`es int´eressante car elle
permet de diff´erencier un syst`eme avec un petit nombre des jobs en retard ayant des
valeurs plus ´elev´ees pour les retards d’un syst`eme avec beaucoup de jobs en retard ayant
retard faible. Il peut ´egalement ˆetre utilis´e avec retard moyen pour calculer la variance
de la retard. En outre, il donne une indication de la performance relative des r`egles pour
Tmax car une forte corr´elation est constat´e entre Trms et le retard maximum.
Un inconv´enient `a l’utilisation des PDRs est que leur performance d´epend de l’´etat du
syst`eme et il n’y auccun r`egle qui est sup´erieur `a tous les autres de tous les ´etats possibles
du syst`eme (Geiger et al., 2006). Cet inconv´enient pourrait ˆetre ´elimin´es si la meilleure
r`egle pour chaque situation particuli`ere pourrait ˆetre utilis´e (Pierreval and Mebarki, 1997;
Priore et al., 2006). Diverses m´ethodes sont ´etudi´ees pour la s´election d’un PDR adapt´e
`a des situations particuli`eres. Les m´ethodes d’apprentissage sont largement utilis´es pour
s´electionner un pdr adapt´ee `a la situation, en utilisant les r´esultats comparatifs sur les
PDR g´en´er´es par des simulations en r´egime permanent ou sur la simulation en ligne
fonctionne.
Sous le titre g´en´eral de l’Intelligence Artificielle (IA), une s´erie de nouvelles techniques
apparues dans d´ebut des ann´ees 80 pour r´esoudre les probl`emes d’ordonnancement en job-
shop (Jones and Rabelo, 1998). Ils comprennent syst`emes experts/fond´ee sur la connais-
sance, r´eseaux de neurones artificiels et apprentissage inductif etc. Ces techniques utilisent
g´en´eralement les connaissances quantitatives et qualitatives, qui peuvent ˆetre sp´ecifiques
au domaine de probl`eme ainsi que les connaissances proc´edurales des m´ethodes de r´esolu-
tion. Ces approches sont suppos´es de capturer des relations complexes et les transformer
en structures de donn´ees ´el´egante pour la g´en´eration-suivante de l’heuristique. Cependant,
les heuristiques obtenus sont tr`es complexes en g´en´eral par rapport aux r`egles de priorit´e
d’exp´edition. En outre, les syst`emes bas´es sur ces techniques requis trop de temps pour
construire et ils sont assez complexe `a maintenir.
L’acquisition de connaissances est l’´etape de base dans le d´eveloppement de la base de
connaissances. La source de connaissances est g´en´eralement un expert humain, les don-
n´ees de simulation ou les donn´ees historiques. Une technique d’apprentissage automatique
(machine learning) utilise ces donn´ees comme un ensemble d’exemples de formation. Ces
exemples de formation sont utilis´es pour former l’algorithme d’apprentissage automa-
tique pour acqu´erir des connaissances sur le syst`eme de fabrication (Michalski et al., 1986,
1998). Ensuite des d´ecisions intelligentes (comme la s´election de la meilleure r`egle pour
12. 116 Resum´e
chaque ´etat possible du syst`eme) sont pris en temps r´eel, bas´e sur cette connaissance
(Nakasuka and Yoshida, 1992; Shaw et al., 1992; Yeong-Dae, 1994; Min and Yih, 2003).
Apprentissage inductif en ordonnancement de la production a ´et´e essentiellement consa-
cr´ee `a des questions telles que la s´election de la r`egle de la meilleure r´epartition en utilisant
des donn´ees simul´ees. Aytug et al. (1994) a pr´esent´e un examen complet de la technique
d’apprentissage automatique en mettant l’accent sur les m´ethodes d’apprentissage inductif
appliqu´e en ordonnacement. Pierreval and Ralambondrainy (1988) a utilis´e l’algorithme
d’induction GENREG, propos´e par (Ralambondrainy, 1988) pour obtenir un ensemble de
r`egles avec le meilleur retard moyen comme le concept de cible en donn´ees de simulation
pour l’environnement flow-shop. Nakasuka and Yoshida (1989) a employ´e un algorithme
d’apprentissage capables de g´en´erer automatiquement de nouvelles caract´eristiques utiles
pour la s´election de la r`egle en ligne dans une ligne de production. Shaw et al. (1992) a d´e-
velopp´es un mod`ele d’ordonnancement pattern-directed de surveiller l’activit´e de planifica-
tion de modifications des modes de fabrication, des combinaisons de param`etres diff´erents
qui, ensemble, repr´esentent un ´etat donn´e du syst`eme. Piramuthu et al. (1994) a propos´e
un m´ecanisme bas´e sur le mˆeme principe de choisir parmi un ensemble de connaissances
heuristiques en utilisant l’algorithme C4.5 (Quinlan, 2003) pour la production d’arbres de
d´ecision. Ils ont observ´e que les arbres de d´ecision sur la base d’ordonnancement pattern-
directed n’ont pas am´elior´es les r´esultats de mani`ere significative. Priore et al. (2006) a
signal´e que l’ apprentissage inductive bas´e sur l’algorithme C4.5 avec des autres techniques
d’apprentissage automatique pour un syst`eme de fabrication flexible s´electionn´e.
Geiger et al. (2006) a propos´e un syst`eme, appel´e SCRUPLES qui combine un m´ecanisme
d’apprentissage ´evolutif avec un mod`ele de simulationpour d´ecouvrir les nouveau r`egles
de priorit´e. Li and Olafsson (2005) a utilis´e induction bas´ee sur d’arbre de d´ecision dans
son approche propos´ee pour d´ecouvrir les concepts d’ordonnancement cl´es en appliquant
des techniques d’exploration de donn´ees sur les donn´ees historiques d’ ordonnancement
et de g´en´erer des r`egles de priorit´e. Dimopoulos and Zalzala (2001) a utilis´e la program-
mation g´en´etique pour construire des s´equen¸cage des politiques qui combinent des r`egles
de s´equen¸cage connus. Ils n’ont pas, cependant, utiliser des attributs fondamentaux de la
construction de ces politiques. Koonce and Tsai (2000) a appliqu´ees la fouil´ee des donn´ees
sur les solutions g´en´er´ees par un algorithme g´en´etique (GA) et d´evelopp´e un programme
bas´es sur un ensemble de r`egles se rapprochant l’ordonnaceur GA. L’approchee Attribute
Oriented Induction a ´et´e utilis´ee pour caract´eriser la relation entre les s´equences des op´e-
rations et leurs attributs. Huyet (2006) a propos´e une approaches bas´ee sur l’optimisation
de l’´evolution et de la fouil´ee des donn´ees pour produire la connaissance du comportement
des syst`emes dans un job-shop simul´ees. Nhu Binh and Joe Cing (2005) a fait usage de la
programmation g´en´etique pour faire ´evoluer les r`egles de r´epartition efficace et composite
13. 117
pour r´esoudre le JSSP flexible `a la recirculation, avec l’objectif de minimiser le retard
total.
La revue de la litt´erature r´ev`ele que la pratique habituelle consiste `a la mise en œuvre
d’un ensemble pr´ed´efini compos´e d’un certain nombre de r`egles candidat `a un mod`ele de
simulation `a ´ev´enements discrets du syst`eme `a l’´etude, et en comparant leurs performances
`a l’aide des exp´eriences de simulation sous diff´erentes valeurs du syst`eme attributs qui
caract´erisent la dynamique du syst`eme. Un ensemble de meilleures r`egles d’interpr´etation
sous divers ´etats du syst`eme sont pris comme exemples de formation pour ˆetre entr´es dans
le syst`eme d’apprentissage. Alors des d´ecisions intelligent sont prises en temps r´eel bas´e
sur cette connaissance. En g´en´erale, l’examen des r´esultats de simulation seront sugg´erer
des modifications `a l’ensemble des r`egle s´electionn´e ainsi, n´ecessitant la r´ep´etition d’au
moins un sous-ensemble des exp´eriences de simulation. Ceci, bien sˆur, suppose que toutes
les r`egles de priorit´e d’exp´edition sont connus `a l’avance et que la performance de ces
r`egles peuvent ˆetre simul´es avec pr´ecision. Exception `a cette approche habituelle inclu
(Geiger et al., 2006; Li and Olafsson, 2005; Koonce and Tsai, 2000; Huyet, 2006).
By knowing the significance and interrelationships among a set of system attributes, a user
is equipped to design an effective scheduling rule, particularly for a given environment. In
addition, the knowledge about a set of good schedules helps to either improve an existing
scheduling rule or discover a new one.
Li and Olafsson (2005) shows how data mining on production data can be used to cap-
ture both explicit and implicit knowledge to discover new dispatching rules in a single
machine scheduling problem with an implicit assumption that it is worthwhile to capture
the current practices from historical data and use it as training data for a learning algo-
rithm. The set of efficient solutions obtained through a meta-heuristic approach can be
an alternative to the historic data. We consider tabu search to obtain this training data,
instead. Tabu search (TS) algorithms are among the most effective approaches for solving
JSSP (Jain and Meeran, 1998) using a memory function to avoid being trapped in a local
optimum (Zhang et al., 2008). However, neighborhood structures and move evaluation
strategies play the central role in the effectiveness and efficiency of the tabu search for the
JSSP (Jain et al., 2000). A brief description of data mining is given before the discussion
of proposed approach.
En connaissant la signification et les liens entre un ensemble d’attributs du syst`eme, un
utilisateur est ´equip´e de concevoir une r`egle d’ordonnancement efficace, en particulier pour
un environnement donn´e. En outre, les connaissances sur un ensemble des ordonnance de
bonne qualit´e aide `a am´eliorer, soit une r`egle pour l’ordonnancement existants ou de
d´ecouvrir une nouvelle r`egle.
14. 118 Resum´e
Li and Olafsson (2005) montre comment la fouill´ee de donn´ees sur les donn´ees de pro-
duction peuvent ˆetre utilis´es pour capturer les connaissances explicites et implicites de
d´ecouvrir de nouvelles r`egles de r´epartition dans un probl`eme d’ordonnancement `a une
machine avec une hypoth`ese implicite selon laquelle il vaut la peine de saisir les pratiques
actuelles `a partir des donn´ees historiques et l’utiliser comme donn´ees d’entraˆınement pour
un algorithme d’apprentissage. L’ensemble des solutions efficaces obtenus grˆace `a une ap-
proche m´eta-heuristique peut ˆetre une alternative aux donn´ees historiques. Nous consid´e-
rons la recherche tabou pour obtenir ces donn´ees de formation. Les algorithmes bas´ees sur
la recherche tabou (TS) sont parmi les approches les plus efficaces pour r´esoudre JSSP
(Jain and Meeran, 1998) en utilisant une fonction de m´emoire pour ´eviter d’ˆetre pi´eg´e
dans un optimum local (Zhang et al., 2008). Cependant, les structures de la voisinage
et les strat´egies d’´evaluation se jouer un rˆole central dans l’efficacit´e et l’efficience de la
recherche tabou pour la JSSP (Jain et al., 2000). Une description br`eve de la fouill´ee de
donn´ees est donn´e avant la discussion de l’approche propos´ee.
La fouill´ee de donn´ees est une ´etape essentielle dans le processus de d´ecouverte de connais-
sances `a partir de donn´ees (KDD), mais les deux termes sont souvent utilis´es indiff´erem-
ment. La fouill´ee de donn´ees est le processus de d´ecouverte de connaissances int´eressant de
grandes quantit´es de donn´ees stock´ees dans des bases de donn´ees, entrepˆots de donn´ees,
ou des autres d´epˆots informations (Han and Kamber, 2002). L’approche d’exploration de
donn´ees est particuli`erement applicable pour les grands environnements de production
complexes, o`u il est difficile de mod´eliser le syst`eme de mani`ere explicite a cause de cette
complexit´e.
Du point de vue de notre approche, la fouill´ee de donn´ees peut notamment ˆetre consi-
d´er´e comme l’analyse d’un ensemble de donn´ees, d´enomm´ee donn´ees d’apprentissage afin
d’identifier les relations inconnus et potentiellement utiles mais cach´es et de d´ecouvrir ces
relations entre les divers ´el´ements de cet ensemble de donn´ees. L’objectif est de classer les
cas dans un autre ensemble de donn´ees, d´enomm´ee donn´ees de test, par la cartographie
des relations nouvellement d´ecouverts sur eux. Le processus de d´ecouverte peut ˆetre qua-
lifi´e comme l’exploration de donn´ees descriptive, tandis que la classification des donn´ees
de test en utilisant les relations d´ecouvertes peuvent ˆetre consid´er´ees comme la fouil´ee des
donn´ees pr´edictif (Choudhary et al., 2009). Un processus KDD consiste en une s´equence
it´erative de s´election, de pr´etraitement, de transformation des donn´ees, d’exploration de
donn´ees, interpr´etation et la pr´esentation des connaissances (Fayyad et al., 1996).
Nous utilisons l’arbre de d´ecision en fonction d’apprentissage comme l’´etape d’exploration
de donn´ees car il est simple `a comprendre et `a interpr´eter, n´ecessite peu de pr´eparation
des donn´ees, capable de g´erer des donn´ees num´eriques et cat´egorique `a la fois, utilise un
15. 119
mod`ele white-box, possible de valider un mod`ele `a l’aide de tests statistiques, robuste et
donne de bons r´esultats avec des donn´ees grandes en peu de temps. L’induction de l’arbre
de d´ecision, ou ID3 (Iterative Dichotomiser 3) (Quinlan, 1986) est l’un des plus puissant
algorithme d’exploration utilis´ees dans l’apprentissage automatique (Koonce and Tsai,
2000; Dudas et al., 2009; Priore et al., 2006). Des versions r´evis´ees des ID3 comprennent
GID3 (Generalized ID3), ID4, ID5, C4.5 (Quinlan, 2003) et C5.0 (Quinlan, 2003) (utilis´e
pour cette ´etude).
Construction d’un ensemble de donn´ees de formation ad´equate est un point crucial dans
l’ensemble du processus KDD. Du point de vue de la fouil´ee de don´eed dans JSSP, le
concept cible `a tirer est de d´eterminer quel job doit ˆetre envoy´e d’abord au sein d’un en-
semble des jobs ordonnan¸cable `a un moment donn´e sur la mˆeme machine. L’extraction de
cette connaissance de la formation de l’ensemble de donn´ees nous permettrait d’envoyer
la tˆache suivante `a un moment donn´e et par la suite pour cr´eer des listes d’exp´edition
pour tout ensemble des jos. Contrairement `a la nature myope des PDR, m´eta-heuristiques
telles que la recherche tabou peut attaquer le probl`eme de mani`ere plus rigoureuse et in-
telligente en raison du niveau de connaissances relativement plus ´elev´e du domaine. En
cons´equence, les d´ecisions prises refl`etent l’utilisation de ces connaissances utiles. (voir
Figure 5.1). Compte tenu de ce concept cible, le cadre propos´e comprend les phases prin-
cipales suivantes:
1. A tabu search, (Nowicki and Smutnicki, 1996) based optimization module generates
a set of efficient solutions for a set of problem instances. Since these efficient solutions
are obtained through a series of some logical moves of the meta-heuristic, they have
some general characteristics that may describe the relationship between operations
and their sequential order in a particular solution. These characteristics are a form
of scheduling knowledge, like dispatching rules. The aggregation of corresponding
set of efficient solutions for each problem instance may then be used as the training
data set for the data mining algorithm for discovery of scheduling knowledge.
2. Data preparation including aggregation, attribute construction, and attribute selec-
tion: Considerable amount of transformations are required before it is possible to
mine any useful knowledge from the data obtained through the optimization mo-
dule. A flat data file with columns representing the selected attributes of the data
and each row representing a single piece of information independent(as much as
possible) of the other rows: an example from which we can learn. We refer to each
such example or a row in the file as an instance. There exist a strong relation among
the sequencing of operations due to precedence constraints, however, considering
only two (operations of the) jobs on the same machine among schedulable jobs (the
predecessors of whom are already dispatched) at any instance for the comparison,
16. 120 Resum´e
reduces this dependency effect. Proper selection of attributes plays an important
role to reduce this dependency as well. It is indeed unlikely that the attributes that
are recorded as part of the available data are the attributes that are the most rele-
vant or useful for data mining perocess. Thus, creation of new attributes must be
considered. Attribute selection to eliminate certain redundant and irrelevant attri-
butes is also critical to the effectiveness of the subsequent model induction. Both
the creation of new attributes and selection of attributes are primarily linked with
the objectives of the JSSP. Tardiness based objectives require different attributes to
be taken into account while flow-time based objectives have different requirements.
More detailed view of this is presented in next section.
3. Model induction and interpretation: After the data file has been constructed a lear-
ning algorithm is applied to infer a predictive model for the target concept. We
focus on using decision trees and decision rules derived from such trees. The target
class represents the relative order of any two jobs on a same machine. The decision
tree obtained using the learning algorithm can be applied directly to the similar
JSSP to validate the explored knowledge and as a predictive model to predict the
target concept, which in our framework is a dispatching rule. The overall sequence
of operations obtained by these rules is translated to a schedule using a schedule
generator. As the sequences of operations on each machine are explicitly defined,
the schedule is indifferent of the approach used for building the schedule from the
obtained sequence. Thus, the tree will, given any two jobs, predict which job should
be dispatched first and can be thought of as a new, previously unknown, dispatching
rule. In addition to the prediction, decision trees and decision rules reveal insightful
structural knowledge that can be used to further enhance the scheduling decision.
1. Un module d’optimisation bas´ee sur la recherche tabou, (Nowicki and Smutnicki,
1996) g´en`ere un ensemble de solutions efficaces pour un ensemble d’instances pro-
bl`eme. ´Etant donn´e que ces solutions efficaces sont obtenues par une s´erie de quelques
mouvements logique de la m´eta-heuristique, ils ont certaines caract´eristiques g´en´e-
rales qui peuvent d´ecrire la relation entre les op´erations et leur ordre s´equentiel
dans une solution particuli`ere. Ces caract´eristiques sont une forme de connaissance
de l’ordonnancement, comme des r`egles de l’exp´edition. L’agr´egation de l’ensemble
correspondant de solutions efficaces pour chaque instance du probl`eme peut alors
ˆetre utilis´e comme donn´ees d’apprentissage pour l’algorithme de la fouill´ee de don-
n´ees pour la d´ecouverte de l’ordonnancement des connaissances.
2. La pr´eparation des donn´ees, y compris l’agr´egation, la construction d’attribut, et
la s´election d’attributs: Un volume consid´erable de transformations sont n´ecessaires
avant qu’il soit possible de la mienne toute connaissance utile `a partir des donn´ees
17. 121
obtenues par le module d’optimisation. Un fichier plat de donn´ees avec des colonnes
repr´esentant les attributs s´electionn´es des donn´ees et chaque ligne repr´esente un
seul ´el´ement d’information ind´ependante (autant que possible) des autres lignes: un
exemple `a partir de laquelle nous pouvons apprendre. Nous nous r´ef´erons `a chaque
exemple ou une ligne dans le fichier comme un exemple. Il existe une forte relation
entre la s´equence des op´erations en raison de contraintes de pr´ec´edence, toutefois,
compte tenu que deux (op´erations de l’) des jobs sur la mˆeme machine entre les jobs
ordonnan¸cable (les pr´ed´ecesseurs d’entre eux sont d´ej`a envoy´e) `a n’importe quel
exemple pour la comparaison, r´eduit cet effet de d´ependance. La bonne s´election
des attributs joue un rˆole important pour r´eduire cette d´ependance ainsi. Il est en
effet peu probable que les attributs qui sont enregistr´ees dans le cadre des donn´ees
disponibles sont les attributs qui sont les plus pertinentes ou utiles pour l’exploration
de donn´ees perocess. Ainsi, la cr´eation de nouveaux attributs doivent ˆetre pris en
consid´eration. s´election d’attributs pour ´eliminer certains des attributs redondants et
inutiles est ´egalement essentiel `a l’efficacit´e de l’induction de mod`ele ult´erieures. Tant
la cr´eation de nouveaux attributs et de s´election des attributs sont principalement
li´es `a des objectifs de la JSSP. Retards objectifs exigent des attributs diff´erents pour
ˆetre pris en compte alors que le d´ebit en temps des objectifs en fonction des exigences
diff´erentes. vue plus d´etaill´ee de cette est pr´esent´e dans la section suivante.
3. induction mod`ele et l’interpr´etation: Une fois le fichier de donn´ees a ´et´e construit
un algorithme d’apprentissage est appliqu´e `a en d´eduire un mod`ele pr´edictif pour
le concept cible. Nous nous concentrons sur l’utilisation des arbres de d´ecision et de
r`egles de d´ecision provenant de ces arbres. La classe cible repr´esente l’ordre relatif
de deux jobs sur une mˆeme machine. L’arbre de d´ecision obtenu en utilisant l’algo-
rithme d’apprentissage peut ˆetre appliqu´ee directement `a l’similaires JSSP de valider
les connaissances et explor´e comme un mod`ele pr´edictif pour pr´edire le concept cible,
ce qui dans notre cadre est une r`egle de r´epartition. La s´equence globale des op´era-
tions obtenus par ces r`egles est traduite en un programme en utilisant un g´en´erateur
de calendrier. Comme les s´equences d’op´erations sur chaque machine sont explicite-
ment d´efinis, le calendrier est indiff´erent de l’approche utilis´ee pour la construction
de l’annexe de la s´equence obtenue. Ainsi, l’arbre, ´etant donn´e les deux jobs, de
pr´edire quels jobs devraient ˆetre exp´edi´es premi`ere et peut ˆetre consid´er´e comme
une nouvelle, inconnue auparavant, la r`egle de r´epartition. En plus de la pr´edic-
tion, arbres de d´ecision et les r`egles de d´ecision r´ev`elent perspicace connaissances
structurelles qui peuvent ˆetre utilis´es pour renforcer la d´ecision de planification.
Deux s´eries de 6 times 6 de la mˆeme taille cas d’un probl`eme de job-shop statique avec
des valeurs diff´erentes de semences sont utilis´ees comme donn´ees d’entraˆınement et de
18. 122 Resum´e
test. Tous les jobs sont disponibles simultan´ement au temps z´ero. Discrets distribution
uniforme entre 1 et 10 est utilis´e pour g´en´erer les d´elais de traitement op´eration. Les dates
d’jobs dues sont d´etermin´es en utilisant deux param`etres tau et rho, o`u tau d´etermine le
nombre pr´evu d’jobs tardive (et donc l’´etanch´eit´e moyenne des dates d’´ech´eance) et rho
sp´ecifie la raison plage de dates. Une fois ces param`etres ont ´et´e d´efinis, les dates d’jobs
dues sont g´en´er´es par la distribution uniforme discr`ete ´etant donn´e que
dj = UNIFORM(µ −
µρ
2
,µ +
µρ
2
)
ou µ = (1−τ)E[Cmax] est la date moyenne ´ech´eance. E[Cmax] est pr´evu le makespan pour
l’instance de probl`eme et est calcul´ee en estimant le temps de traitement total requis par
toutes les op´erations, divis´e par le nombre de machines. Notez que ceci ne suppose aucune
ralenti temps sur les machines, et sera donc une estimation optimiste de Cmax.
Nous consid´erons τ = 0.3 et ρ = 0.5. ¯T (Retards moyenne ) et Lmax (maximum de retards)
sont utilis´es comme les objectifs de l’odonnancement.
S´election des attributs pertinents a un rˆole cl´e dans l’obtention du niveau de performance
appropri´e des syst`emes de connaissance. Les attributs s´electionn´es ont les caract´eristiques
suivantes:
– Les attributs sont li´es `a la lenteur des mesures de performance.
– Il est pr´ef´erable de d´efinir des attributs en valeurs relatives au lieu des valeurs
absolues.
– Les attributs avec une forte variation sont discr´etis´ees.
Table 5.2 r´epertorie les attributs utilis´es dans les exp´eriences. Le choix de ces attri-
buts est bas´ee sur des recherches ant´erieures (voir, par exemple (Kwak and Yih, 2004;
?; Chen and Yih, 1996)). Toutefois, il est reconnu que d’un mod`ele simple n’est pas ca-
pable de g´en´erer et de garantie sous-ensemble quasi-optimale d’attributs. Une approche
plus rigoureuse pour la s´election combinatoire attribut peut ˆetre utilis´e au d´etriment de
la complexit´e des calculs suppl´ementaires (voir (?) de contrˆole et les limites des autres
approches).
Nous proposons une approche d’exploration de donn´ees bas´e `a d´ecouvrir jusque-l`a incon-
nues des r`egles de r´epartition pour le probl`eme d’ordonnancement des tˆaches boutique.
19. 123
Une m´eta-heuristique efficace comme la recherche tabou peut fournir des solutions ro-
bustes et de meilleure qualit´e pour un probl`eme d’ordonnancement des tˆaches magasin,
qui contient les connaissances utiles sur le domaine du probl`eme et de l’espace solu-
tion explor´ees. Un ensemble de ces solutions pour diff´erentes instances d’un probl`eme
d’ordonnancement des tˆaches magasin repr´esente une richesse de la programmation des
connaissances dans le domaine. L’id´ee est d’exploiter ces connaissances planification et de
la transformer dans une forme d’arbre de d´ecision ou d’une r`egle-set. La r`egle-ensemble
peut ensuite ˆetre utilis´e comme une r`egle standard de r´epartition au niveau des lignes
d’attente d’un magasin d’job d’une mani`ere en ligne.
Certains de ces attributs sont li´es au syst`eme, qui ne sont pas sp´ecifiquement li´es `a un
job ou d’une s´erie de tˆaches sp´ecifiques. Quelques attributs sont sp´ecifiques `a l’job pris en
consid´eration pour la comparaison.
Pour des probl`emes de job-shop statique, comme nous l’avons pris en compte dans le
chapitre 5, nt = n `a rj pour tous les jobs, Plus la valeur nt , plus la taille du bloc de la
formation et il ya des exemples de plus en plus pour cette instance d’apprendre le concept
cible. ∆̺j, ̺ et ̺max − ̺ utilise le temps de traitement restant pour une comparaison
directe de deux jobs, comme une mesure moyenne et la valeur relative entre tous les jobs
dans le syst`eme. Il est important de noter que c’est l’effet combin´e de ces attributs long-
avec d’autres, qui joue un rˆole dans le renforcement de leur relation avec le concept cible.
Par exemple, ̺ en relation avec nt et ̺max − ̺ affecte les
n´p
nt
. C’est pourquoi il est tr`es
difficile d’identifier une relation d’un attribut avec le concept cible. La valeur pr´edite de
la mesure du performance est ´egalement utilis´e comme un attribut, mais il est aussi pas
ind´ependante de l’autres attributs s´electionn´es.
Pour cette ´etude, nous avons utilis´e la m´ethode binning, qui est une m´ethode de dis-
cr´etisation sans surveillance. Sur la base des valeurs de la moyenne et l’´ecart type de la
distribution de l’attribut sp´ecifi´e(s), nous g´en´erons un champ avec des cat´egories en lignes.
Un ensemble de 19 r`egles pour le ¯T et un ensemble de 57 r`egles Lmax sont g´en´er´es par le
syst`eme propos´e l’aide de 100 blocs de formation de diff´erentes tailles `a partir des instances
probl`eme de taille similaire. Le diffenences de la taille des blocs de formation est due au
fait que les blocs de formation g´en´er´es d´ependent de la machine contraintes de pr´ec´edence
de l’instance du probl`eme ainsi que la m´ethode de solution. Une liste partielle des r`egles
induite est donn´ee dans Table 5.3 et tabreftab:RuleSet. La pr´ecision de la pr´ediction de
ces ensembles de r`egles pour ¯T et Lmax se trouve `a 79,52 % et 69,93 %, respectivement.
Performance du syst`eme propos´e est mesur´ee en termes relatifs et il est indiqu´e par les
mesures ¯ηf
1 et ¯ηf
2 . η1 indique la performance de la r`egle-ensemble obtenu et l’ensemble des
20. 124 Resum´e
PDR par rapport `a la solution fournie par recherche tabou sur la fonction objective f
pour l’ensemble des instances probl`eme de la formation (I). La valeur moyenne de ¯ηf
1 sur
I ast donn´ee par,
¯ηf
1 =
f(r,I)−f(TS,I)
f(r,I)
if f(r,I) > 0
0 otherwise
o`u
r ∈ {FIFO,SI,SPT,EDD,SLACK,CR,
CR/SI,COV ERT,CEXSPT,ATC,MF}
, TS: Tabu Search, RS: Rule-Set obtained and I: L’ensemble d’instances de probl`eme de
formation utilis´es. Par exemple,
Lmax(r,I) represent l’ensemble de Lmax valeurs pour toutes les instances du probl`eme de
la formation dans l’ensemble I en utilisant l’ensemble des PDR.
Notez bien que le ¯ηf
1 est une indication de la performance moyenne de l’algorithme de
TS par rapport `a PDR. D’autre part, ¯ηf
2 se rapporte `a l’ex´ecution de l’article-ensemble
obtenu par rapport au consid´er´es ensemble de PDR et est donn´ee `a titre,
¯ηf
2 =
f(r,´I)−f(RS,´I)
f(r,´I)
if f(r,´I) > 0
0 otherwise
Basse valeur de ηf
1 pour un pdr accord´e pour toute instance du probl`eme signifie que
la solution par ce pdr est proche de celui fourni par l’algorithme de TS. Dans ce cas,
les performances du syst`eme par rapport `a pdr (donn´ee par ηf
2 ) semble ˆetre d´egrad´ees
toutefois, le fait est que sa performance est proche de l’optimum atteint par TS. Par
cons´equent, une plus faible valeur de ηf
2 est observ´ee pour cette instance en d´epit de
l’obtention d’un bon horaire. Cela affecte n´egativement sur le rendement moyen. Cela
signifie que les cas `a plus forte valeur de ηf
1 pour le PDR sont plus repr´esentatifs de la
performance r´eelle du syst`eme propos´e. Hausse de la valeur de ηf
2 , dans ce cas, indique la
bonne performance du syst`eme par rapport au PDR et vice versa.
Figure 5.5.3 pr´esente la box-plot qui donne un aper¸cu comparatif des valeurs de ¯T `a
21. 125
travers des instances deas de test. Ce graphique fournit la r´epartition des valeurs r´eelles
de ¯T pour tous les PDR, RS et TS.
Pour la comparaison des performances sur des cas individuels, nous avons constat´e que
sur 50 cas d’essai, pour seulement 18 cas, la RS offre de meilleures solutions que n’importe
quel autre pdr meilleure solution parmi les PDR pour cette instance. En moyenne, ces
meilleures solutions ont ´et´e trouv´ees `a 14 % plus efficace que la meilleure solution par les
meilleurs PDR sur ces cas. Toutefois, le temps de calcul pour r´esoudre tous les cas de test
est relativement plus ´elev´e pour les RS, en supposant que le temps requis pour chaque
pdr ˆetre la mˆeme.
Dans Figure 5.9(a) et Figure 5.9(b) les courbes de ¯ηLmax
1 et ¯ηLmax
2 sont pr´esent´es respecti-
vement. On observe que les r´esultats des extraits r`egle-set sont sup´erieurs aux PDR pour
le Lmax mesure.
Pour un ensemble d’instances d’essai cinquante, parcelle de ¯η2, montr´e dans Figure 5.9(b),
refl`ete le fait que le livre de r`egles est toujours plus performant parmi tous les PDR utilis´ee
avec une r`egle de jeu comme le concurrent le plus proche. Cela est dˆu `a la nature des attri-
buts s´electionn´ees utilis´es dans l’algorithme. Il ya une marge consid´erable d’am´elioration
de la performance de l’ensemble des r`egles, comme on le voit de la trace de η1 figurant au
Figure 5.9(a), qui peut ˆetre obtenu grˆace `a une meilleure s´election des attributs.
Nous avons propos´e un cadre de la fouill´ee de la donn´ees en fonction des probl`emes de
l’ordonnancement `a job-shop. La structure ainsi que le fonctionnement des diff´erents com-
posants du syst`eme propos´e sont expliqu´es. Les diff´erents modules du cadre propos´e sont
impl´ement´ees en utilisant des logiciels diff´erents. Pour le module d’optimisation, nous
avons mis en œuvre l’algorithme de recherche tabou en C++. Rockwell ARENA est uti-
lis´e pour construire le module de simulation. Pour la discr´etisation des attributs et la
C5.0 algorithme d’apprentissage, SPSS Clementine est utilis´e. Pour certains des routines
pour le module de contrˆole, de donn´ees d’ing´enierie et l’int´egration des diff´erents modules,
environnement de programmation MATLAB est utilis´e. La r`egle des deux-ensembles sont
obtenus pour deux mesures de la performance, nomm´ement signifie retard et retard maxi-
mum. Enfin, les r´esultats d’un test ensemble d’instances de job-shop sont pr´esent´ees pour
ces deux mesures.
L’approche ax´ee sur l’identification des param`etres critiques et les ´etats d’un environne-
ment d’ordonnancement dynamique particuli`ere qui contribuent `a la construction d’une
solution efficace. Il n’est pas toujours possible d’obtenir ou de mettre en œuvre les so-
lutions optimales pour un entreprises complexe et dynamique du monde r´eel en raison
de permanence des conditions variables. Cependant, grˆace `a cette approche de plusieurs
22. 126 Resum´e
solutions de rechange pourraient ˆetre propos´es et qui sont suffisamment efficaces. La m´e-
thodologie propos´ee est bas´ee sur l’hypoth`ese implicite de la capacit´e de recherche tabou
pour d´eplacer intelligemment dans l’espace des solutions tout en offrant la possibilit´e,
dans le mˆeme temps, d’apprendre les connaissances int´egr´ees sur les lignes de la pens´ee
derri`ere ces mouvements intelligents.
Les performances de la table de r`egles g´en´er´ees sont jug´es sup´erieurs `a toutes les r`egles
de r´epartition envisag´e tant pour ¯T et Tmax.
L’approche propos´ee est non seulement tr`es compliqu´e de mettre au point, mais une mise
en œuvre effective de cette approche sur le syst`eme r´eel n´ecessite un examen tr`es attentif de
chacun et de tous les param`etres du syst`eme de planification. En outre, pour les syst`emes
d’ordonnancement en temps r´eel le temps de calcul n´ecessaire est relativement sup´erieur
`a celui des PDR, mais n’interdit pas comme m´eta-heuristiques.
On observe que la performance du syst`eme se d´egrade sensiblement si le syst`eme ne peut
fonctionner efficacement au cours de la p´eriode ant´erieure de l’ordonnancement dans le
cas des d´ecisions d’ordonnancement plus tard. Cela se justifie en raison de la nature du
probl`eme JSSP, que les d´ecisions de planification ult´erieurs sont fortement touch´es par les
d´ecisions ant´erieurs.
Il est ´egalement bon de savoir comment les connaissances acquises peuvent ˆetre utilis´es
en cours de r´eorienter la recherche tabou pour certains cas de grande taille du probl`eme.
Nous croyons qu’il est possible de mieux tirer profit en faisant une analyse de la m´emoire
`a long terme de l’algorithme de TS.
Une bonne s´election de caract´eristiques en ce qui concerne l’ordonnancement avec l’ob-
jectif consid´er´e est le facteur cl´e pour la mise en œuvre r´eussie du cadre propos´e. La
s´election des fonctionnalit´es pour les diff´erents objectifs et de leurs combinaisons doit ˆetre
rigoureusement ´etudi´e pour obtenir l’ensemble de r`egles compact et efficace.
La taille du probl`eme utilis´ee pour la formation ainsi que des donn´ees d’essai mis en
joue un rˆole important dans la performance relative du syst`eme propos´e. Comme le PDR
sont g´en´eralement utilis´es dans les syst`emes de planification dynamique, la performance
r´eelle du syst`eme par rapport au PDR est orient´ee vers les PDR. En utilisant de plus
grands probl`emes dans les modules d’optimisation peut r´eduire ce biais, mais cela arrive
`a d’appoint (peu pratique) temps de calcul.
La performance du syst`eme propos´e dans diff´erentes conditions de chargement doit ˆetre
´etudi´ee plus avant. Bien qu’il soit pr´evu d’effectuer dans des conditions relativement
23. 127
meilleures boutique lourde charge. Cela est dˆu au fait que les d´ecisions d’ordonnance-
ment de plus seraient prises par le livre de r`egles min´ees dans les conditions d’atelier
lourde charge.
24.
25. 1
References
Anderson, E. and Nyirenda, J., 1990, “Two rules to minimize tardiness in a job
shop,” International Journal of Production Research 28, no. 12, pp. 2277–2292.
Aytug, H., Bhattacharyya, S., Koehler, G. J., et al., 1994, “A review of machine
learning in scheduling,” IEEE Transactions on Engineering Management 41, no. 2,
pp. 165–171.
Baker, K., 1984, “Sequencing rules and due-date assignments in a job shop,” Mana-
gement Science 30, no. 9, pp. 1093–1104.
Baker, K. and Kanet, J., 1983a, “Job shop scheduling with modified due dates,”
Journal of Operations Management 4, no. 1, pp. 11–22.
Baker, K. and Kanet, J., 1983b, “Job shop scheduling with modified due dates,”
Journal of Operations Management 4, no. 1, pp. 11–22.
Blackstone, J., Phillips, D., and Hogg, G., 1982,“A state-of-the-art survey of dispat-
ching rules for manufacturing job shop operations,”International Journal of Produc-
tion Research 20, no. 1, pp. 27–45, ISSN 0020-7543, URL
Carroll, D., 1965, Heuristic sequencing of jobs with single and multiple components,
Doctoral thesis, Sloan School of Management, MIT.
Chen, C. C. and Yih, Y., 1996, “Indentifying attributes for knowledge-based deve-
lopment in dynamic scheduling environments,” International Journal of Production
Research 34, no. 9, pp. 1739–1755.
Choudhary, A., Harding, J., and Tiwari, M., 2009, “Data mining in manufacturing:
a review based on the kind of knowledge,” Journal of Intelligent Manufacturing 20,
no. 5, pp. 501–521, 10.1007/s10845-008-0145-x.
Conway, R. W., 1965a, “Priority dispatching and job lateness in a job shop,” The
Journal of Industrial Engineering 16, no. 4, pp. 228–237.
Conway, R. W., 1965b, “Priority dispatching and work-in-process inventory in a job
shop,” The Journal of Industrial Engineering 16, no. 3, pp. 123–130.
Conway, R. W., L.Maxwell, W., and W.Miller, L., 1967, Theory Of Scheduling,
26. 130 References
Dover Publications ,Inc, New York.
Dimopoulos, C. and Zalzala, A. M. S., 2001, “Investigating the use of genetic pro-
gramming for a classic one-machine scheduling problem,” Advances in engineering
software 32, pp. 489–498.
Dudas, C., Ng, A., and Bostr¨om, H., 2009, “Information Extraction from Solution
Set of Simulation-based Multi-objective Optimisation using Data Mining,” .
Eilon, S. and Cotterill, D. J., 1968, “A modified SIrule in job shop scheduling,”
International Journal of Production Research 7, no. 2, pp. 135–145.
Eilon, S. and Hodgson, R., 1967, “Job shops scheduling with due dates,” Internatio-
nal Journal of Production Research 6, no. 1, pp. 1–13.
Esquirol, P. and Lopez, P., 1999, L’odonnancement, Paris.
Fayyad, U., Piatetsky-Shapiro, G., and Smyth, P., 1996,
Geiger, C. D., Uzsoy, R., and Aytug, H., 2006, “Rapid Modeling and Discoveriny of
Priority Dispatching Rules: An Autnomous Learning Approach,” 9, no. 1, pp. 7–34.
Graham, R., Lawler, E., Lenstra, J., et al., 1979, “Optimization and approximation
in deterministic machine scheduling: a survey,” Annals of Discrete Mathematics 5,
no. 1, pp. 287–326.
Han, J. and Kamber, M., 2002, Data Mining Concepts and Techniques, 2nd ed.,
Diane Cerra.
Haupt, R., 1989, “A Survey of Priority Rule-Based Scheduling,” OR Spectrum 11,
no. 1, pp. 3–16.
Huyet, A. L., 2006, “Optimization and analysis aid via data-mining for simulated
production systems,”European Journal of Operational Research 173, no. 3, pp. 827–
838, doi: DOI: 10.1016/j.ejor.2005.07.026.
Jain, A., Rangaswamy, B., and Meeran, S., 2000,“New and stronger job-shop neigh-
bourhoods: A focus on the method of Nowicki and Smutnicki (1996),” Journal of
Heuristics 6, no. 4, pp. 457–480.
Jain, A. S. and Meeran, S., 1998,“A State-of-the-Art Review of Job-Shop Scheduling
Techniques,” pp. 1–48.
Jones, A. and Rabelo, L. C., 1998, “Survey of Job Shop Scheduling Techniques,” .
Kemppainen, K., 2005, Priority scheduling revisited - dominant rules, protocols and
integerated order management, Doctoral thesis, Helsinki School of Economics.
Kiran Milton, L. and Ali, S., 1984, “Simulation studies in job shop sheduling–I a
survey,” Computers & Industrial Engineering 8, no. 2, pp. 87–93, ISSN 0360-8352.
Koonce, D. A. and Tsai, S.-C., 2000, “Using data mining to find patterns in genetic
27. 131
algorithm solutions to a job shop schedule,” Comput. Ind. Eng. 38, no. 3, pp. 361–
374, 361517.
Kwak, C. and Yih, Y., 2004, “Data-mining approach to production control in the
computer-integrated testing cell,” Robotics and Automation, IEEE Transactions on
20, no. 1, pp. 107–116.
Lawrence, S. and Sewell, E., 1997,“Heuristic, optimal, static, and dynamic schedules
when processing times are uncertain,” Journal of Operations Management 15, no.
1, pp. 71–82, ISSN 0272-6963.
Li, X. and Olafsson, S., 2005, “Discovering Dispatching Rules using Data Mining,”
Journal of Scheduling 8, no. 6, pp. 515–527.
Manfred Moser and Sebastian Engell, 1992, “A survey of priority rules for FMS
scheduling and their performance for the benchmark problem,” Proceeding of the
31st Conference on Decision and Control, vol. 1, IEEE, pp. 392–397.
Mebarki, N. and Shahzad, A., 2008, “A procedure to compute a probabilistic bound
for the maximum tardiness using stochastic simulation,” Proceedings of the 17th
World Congress, The International Federation of Automatic Control, Seuol, Korea,
pp. 10534–10539.
Michalski, R. S., Bratko, I., and Bratko, A., eds., 1998, Machine Learning and Data
Mining; Methods and Applications, John Wiley & Sons, Inc., New York, NY, USA,
ISBN 0471971995.
Michalski, S. R., Carbonell, G. J., and Mitchell, M. T., eds., 1986, Machine learning
an artificial intelligence approach volume II , Morgan Kaufmann Publishers Inc.,
San Francisco, CA, USA, ISBN 0-934613-00-1.
Min, H.-S. and Yih, Y., 2003,“Selection of dispatching rules on multiple dispatching
decision points in real-time scheduling of a semiconductor wafer fabrication system,”
International Journal of Production Research 41, no. 16, pp. 3921–3941, ISSN 0020-
7543.
Montana, D., 2005, “A Comparison of Combinatorial Optimization and Dispatch
Rules for Online Scheduling,”Proc. of the 2nd Multidisciplinary Conference on Sche-
duling: Theory and Application, Citeseer, pp. 353–362.
Nakasuka, S. and Yoshida, T., 1989, “New framework for dynamic scheduling of
production systems,” Industrial Applications of Machine Intelligence and Vision,
1989., International Workshop on, pp. 253–258.
Nakasuka, S. and Yoshida, T., 1992, “Dynamic scheduling system utilizing machine
learning as a knowledge acquisition tool,” International Journal of Production Re-
search 30, no. 2, pp. 411–431.
28. 132 References
Nhu Binh, H. and Joe Cing, T., 2005, “Evolving dispatching rules for solving the
flexible job-shop problem,”The IEEE Congress on Evolutionary Computation, 2005.,
vol. 3, pp. 2848–2855 Vol. 3.
Nowicki, E. and Smutnicki, C., 1996,“A fast taboo search algorithm for the job shop
problem,” Manage. Sci. 42, no. 6, pp. 797–813, 256054.
Panwalker, S. and Iskander, W., 1977, “A survey of dispatching rules,” Operations
Research 25, pp. 45–61.
Pierreval, H. and Mebarki, N., 1997, “Dynamic selection of dispatching rules for
manufacturing system scheduling,” International Journal of Production Research
35, no. 6, pp. 1575–1591.
Pierreval, H. and Ralambondrainy, H., 1988, “Generation of Knowledge About the
Control of a Flow Shop using Data Analysis Oriented Learning Techniques and
Simulation,” Tech. Rep. 897.
Pinedo, M. and Chao, X., 1999, Operations scheduling with applications in manu-
facturing and services, Irwin/McGraw-Hill, ISBN 0072897791.
Piramuthu, S., Raman, N., and Shaw, M. J., 1994, “Learning-based scheduling in a
flexible manufacturing flow line,” IEEE Transactions on Engineering Management
41, no. 2, pp. 172–182.
Priore, P., de la Fuente, D., Puente, J., et al., 2006, “A comparison of machine-
learning algorithms for dynamic scheduling of flexible manufacturing systems,” En-
gineering Applications of Artificial Intelligence 19, no. 3, pp. 247–255.
Quinlan, J., 1986, “Induction of decision trees,” Machine learning 1, no. 1, pp. 81–
106.
Quinlan, J., 2003, C4. 5: programs for machine learning, Morgan Kaufmann.
Ralambondrainy, H., 1988,“The algorithm GENREG for generating rules from sym-
bolic or numerical data,” Tech. rep., iNFO:INFO-OH 1988-10 RR-0910.
Raman, N., Talbot, F. B., and Rachamadugu, R. V., 1989, “Due date based schedu-
ling in a general flexible manufacturing system,”Journal of Operations Management
8, no. 2, pp. 115 – 132, ISSN 0272-6963, URL
Ramasesh, R., 1990,“Dynamic job shop scheduling: a survey of simulation research,”
Omega 18, no. 1, pp. 43–57, ISSN 0305-0483.
Russell, R., Dar-El, E., and Taylor, B., 1987, “A comparative analysis of the CO-
VERT job sequencing rule using various shop performance measures,” International
Journal of Production Research 25, no. 10, pp. 1523–1540.
Schultz, C. R., 1989, “An expediting heuristic for the shortest processing time dis-
patching rule,” International Journal of Production Research 27, pp. 31–41.
29. 133
S.French, 1982, Sequencing and Scheduling: An Introduction to the Mathematics of
the Job Shop, Ellis Horwood Ltd.
Shaw, M. J., Park, S., and Raman, N., 1992, “Intelligent scheduling with machine
learning capabilities: The induction of scheduling knowledge,” IIE Transactions 24,
no. 2, pp. 156–168.
Smit, H., 1992, Hierarchical Control Architecture for Job-Shop Manufacturing Sys-
tems, Ph.D. Thesis.
Vaessens, R., Aarts, E., and Lenstra, J., 1996,“Job shop scheduling by local search,”
INFORMS Journal on Computing 8, pp. 302–317.
Yeong-Dae, M., 1994, “Simulation-based real-time scheduling in a flexible manufac-
turing system,” Journal of Manufacturing Systems 13, no. 2, pp. 85–93.
Zhang, C., Li, P., Rao, Y., et al., 2008,“A very fast TS/SA algorithm for the job shop
scheduling problem,” Computers and Operations Research 35, no. 1, pp. 282–294.
Zobolas, G., Tarantilis, C., and Ioannou, G., 2008, “Exact, Heuristic and Meta-
heuristic Algorithms for Solving Shop Scheduling Problems,” Metaheuristics for
Scheduling in Industrial and Manufacturing Applications pp. 1–40.