Précis de Recherche Opérationnelle et Aide à la Décision Cours IPST CNAM de Toulouse
Richard Richard Loustau Le 13 mars 2004
TABLE DES MATIÈRES
iii
Table des matières Intro duction
ix
A
1
I
Elém Elémen ents ts de la théo théori rie e des des grap graphe hess et et app appli lica cati tion onss Eléments de la théorie des graphes I.1 Le concept de graphe . . . . . . . . . . . . I.1 .a Graphes orientés . . . . . . . . . . I.1 .b Graphes non orientés . . . . . . . . I.2 Principales définitions . . . . . . . . . . . I.3 Matrices associ ociées à un graphe . . . . . . I.3 .a Matrices d’adjacence . . . . . . . . I.3 .b Ma Matr tric ices es d’inc ’incid iden encce somm sommet etss-ar arcs cs I.4 Fermeture transiti itive d’un graph aphe . . . . . I.4 .a Définition . . . . . . . . . . . . . . I.4 .b Ma Matr tric icee de ferm fermeeture ture tran ransit sitive ive . . I.4 .c Algori orithme de Roy-Wa -Warshall . . . I.5 Graphes et connexité . . . . . . . . . . . . I.5 .a Compos posantes connexes . . . . . . . I.5 .b Comp Compos osan anttes fort forteemen ment conn connex exes es . I.6 Mise en ordre d’un graphe . . . . . . . . .
I I Chemins optimaux II.1 L’algorithme de Ford . . . . II.2 Algorithme de Dijkstra . . . II.3 Graphes sans circuit . . . . II.4 Algorithmes matriciels . . . II.4 .a Algorithme de Floyd
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
3 3 3 4 4 5 5 6 7 7 7 7 8 9 9 10 15 15 17 17 18 19
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
I II Ordonnancement III.1 Po Position du problème . . . . . . . . . . . . . . . III. III.22 Pri Prin ncipa cipaux ux type ypes de de con contrai train ntes . . . . . . . . . III. III.22 .a .a Con Contrain rainttes de type ype pot poteentiel iel . . . . . . III. III.22 .bCo .bCon ntrain rainttes de type ype dis disjo jonc ncti tiff . . . . . . III.3 Ex Exemple de problème: . . . . . . . . . . . . . . III.4 La La méthode MPM . . . . . . . . . . . . . . . . III. III.44 .aCons .aConsttruct ructio ion n du grap graph he MPM MPM . . . . . III. III.44 .bDét .bDéter ermi mina nati tion on du cale calend ndri rier er au plus plus tôt tôt
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
23 . 23 . 24 . 24 . 25 . 25 . 26 . 26 . 26
TABLE DES MATIÈRES
iv
III.4 III.4 .c Déte Déterm rmin inat ation ion du cale calend ndri rier er au plus plus tard tard III.4 .d Ma Marge totale . . . . . . . . . . . . . . . . III.4 .e Marge libre . . . . . . . . . . . . . . . . . III.4 .f Synthèse . . . . . . . . . . . . . . . . . . . III.5 La La méthode PERT . . . . . . . . . . . . . . . . . III. III.55 .aCons .aConsttruct ructio ion n du grap graph he PERT ERT . . . . . . III III.5 .bCa .bCalen lendrier au plus lus tôt . . . . . . . . . . . III III.5 .c Calen lendrier au plus lus tard . . . . . . . . . . III.5 .d Ma Marges totales : . . . . . . . . . . . . . . III.5 .e Marges libres : . . . . . . . . . . . . . . .
B I
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. 27 . 27 . 27 . 27 . 30 . 30 . 30 . 30 . 30 . 30
Programmation Linéaire
33
Présentation I.1 Présentation d’un exemple: . . . . . . . . . . . . . . . . . . . . . I.2 Forme orme stan stand dard ard des des prob roblème lèmess de PL . . . . . . . . . . . . . . . . I.2 .a Présentation générale: . . . . . . . . . . . . . . . . . . . I.2 .b Forme matricielle: . . . . . . . . . . . . . . . . . . . . . . I.3 Résolution Résolution d’un d’un système système d’équatio d’équations ns par la méthode méthode du pivot pivot de Gauss : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I.4 Définitions : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I.5 Résol solution graph aphique d’un PL : . . . . . . . . . . . . . . . . . . . I.5 .a Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . I.6 Cas général : . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I I La métho de du simplexe II.1 Introduction . . . . . . . . . . . . . . . . . II.1 .a Etude d’un exemple: . . . . . . . . II.1 II.1 .b Disp Dispos osit itio ion n prat ratique ique des calcu alculs: ls: . II. II.2 L’algo lgorith ithme du simp implex lexe : . . . . . . . . . II.2 II.2 .a Pass Passag agee d’un d’un ext extrême rême à l’au l’autr tree . . II.2 II.2 .b Choi Choix x de la varia ariabl blee entran rante . . . II. II.3 L’algo lgorith ithme du simp implex lexe : . . . . . . . . . II.3 .a L’algorithme : . . . . . . . . . . . . II. II.3 .b Dis Dispos position prat ratique : . . . . . . . . II. II.3 .c Traite itement d’un exemple: . . . . . II.4 II.4 Obte Obten ntion tion d’un d’unee base base réal réalis isab able le de dépa départ: rt: II. II.4 .a Méthode ode en deux phases : . . . . . II.4 .b Ex Exemple : . . . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
I II Dual III.1 In Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . III.2 Dé Définitions et exemples : . . . . . . . . . . . . . . . . . . . . . . III.2 .a P ri rimal et Dual : . . . . . . . . . . . . . . . . . . . . . . III.2 .b Ex Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . III III.3 Pr Propr opriét iétés de la duali alité : . . . . . . . . . . . . . . . . . . . . . . III.4 Passage du dernier tableau simplexe du primal au dernier tableau simplexe du dual : . . . . . . . . . . . . . . . . . . . . . . . . . .
35 35 36 36 37 38 38 39 39 40
. . . . . . . . . . . . .
47 47 47 48 49 49 50 50 51 51 52 53 53 54
. . . . .
57 57 58 58 58 59
.
59
TABLE DES MATIÈRES
v
IV An A nalyse de sensibilité, PL paramétrique 63 IV.1 IV.1 Para Paramé métr trisa isati tion on de la fonc foncti tion on écon économ omiq ique ue . . . . . . . . . . . . . 63 IV.2 IV.2 Para Paramé métr trisa isati tion on du sec secon ond d mem membr bree des des con contr train ainte tess . . . . . . . . 64 IV.3 Ex Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
C I
Processus Stochastiques et applications Présentation des pro cessus sto chastiques I.1 Défin éfinitio ition n des des proc proces essu suss stoc stocha hast stiq ique uess . . I.2 Processus de Poisson . . . . . . . . . . . . I.2 .a Présentation . . . . . . . . . . . . I.2 .b Modélisation . . . . . . . . . . . . I.3 Temps d’attente . . . . . . . . . . . . . . I.4 Déterminat inatiion expér périmentale . . . . . . . I.4 .a Théorème . . . . . . . . . . . . . . I.4 .b Application . . . . . . . . . . . . . I.5 Grap raphes hes asso associ ciés és à une une loi loi de Poiss oisson on . . . I.6 Exemple . . . . . . . . . . . . . . . . . . .
I I Pro cessus de naissance et de mort II.1 Introduction . . . . . . . . . . . . . II.2 Définition . . . . . . . . . . . . . . II.3 Modélisation . . . . . . . . . . . . II. II.3 .a Proce ocessus de naissa ssance pur II. II.3 .b Proc Proceessus de mort pur . . . II.4 Probabilités à long terme . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
69 . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . .
71 71 73 73 73 73 74 74 74 75 75
. . . . . .
77 77 77 78 79 79 79 83 83 83 83 84 84 85 85 85 86 86 87 87
I II Chaînes de Markov III.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . III III.2 Pr Proba obabilit lités de transition ion . . . . . . . . . . . . . . . III.2 .aTr aTransition d’ordre 1 . . . . . . . . . . . . . . III III.2 .bTr bTransitions d’ordre n . . . . . . . . . . . . . . III.2 .c Exemple . . . . . . . . . . . . . . . . . . . . . III. III.33 Cla Class ssifi ificcatio ation n des des état étatss d’u d’une ne chaîn haînee . . . . . . . . . III. III.44 Pro Prop prié riétés tés des des chaîne aîness de Ma Mark rkoov . . . . . . . . . . . III.4 III.4 .arelation .arelation d’équi d’équiv valence alence sur l’ensem l’ensemble ble des états états III.4 .b Ex Exemple . . . . . . . . . . . . . . . . . . . . . III.4 .c Théorème 1 . . . . . . . . . . . . . . . . . . . III.4 .d Th Théorème 2 . . . . . . . . . . . . . . . . . . . III.4 .e Exemple . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
IV Files d’attente IV.1 In Introduction . . . . . . . . . . . IV.2 IV.2 Ev Evalua aluati tion on du syst systèm ème, e, mesu mesure ress IV.2 .a Lois de Little . . . . . . IV.3 Fi Files d’attente M/M/1 . . . . . IV.3 .a Probabilit lités associ ociées . IV.3 .bExemple n◦1 . . . . . . IV.4 F Fiiles M/M/1 (N) . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
89 . 89 . 90 . 90 . 91 . 91 . 92 . 92
. . . . . . . . à long long term termee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
TABLE DES MATIÈRES
vi
D I
Eléments de Fiabilité Présentation I.1 Introduction . . . . . . . . . . . . . . . . . . . I.2 Général ralités, terminolog logie . . . . . . . . . . . . I.2 I.2 .a Fonct onctio ions ns de défa défail illa lanc ncee et de fiabi fiabili lité té I.3 Déterminat inatiion expér périmentale . . . . . . . . . I.3 .a Estimati ation des fonctions ons R et T . . . I.4 Princ incipa ipales les loi lois utilis lisées . . . . . . . . . . . . I.4 .a La loi expon ponentielle . . . . . . . . . . . I.4 .b Loi de Weibull . . . . . . . . . . . . .
I I Fiabilité d’un système et de ses comp osants II. II.1 Systè stème à struc ructure en sé série . . . . . . . . . . II.1 .a Exemple . . . . . . . . . . . . . . . . . II.2 II.2 Syst ystème ème à stru struct ctur uree paral arallè lèle le . . . . . . . . . II.2 .a Exemple . . . . . . . . . . . . . . . . . II. II.3 Systè stèmes à structure mixte . . . . . . . . . . II.3 .a Exemple . . . . . . . . . . . . . . . . .
E
95 . . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
Annexes
A Eléments de probabilités A.1 A.1 Vocab ocabul ulai aire re des des prob robabil abilit itéés . . . . . . . . . . . . . . . . . . . . A.2 Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . A.2 A.2 .a .a Défin Définit itio ion n des des proba robab bilit ilitéés . . . . . . . . . . . . . . . . . A.2 A.2 .b Prob Probab abil ilit ités és cond condit itio ionn nnel elle less . . . . . . . . . . . . . . . . A.3 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . A.3 .a Définitions . . . . . . . . . . . . . . . . . . . . . . . . . A.3 A.3 .b Var Varia iabl bles es aléa aléato toir ires es disc discrè rète tess . . . . . . . . . . . . . . . A.3 A.3 .c .c Varia ariabl bles es aléa aléato toir ires es con contin tinues ues . . . . . . . . . . . . . . . A.4 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.4 .a Loi binômiale . . . . . . . . . . . . . . . . . . . . . . . . A.4 .b L oi oi de Poisson . . . . . . . . . . . . . . . . . . . . . . . A.4 .c Loi géométrique . . . . . . . . . . . . . . . . . . . . . . A.4 .d L oi oi uniforme . . . . . . . . . . . . . . . . . . . . . . . . A.4 .e Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . A.4 .f Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . A.4 .g Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . .
97 97 97 97 98 98 100 100 100
. . . . . .
10 1 101 101 102 102 102 102 103
105 1 07 . 107 107 . 107 . 108 108 . 108 108 . 109 . 109 . 109 109 . 109 109 . 110 . 110 . 110 . 110 . 110 . 111 . 111 . 111
B TABLES 1 13 B.1 Table de la loi de Poisson . . . . . . . . . . . . . . . . . . . . . . 113 B.2 TABL BLE E DE LA LOI DE WEIBU BUL LL . . . . . . . . . . . . . . . . 114 C conclusion
1 15
TABLE DES FIGURES
vii
Table des figures I.1 I.2 I.3 I.4 I.5 I.6
Arc u =(xi , xj ) . . . . . . . . . . Exemple de graphe orienté . . . . Incidence sommets-arcs . . . . . algorithme de Roy-Warshall . . . Composa posan ntes fortement connexes Mise en ordre d’un graphe . . . .
. . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . . . . . . . .
. . . . . .
. 3 . 3 . 7 . 8 . 9 . 11
I I.1 I I.2 I I.3 I I.4
Algorithme de Ford . . . Algorithme de Dijkstra . Graphe sans circuit . . . Algorithme de Floyd . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
16 17 18 19
III.1 Gr Graphe MPM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III.2 Gr Graphe PERT . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29 31
I.1 I.1 I.2 I.2 I.3 I.4
. . . .
44 44 45 45
IV.1 Intervalles les de stabilité ité . . . . . . . . . . . . . . . . . . . . . . . .
66
I.1 I.2 I.3
Exemp xemple le de proc proces essu suss en temps emps disc discre rett . . . . . . . . . . . . . . . Exemple de traje ajectoire ire : le CAC40 . . . . . . . . . . . . . . . . . Graph aphe du proce ocessus de Poisson . . . . . . . . . . . . . . . . . . .
72 72 75
II.1 II.1 Grap Graphe he du proc proces essu suss de Nais Naissa sanc ncee et de mo mort rt . . . . . . . . . . .
80
I.1
99
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
Repr Représ ésen enta tati tion on grap graphi hiqu quee en 2D, 2D, sol solut utio ion n uni uniqu quee . . Repr Représ ésen enta tati tion on grap graphi hiqu quee en 2D, infin infinit itéé de de solu soluti tion onss Prob roblème lème non non born borné, é, pas pas de solu soluttion ion . . . . . . . . . Prob roblème lème non non born borné, é, solu soluttion ion uniq uniqu ue . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
Allure de la courbe du taux d’av ’avarie . . . . . . . . . . . . . . . .
A.1 A.1 Quel Quelqu ques es densit densités és de la loi loi de Weibu eibull ll (η = 1, γ = 0, β = 0.3, 0.6, 1, 1.5, 2, 3.) . . . . . . . . . . . . . . . . . . . . . . . . . 112
viii
TABLE DES FIGURES
ix
Introduction Ce précis est le contenu du cours dispensé au CNAM de Toulouse dans la demi-valeur intitulée TL 18967. Les domaines abordés sont très variés et présentés de manière élémentaire pour que les étudiants sachent avant tout de quoi l’on parle et par la suite utiliser de manière adéquate les outils informatiques dont ils peuvent disposer. Quelques Quelques pré-requis pré-requis en mathématiqu mathématiques es sont nécessaires nécessaires à la compréhensio compréhension n du cours et quelques quelques rappels sont présentés présentés en annexe annexe : – Connaissance Connaissance des fonctions fonctions usuelles. – Notions de calcul intégral et sur les séries. – Notions Notions d’algèbre linéaire linéaire et de calcul calcul matriciel. – Bases du calcul de probabilités et de statistiques.
x
1
Première partie
Eléments de la théorie des graphes et applications
3
Chapitre I
Eléments de la théorie des graphes On considère un ensemble fini E = {x1 , · · · ,xn } où n est un entier naturel et une relation binaire sur E, assimilée à une partie U de E × E c’est à dire un ensemble de couples (xi , xj ) où i, j ∈ {1, · · · ,n}. On se bornera à l’étude de ce que la théorie générale appelle des 1-graphes.
I.1 I.1 I.1 .a
Le conc concep eptt de de gra graph phee Grap Graphe hess orie orien ntés
La donnée du couple (E, U ) définit un graphe orienté, les éléments de E sont appelés des sommets , et ceux de U des arcs et sont représentés par des flêches. Dans un arc (xi , xj ), xi est appelé extrémité extrémité initiale initiale , et xj , extrémité finale. Un arc (xi , xi ) est appelé une boucle. u
xi Fig.
C xj
I.1 – Arc u = (xi , xj )
Exempl Exemple e: E = {A, B, C, D, E, F }, G = {(A, B ), (A, D), (B, C ), (C, B ), (C, E ), (D, C ), (D, D ), (D, E )} u1
u3
B 89:; B 89:; 89:; ?>=< ?>=< A B j U C U ?>=< o o u4
u7
o o u6 o o o o u2 o o o u5 o o o o o x x F R E R D
89:; ?>=< 89:; ?>=< 89:; ?>=< u8
Fig.
I.2 – Exemple de graphe orienté
CHAPITRE CHAPITRE I. ELÉMENTS ELÉMENTS DE LA THÉORIE DES GRAPHES GRAPHES
4
Au lieu de formuler explicitement G, on utilise souvent l’application Γ : E → P (E ), qui associe à chaque sommet l’ensemble des extrémités finales des arcs partant de ce sommet. C’est ainsi que dans l’exemple précédent, Γ est définie par: Γ(A) = {B, D }, Γ(B ) = {C }, Γ(C ) = {B, E }, Γ(D) = {C, D, E }, Γ(E ) = Γ(F ) = ∅. Un graphe est donc entièrement déterminé par la donnée de E et Γ, on notera désormais un graphe G = (E, Γ) ou G = (E, U) suivant qu’il est défini par la donnée de ses arcs ou de l’application Γ. Dans la suite on utilisera aussi l’application, notée Γ−1 (attention, il ne s’agit pas de l’application réciproque de Γ!) qui à chaque sommet du graphe associe l’ensemble l’ensemble des extrémités extrémités initiales des arcs aboutissant aboutissant à ce sommet. Toujours oujours dans l’exemple l’exemple précédent, précédent, on a : −1 −1 Γ (A) = ∅, Γ (B ) = {A, C }, Γ−1 (C ) = {B, D }, Γ−1 (D) = {A, D}, Γ−1 (E ) = {C, D}, Γ−1 (F ) = ∅.
I.1 .b
Grap Graphe hess non non orie orien ntés
Dans certaines applications, seule la liaison entre de sommets importe, et non le sens de la liaison. On parlera alors d’ arêtes,notés arêtes,notés [xi , xj ] et non plus d’arcs. Un tel graphe est dit non orienté.
I.2
Princi Principal pales es définit définition ionss
Soit G = (E, U ) ou (E, Γ) un graphe, on a les définitions définitions suivante suivantess : Graphe Graphe réflexif réflexif : ∀xi ∈ E, (xi , xi ) ∈ U . Graphe Graphe symétrique symétrique : ∀xi , xj ∈ E, (xi , xj ) ∈ U => (xj , xi ) ∈ U . Graphe Graphe transitif transitif : ∀xi , xj , xk ∈ E, (xi , xj ) ∈ U, (xj , xk ) ∈ U => (xi , xk ) ∈ U . Graphe Graphe partiel partiel : Soit U ⊂ U , G = (E, U ) est un sous-graphe. L’application Γ associée est une restriction de Γ, i.e. ∀x ∈ E, Γ (x) ⊂ Γ(x). Sous-graphe Sous-graphe : Soit E ⊂ E et U ⊂ U l’ensem l’ensemble ble des arcs obten obtenu u en ne E conservant dans U que les arcs dont les extrémités sont dans , G = (E , U ) est un sous-graphe de G. Exemple Exemple : G est le réseau routier français, E est constitué des différentes localités et U est l’ensemble des routes et autoroutes (entre deux villes v 1 et v 2, s’il existe au moins une route directe entre les deux, on aura les arcs (v 1, v 2) et (v 2, v 1) (le graphe est symétrique). Si on restreint le réseau aux autoroutes, on obtient un graphe partiel, si on restreint le réseau à la région Midi-Pyrénées, on obtient un sous-graphe, tandis que les autoroutes de Midi-Pyrénées constituent un sous-graphe partiel. Adjacen Adjacence ce : Deux sommets sont dits adjacents s’ils sont reliés par un arc ou une arête. Deux arcs sont adjacents adjacents s’ils ont une extrémité extrémité commune. commune. Chemin Cheminss et chaînes haînes : Un chemin est constitué d’une séquence d’arcs adjacents dont l’extrémité finale de l’un est l’extrémité initiale du suivant, sauf
I.3. MATRICE MATRICESS ASSOCIÉES ASSOCIÉES À UN GRAPHE
5
pour le dernier. dernier. Dans le cas d’un graphe non orienté, orienté, on parlera parlera de chaîne. chaîne. Un chemin chemin est : – simple s’il ne passe pas deux fois par le même arc. – élémentaire s’il ne passe pas deux fois par le même sommet. – un circuit si l’extrémité finale coïncide avec l’extrémité initiale. Dans le cas d’une chaîne on parlera de cycle. – hamiltonien s’il passe une fois et une seule par chacun de ses sommets. Si c’est de plus un circuit c’est un circuit hamiltonien. Degrés : – Le demi-degré demi-degré extérieur extérieur du sommet xi est le nombre d’arcs du graphe issus de xi , on le note d+ (xi ), on a d+ (xi ) = |Γ(xi )|. Dans le cas où d+ (xi ) = 0, on dit que xi est une sortie du graphe. graphe. – Le demi-degré intérieur du sommet xi est le nombre d’arcs du graphe aboutissant à xi , on le note d− (xi ), on a d− (xi ) = Γ−1 (xi ) . Dans le cas où d− (xi ) = 0, 0 , on dit que xi est une entrée du graphe. – Le degré du sommet xi est d(xi ) = d+ (xi ) + d− (xi ). Dans le cas d’une boucle, on augmente de 2 le degré.
Exempl Exemple e : [cf fig. I.2] d− (D ) = 2, d+ (D ) = 3, d(D ) = 5.
I.3
Matr Matric ices es ass associé ociées es à un graph graphee
Soit G = (E, U ) un graphe.
I.3 .a
Matri Matrice cess d’a d’adj djac acen ence ce
Au graphe graphe G, on fait corres correspond pondre re une matric matricee d’adja d’adjacen cence ce (consi (considér dérée ée comme booléenne ou entière, entière, suivant suivant l’utilisation), l’utilisation), de la manière manière suivante suivante : Les lignes et les colonnes sont indexées par les sommets du graphe (en général numérotés de 1 à n), l’élément de la ligne i et de la colonne j vaut 1 si l’arc (i, j ) ∈ U , 0 sinon. Exempl Exemple e : [cf fig. I.2]
M
=
0 0 0 0 0 0
1 0 1 0 0 0
0 1 0 1 0 0
1 0 0 1 0 0
0 0 1 1 0 0
0 0 0 0 0 0
Concaténation Concaténation de chemins chemins Soient (A1 , · · · , Am) et (B1 , · · · , Bn ) deux chemins du graphe G donnés par la liste de leurs sommets successifs. Si Am = B1 (et seulement à cette condition) on peut définir la concaténation des deux chemins de la manière
CHAPITRE CHAPITRE I. ELÉMENTS ELÉMENTS DE LA THÉORIE DES GRAPHES GRAPHES
6
suivant suivantee : (A1 , · · · , Am).(B1 , · · · , Bn ) = (A1 , · · · , Am , B2 , · · · Bn). On peut également définir la somme de deux chemins qui correspond à la réunion (au sens ensembliste) des deux chemins. Ces deux opérations permettent de donner une interprétation pour les produits et sommes de matrices d’adjacence. Mk donnera le nombre de chemins de longueur k partant d’un sommet i à un sommet j (M[k] indiquera l’existence d’un tel chemin en mode booléen). Exempl Exemple e : [cf fig. I.2]
M
5
=
0 0 0 0 0 0
0 0 0 0 0 0
0 1 0 1 0 0
1 0 1 1 0 0
1 0 0 1 0 0
1 1 0 1 0 0
0 0 0 0 0 0
0 0 0 0 0 0
1 0 0 1 0 0
1 1 1 1 0 0
1 0 0 1 0 0
1 1 1 1 0 0
0 0 0 0 0 0
3 0 1 2 0 0
2 1 0 3 0 0
1 0 0 1 0 0
4 0 1 3 0 0
0 0 0 0 0 0
Il y a, par exemple, 4 chemins de longueur 5 de A vers E, 3 de D vers C. Si l’on considère considère les matrices booléennes, on trouve :
M
[2]
=
et
M
[4]
=
Il existe au moins un chemin de longueur 2 de D vers E, et au moins un de longueur 4 de D vers B.
I.3 .b
Matrice Matricess d’inc d’inciden idence ce somm sommetsets-arc arcss
Les lignes sont indexées par les sommets du graphe tandis que les colonnes sont indexées par la liste ordonnée (u1 , · · · , um) des arcs. Si xi est l’origine de l’arc uk , on a aik = 1, si xj est l’extrémité du même arc, ajk = −1, pour les autres autres cas on obtient 0, où aik est l’élément générique de la matrice d’incidence. On remarque que la somme de chaque colonne est égale à 0, par ailleurs cette représent représentation ation n’est valable valable que pour les graphes graphes sans boucle. Exemple: Exemple:
Pour le graphe de la figure [I.3], on obtient obtient :
M
=
1 1 0 0 0 0 −1 0 1 −1 0 −1 0 −1 0 1 1 0 0 0 −1 0 −1 1
I.4. FERMETURE FERMETURE TRANSITIVE TRANSITIVE D’UN D’UN GRAPHE
7
u1
B 89:; 89:; ?>=< ?>=< A c c t tB
~ ~ ~ ~ u2 u6 u3 ~ ~ ~ ~ ~ C R D u4
89:; ?>=< 89:; ?>=< u5
Fig.
I.4 I.4 I.4 .a
I.3 – Incidence sommets-arcs
Fermetu ermeture re tran transit sitiv ivee d’un d’un graphe graphe Défin Définit itio ion n
Soit G = (E, Γ) un graphe et x un des ses sommets. On appelle fermeture transitive de x, l’ensemble l’ensemble : ˆ x) = {x} ∪ Γ(x) ∪ · · · ∪ Γk (x) ∪ · · · , Γ( où, pour k ≥ 1, Γk (x) = Γ(Γ(k−1) )(x) est l’ensemble des sommets extrémités d’un chemin de longueur k issu de x, avec Γ0 (x) = {x}, par convention. Plus généralemen généralement, t, la fermeture fermeture transitive transitive du graphe G est le plus petit graphe transitif et réflexif contenant G. On le notera τ (G). Il est caractérisé par le fait que (x, y ) ∈ U si et seulement s’il existe un chemin allant de x vers y dans G ou si x = y.
I.4 .b .b
Matri Matrice ce de ferm fermetu eture re transi transitiv tive e
On l’obtient en faisant la somme de toutes les matrices booléennes ˆ E ). de la matrice identique. On la notera Γ(
[k] M
et
ˆ E ) = I + M + · · · M [k] + · · · Γ( Cette somme est finie car dans un graphe de n sommets il ne peut y avoir de ˆ E ) = (I + chemins de plus de n − 1 arcs sans répétition d’arc, on a donc, Γ( [n−1] . Dans la pratique, on arrête le calcul dès que (I + M)[k] = ( I + M)[k+1] . M) Exemple Exemple :
Dans le graphe de la figure [I.2], on obtient,
ˆ (E) = Γ
I.4 .c .c
1 0 0 0 0 0
1 1 1 1 0 0
1 1 1 1 0 0
1 0 0 1 0 0
1 1 1 1 1 0
0 0 0 0 0 1
= (I + M)[2]
Algori Algorithme thme de Roy-W Roy-Wars arshal halll
Soit G = (E, U ) un graphe de n sommets numérotés de 1 à n, M = (mij ) la matrice booléenne associée à G, avec mii = 1 pour la réflexivité. Pour r ∈ {1, · · · ,n}, on considère l’opérateur θr qui à G associe le graphe θr (G) défini de la manière manière suivante suivante:: – G est un graphe partiel de θr (G)
CHAPITRE CHAPITRE I. ELÉMENTS ELÉMENTS DE LA THÉORIE DES GRAPHES GRAPHES
8
– (i, j ) est un arc de θr (G) soit s’il est dans G, soit si les arcs (i, r) et (r, j ) sont dans G. L’algorithme de Roy-Warshall consiste à appliquer successivement à G l’opérateur θ1 , à θ1 (G) l’opérateur θ2 , et ainsi de suite. On obtient τ (G) = θn (θn−1 (· · · (θ1 (G)) · · · )).
B 89:; B 89:; ?>=< B 89:; ?>=< ?>=< 2 3 p p
T T 1
p p p p p p p p p p p w p w p p BB
89:; ?>=< ?>=< ?>=< 4 k 5 j 89:; R 89:; R 6 Fig.
Exemple: Exemple:
1 0 0 0 0 0
1 1 1 0 0 0
θ
→5
I.5 I.5
Pour le graphe de la figure [I.4], on obtient successivement,
=
1 1 1 0 0 0
1 0 1 1 1 1
1 0 0 1 1 0
0 0 0 0 1 1
→3
1 0 0 0 0 0
1 1 1 0 0 0
1 1 1 0 0 0
1 1 1 1 1 1
1 0 1 1 1 1
1 0 0 0 1 1
M+I
I.4 – algorithme de Roy-Warshall
1 0 0 0 0 0
1 1 1 0 0 0
0 1 1 0 0 0
θ
1 0 1 1 1 1
1 0 0 1 1 0 1 0 0 0 0 0
0 0 0 0 1 1 1 1 1 0 0 0
θ
→6
→1
1 1 1 0 0 0
1 1 1 1 1 1
θ
1 0 0 0 0 0
1 0 0 1 1 0 1 1 1 0 0 0
1 0 0 0 0 0
1 1 1 0 0 0 0 0 0 0 1 1
1 1 1 0 0 0
0 1 1 0 0 0
1 0 1 1 1 1
1 0 0 1 1 0
0 0 0 0 1 1
→2
1 0 0 0 0 0
1 1 1 0 0 0
1 1 1 0 0 0
1 1 1 1 1 1
→4
1 1 1 1 1 1
1 0 1 1 1 1
1 0 0 0 1 1
θ
θ
1 0 1 1 1 1
0 0 0 0 1 1
ˆ E ) = Γ(
Grap Graphe hess et conn connex exité ité
Soit G = (E, Γ) un graphe orienté, on introduit sur E une relation binaire ˆ x) i.e. si x = y ou s’il existe un notée , on a x y si et seulement si y ∈ Γ( chemin de x vers y . On dira dans ce cas que x précède y. La relation est réflexive et transitive. On définit également une relation d’équivalence sur E à partir de la relation , notée : x y ⇔ (x y et y x). Sur les graphes non orientés, on définit la relation d’équivalence ≡ définie par x ≡ y si et seulement si x et y sont reliés par une chaîne.
I.5. GRAPHES GRAPHES ET CONNEXI CONNEXITÉ TÉ I.5 .a
9
Compo Composa sant ntes es con conne nexe xess
Les classes d’équivalence du graphe G pour la relation relation ≡ sont appelées composantes connexes . Un graphe est dit connexe s’il existe une seule composante connexe i.e. ∀i, j ∈ E il existe une chaîne entre x et y .
I.5 .b .b
Composa Composant ntes es fortem fortemen entt conne connexes xes
Les classes d’équivalence pour la relation sont appelées composantes fortement connexes(cfc) . Un graphe est dit fortement connexe s’il existe une seule composante composante fortement fortement connexe connexe i.e. : ∀i, j ∈ E il existe un chemin entre x et y (donc un circuit contenant x et y ). Une condition nécessaire et ˆ E ) ne comporte que des 1. De la même manière que suffisante (CNS) est que Γ( ˆ ˆ −1 (x) : l’on a défini Γ(x) pour x ∈ E , on définit Γ ˆ −1 (x) = {x} ∪ Γ−1 (x) ∪ · · · ∪ Γ−k (x) ∪ · · · Γ ˆ x) ∩ Γ ˆ −1 (x). La composante fortement connexe (cfc) d’un sommet x est égale à Γ( Cette remarque permet d’obtenir un algorithme pour déterminer les cfc dans un graphe graphe : Tant que il reste des sommets marqués Faire Début
Prendre Prendre un sommet non marqué marqué x ; ˆ x) ∩ Γ ˆ −1 (x) ; Calculer Γ(x Γ( Marquer Marquer les sommets sommets obtenus; Passer Passer au sommet non marqué marqué suivant suivant ; Fin.
Exemple
:
89:; ?>=< 89:; ?>=< 89:; ?>=< F o E y y
b b B o o ~ o o ~ o o o o ~ ~ ~ o o ~ o o o ~ ~ ~ o o w w o GG D A d d d d d d d d d 2 2 H
89:; ?>=< 89:; ?>=<
89:; ?>=<
Fig.
GG C
89:; ?>=< G 89:; G ?>=< G
I.5 – Composantes fortement connexes
Dans le graphe de la figure [I.5], on obtient obtient :
CHAPITRE CHAPITRE I. ELÉMENTS ELÉMENTS DE LA THÉORIE DES GRAPHES GRAPHES
10
A B C D E F G H
A 0 0 0 1 0 0 0 0
B 1 0 0 0 0 0 0 0
C 0 0 0 0 0 1 0 1
D 0 1 0 0 0 0 0 0
E 0 0 0 0 0 0 1 0
F 0 0 0 0 1 0 0 0
G 0 0 1 0 0 0 0 0
H 1 0 0 0 0 0 0 0
ˆ A) Γ(
0
1
2
2
4
5
3
1
2
3
1
ˆ C ) Γ(
0
ˆ −1 (A) Γ 0 2 1
ˆ −1 (C ) Γ 2 4 0 3 2 1 3 1
D’où, cfc(A) = {A, B, D} = cfc(B) = cfc(D), cfc(C) = {C, E, F, G} = cfc(E) = cfc(F) = cfc(G), cfc(H) = {H}.
I.6
Mise Mise en ordr ordree d’u d’un n gra graph phee
On considère un graphe G ne possédant que des chemins de longueur finie, cela implique en particulier que le graphe ne possède pas de circuit. La mise en ordre s’effectuera sur chacune des composantes connexes, on peut donc supposer le graphe connexe. La classe C 0 est constituée des entrées de G = G0 , on considère alors G1 sous-graphe de G obtenu en enlevant les éléments de C 0 , les entrées de G1 constituent la classe C 1 , on itère le processus jusqu’à épuisement des sommets. Début −1 (i) ; Pour i = 1 à n Faire d− i ← Γ
k ← 0 ; C [0] [0] ← ∅ ; Pour i = 1 à n Faire [0] ← C [0] [0] ∪ {i} ; Si d− i = 0 Alors C [0] eme {C [k] est l’ensemble des sommets i tels que d− itération.} i = 0 à la k ∅ Faire Tant que q ue C [k] = Début
C [k + 1] = ∅ ; Pour tout i ∈ C [k] Faire Début Début ;
r[i] ← k ; {calcul du rang du sommet i} Γ(i) Faire Pour tout j ∈ Γ(i Début
dj− ← dj− − 1 ; Si dj− = 0 Alors C [k + 1] ← C [k + 1] ∪ { j } ; Fin; Fin Fin ;
k ← k +1; Fin Fin ; Fin.
I.6. MISE EN ORDRE ORDRE D’UN D’UN GRAPHE GRAPHE Exemple
11
:
89:; ?>=< G 89:; ?>=< 89:; G ?>=< G 7 4 y y y y
d d 2 y y F b b Ð
Ð F F b b Ð Ð F F b b Ð Ð F F b b b Ð Ð Ð F F b b b 1 b F F b b b b F b b b b F F b b b b F b b b b F # # 0 0 0 0
89:; ?>=<
89:; ?>=< ?>=< 89:; G 89:; G T ?>=< 3 6 T 5
Fig.
I.6 – Mise en ordre d’un graphe
Dans l’exemple de la figure [I.6], on obtient, C [0] [0] = {1}, C [1] [1] = {3}, C [2] [2] = {2}, C [3] [ 3] = {6}, C [4] [ 4] = {4, 5},C [5] [5] = {7} et r(1) = 0 , r(2) = 2 , r(3) = 1 , r(4) = r(5) = 4 , r(6) = 3 , r(7) = 5.
12
Exercices du chapitre I Exercice Exercice I.1 On considère un graphe G = (E, U ) avec E = (A, B, C, D, E ) et M sa matrice associé associéee :
M
=
0 0 0 0 0
1 0 0 0 0
0 1 0 1 0
1 0 0 0 0
0 0 1 1 0
1. Tracer le graphe graphe représentatif représentatif de cette cette matrice. matrice. 2. Déterminer Déterminer la matrice d’incidence d’incidence de ce graphe. graphe. i 3. Calculer Calculer M , i ∈ {1, 2, 3}. Rappeler la signification des coefficients non nuls de ces matrices. 4. Calculer Calculer M [i] , i ∈ { 1, 2, 3}. 5. Calculer Calculer A = I + M + M [2] + M [3] + M [4] . Donner une interprétation de A. 6. Appliquer Appliquer l’agorithme de Roy-Warshall Roy-Warshall à la matrice matrice M . Que remarque-ton? on ?
Exercice Exercice I.2 On considère le graphe G suivant suivant::
89:; ?>=< A i i
que Γ−1 (A), . . . , Γ−1 (F ).
Õ Õ 89:; ?>=< F t t
% % Q B j
s 89:; ?>=< E
9 9 VV C
89:; ?>=<
89:; ?>=<
x x 89:; ?>=< D 1. Déterminer Déterminer Γ(A), . . . , Γ(F ) ainsi
2. Calcu Calcule lerr les les demidemi-de degr grés és inté inté-rieu rieurs rs et exté extéri rieu eurs rs de chaq chaque ue sommet. 3. Donn Donner er un exem exempl plee de chem chemin in simple mais non élémentaire. 4. Existe-t-il Existe-t-il un circuit hamiltonien hamiltonien dans G ? 5. Tracer le graphe non orienté déduit de G. 6. G estest-il il conn connex exee ? fort fortem emen entt connexe?
Exercice Exercice I.3 Décomposer le graphe G suivant en composantes fortement connexes. On remplace chaque cfc par un seul point et on garde un seul arc joignant une cfc à
13 une autre, ordonner puis tracer le graphe G ainsi obtenu.
89:; ?>=< B d d
~ ~ ~ ~ ~ ~ ~ ~ ~
89:; ?>=< A d d
d d d d d d d 1 1
89:; ?>=< G b ~ 89:; ?>=< G b J d d
G E
d d d d d d d
~ d d d d ~ ~ ~ ~ d d ~ d ~ ~ GG F G K GG L
89:; ?>=< 89:; ?>=< GFED 89:; @ABC ?>=< t t
c c C ~
~ ~ ~ ~ ~ ~ ~ ~
89:; ?>=< D
GG G
89:; ?>=< G 89:; ?>=< G I
Exercice Exercice I.4 Définit Définitions ions : – un graphe G = (E, U ) est dit τ -minimal si, ∀u ∈ U, si G = (E,U \{u}) alors τ (G ) = τ (G) où τ (X ) représente la fermeture transitive de X . – Deux graphes G et G sont dits τ -équivalents si τ (G) = τ (G ). Soit G le graphe ci-dessou ci-dessouss :
89:; ?>=< G 89:; G ?>=< B qqC d d y y
d d d d d d d 2 2 b b D ~ ~ ~ ~ ~ ~ ~ ~ ~ G E A
89:; ?>=<
89:; ?>=< 89:; ?>=<
1. Déterminer Déterminer la fermeture fermeture τ (G) de G. 2. Déterminer Déterminer le graphe graphe G τ -minimal τ -équivalent à G.
Exercice Exercice I.5 Deux joueurs disposent de deux tas de trois allumettes, à tour de rôle chaque joueur peut enlever une ou deux allumettes dans un des tas. Le joueur qui retire la dernière allumette perd la partie. 1. Modéliser le jeu à l’aide d’un graphe. 2. Que doit jouer le premier premier joueur joueur pour gagner à coup sûr? 3. Reprendre Reprendre l’exercice l’exercice avec trois tas de trois allumettes. allumettes.
14
15
Chapitre II
Chemins optimaux Dans les graphes utilisés dans la pratique, les arcs sont affectés de valeur numériques qui traduisent un coût de parcours. Il peut s’agir d’une distance (réseau (réseau routier), routier), d’un coût financier, financier, d’une durée, d’un débit, débit, etc... etc... Les graphes considérés désormais possèdent une entrée et une sortie uniques, qui correspondent respectivement au début et à la fin du processus décrit par le graphe. Le problème se pose alors de déterminer le chemin optimum pour aller de l’entrée du graphe vers sa sortie, les coûts de parcours reflétant les différentes contraintes du problème à traiter. L’optimisation peut se faire dans le sens d’un coût maximum (par exemple recherche des délais maximum dans un ensemble de tâches) ou d’un coût minimum (par exemple le plus court trajet entre deux localités). Il peut y avoir d’autre contraintes du type «passer par tous les sommets du graphe» (chemin hamiltonien), etc...
II.1 II.1
L’algo L’algori rith thme me de Ford ord
On considère un graphe G = ( E, U ) à n sommets, numérotés de 1 à n. Pour simplifier, on supposera que le sommet 1 est l’entrée du graphe et le sommet n sa sortie. On va chercher un chemin de longueur minimum de 1 à n, on suppose pour ce faire que le graphe G ne comporte pas de circuit de longueur négative. L’algorithme de Ford permet de calculer le plus court chemin du sommet 1 à tous les sommets du graphe. Chaque sommet i du graphe est affecté d’une valeur λi qui initialement vaut 0 pour le sommet 1 et +∞ pour les autres sommets. A la sortie, λi contiendra la valeur du plus court chemin de 1 à i. On utilisera un tableau v : vij est égal à la longueur de l’arc (i, j ) si (i, j ) ∈ U , +∞ sinon. La stratégie utilisée utilisée est la suivant suivant : pour tout couple (i, j ) de sommets traité, si vij < λj − λi , on remplace λj par λi + vij . Les remplacements sont effectués jusqu’à ce qu’on ne puisse en faire de nouveaux.
CHAPITRE CHAPITRE II. CHEMINS CHEMINS OPTIMAUX OPTIMAUX
16
Début Pour i = 1 à n Faire Lire(vij ) ; {vij = + ∞ si (i, j ) ∈ / U } Pour j = 1 à n Faire Lire(v
λ1 ← 0 ; Pour i = 2 à n Faire λi ← +∞ ; i ← 1; Tant que i ≤ n Faire Début
j ← 2 ; Tant que qu e j ≤ n Faire Début Si vij < +∞ Alors Si λj − λi > v ij Alors Début
λj ← λi + vij ; Si i > j Alors i ← j Sinon j ← j + 1 ; Fin Sinon j ← j + 1 Sinon j ← j + 1 Fin;
i ← i+1; Fin Fin ; Fin.
Pour trouver un chemin optimal, appelé chemin chemin critique critique on choisit un prédécesseur de n, soit p1 , tel que v p1 n = λn − λ p1 , puis un prédécesseur p2 de p1 tel que v p2 p1 = λ p1 − λ p2 , et ainsi de suite jusqu’à parvenir au sommet initial. Le chemin (1,pk , · · · , p1 , · · · ,n) est bien minimal (longueur = λn ).
Exemple
:
89:; ?>=< G 89:; ?>=< 5 b b
d d 2 F Ð
2
b b Ð F F b b8 Ð Ð F F Ð b b Ð F Ð b F F 2 Ð Ð 0 0 F 1 b x x x F d d 6 b b x x 12 F F Ð Ð b b x x x F 8 Ð Ð F F b b x x x Ð Ð x 9 b F Ð Ð 5 b x x x 9 0 0 × × x 9 # # Ð 4
89:; ?>=<
89:; ?>=<
89:; ?>=< ?>=< G 89:; 3 4 2
Fig.
II.1 – Algorithme de Ford
Dans le graphe de la figure [II.1], on trouve, λ1 = 0, λ2 = 4 , λ3 = 8 , λ4 = 10, λ5 = 6, λ6 = 14 .
Le chemin le plus court de l’entrée à la sortie du graphe a pour longueur 14 14,, le chemin critique est (1, 2, 5, 6).
II.2. ALGORITHME ALGORITHME DE DIJKSTRA DIJKSTRA
17
L’algorithme de Ford est un algorithme général, il y a cependant des cas particuliers particuliers où l’on peut simplifier la recherc recherche he de chemin chemin optimum.
II.2 II.2
Algor Algorith ithme me de Dijks Dijkstr tra a
Cet algorithme s’applique pour des arcs qui ont tous des longueurs positives ou nulles. Début
S ← { 2, · · · , n} ; λ1 ← 0 ; Pour i = 1 à n Faire Lire(vij ) ; {vij = +∞ si (i, j ) ∈ / U } Pour j = 1 à n Faire Lire(v Pour i = 2 à n Faire λi ← v1i ; Tant que S = ∅ Faire Début
Soit j ∈ S tel que λj = min(λi ) ; i∈S
S ← S \{ j } ; j ) ∩ S Faire λi ← min( min(λi , λj + vji ) ; Pour tout i ∈ Γ( j) Pred(i) ← j ; Si λj = λi + vji Alors Pred( Fin; Fin.
Exemple
:
89:; ?>=< 89:; ?>=< 4
x x x G 4 b g d d 2 y y F g b Ð x
Ð F F x x x b b x x x b b5 Ð Ð F F Ð Ð 2 x x x x b b F Ð F F x x b Ð Ð F 5 1 b U d 5 1 F p d p U F F b b Ð p p Ð b b F F 2 p p p p Ð Ð b F F p Ð Ð Ð3 1 b b b p p p p p 0 0 p p # # Ð Ð G 7
89:; ?>=<
89:; ?>=<
89:; ?>=< 89:; ?>=< 3 6 7
Fig.
II.2 – Algorithme de Dijkstra
Dans le graphe de la figure [II.2], on trouve, λ1 = 0 , λ2 = 5, λ3 = 1 , λ4 = 8, λ5 = 3 , λ6 = 6 . Pred(2) = 5, Pred(3) = 1, P red red(4) = 5, P red red(5) = 3, P red red(6) = 2.
II.3 II.3
Grap Graphe hess sans sans circ circui uitt
Si un graphe ne possède pas de circuit, on peut l’ordonner en utilisant par exemple exemple l’algorithme l’algorithme [I.6], l’algorithme l’algorithme de recherc recherche he de chemin chemin optimum optimum est alors très très simplifié :
CHAPITRE CHAPITRE II. CHEMINS CHEMINS OPTIMAUX OPTIMAUX
18 Début
S ← { 1} ;
Tant que |S | < n Faire
Début
Prendre un sommet j ∈ S (complémen (complémentair tairee de S) tel que Γ−1 ( j) j ) ⊂ S ; S ; λj ← min (λi + vij ) ; i∈Γ−1 (j )
S ← S ∪ { j } ; Fin; Fin.
Exemple
:
89:; ?>=< G 89:; ?>=< 89:; G ?>=< 4 7 y y y y
d d 2 y y F b b Ð
4
4
Ð F F b b Ð Ð F F b b Ð Ð F F b b b Ð Ð Ð F b 5 5 −3 F F 10 b b 1 b F F b b b b b b b b2 F F b b b b F 1 b b b F # # b 0 0 0 0 7
89:; ?>=<
89:; ?>=< ?>=< 89:; G 89:; G 3 6 5 T T ?>=< 7
3
2 Fig.
II.3 – Graphe sans circuit
Dans le graphe de la figure [II.3], [II.3], on obtient, obtient, après l’avoir l’avoir ordonné (cf [I.6]) : – λ1 = 0 – λ3 = λ1 + v13 = 1 – λ2 = min(λ1 + v12 , λ3 + v32 ) = 6 – λ6 = min(λ2 + v26 , λ3 + v36 ) = 3 – λ4 = min(λ2 + v24 , λ6 + v64 ) = 8 – λ5 = min(λ2 + v25 , λ3 + v35 , λ6 + v65 ) = 3 – λ7 = min(λ4 + v47 , λ5 + v57 ) = 12
II.4 II.4
Algor Algorith ithme mess matric matriciel ielss
On considère un graphe G = (E, U ) sans circuit de longueur négative. On (k) considère les matrices L(k) = (lij ) pour k ≥ 1 en posant L(0) = (vij ) et où (k)
(k−1)
lij = min(lij
(k−1)
(k−1)
+ lkj ) est la longueur du plus court chemin entre i et j dont les sommets intermédiaires sont dans {1, · · · , k}. L(n) = L est la matrice matrice des plus courts courts chemins chemins entre deux sommets. sommets. , lik
II.4. ALGORITHMES MATRICIELS MATRICIELS II.4 .a
19
Algo Algorit rithm hme e de Flo Floyd
Début Pour i = 1 à n Faire Lire(lij ) ; {lij = vij , (+∞ si (i, j ) ∈ / U )} Pour j = 1 à n Faire Lire(l Pour k = 1 à n Faire Pour i = 1 à n Faire Si (lik + lki ) ≥ 0 min(lij , lik + lkj ) Alors Pour j = 1 à n Faire lij ← min(l Sinon Sinon Fin ; {circuit de longueur négative.} Fin.
3
89:; ?>=< k 1 v y y v v −2
89:; ?>=< 3 k Fig.
89:; ?>=< 4
1 4
II.4 – Algorithme de Floyd
Dans le graphe de la figure [II.4], on obtient successivement,
Exemple Exemple :
(0) L
89:; ?>=<
C
2 v v v3 r r r r t t v r v r r 2 2 r r r v v v 4 v v r r v r r 7 7C C 2
=
(2) L
0 3 +∞ 2 0 2 −2 +∞ 0 +∞ 4 4
=
0 2 −2 6
L
3 0 1 4
5 2 0 4
3 2 1 0
3 2 1 0
= L(4) =
,
,
(1) L
(3) L
0 0 −2 2
3 0 1 4
=
=
0 2 −2 +∞
0 0 −2 2
5 2 0 4
3 2 1 0
3 0 1 4
.
3 +∞ 0 2 1 0 4 4 5 2 0 4
3 2 1 0
3 2 1 0
,
,
20
Exercices du chapitre II Exercice Exercice II.1 A la date 1, une personne achète une voiture de 15 000 ¤. Le coût de maintenance annuelle annuelle du véhicule véhicule dépend de son âge pris au début de l’année : âge de de la voitu voiture re coût coût de main mainten tenanc ance e 0 1 000 ¤ 1 1 500 ¤ 2 2 300 ¤ 3 3 500 ¤ 4 5 300 ¤ Pour minimiser les coûts de maintenance, cette personne envisage d’échanger sa voiture contre une neuve. Elle doit alors payer la différence entre le prix d’une voiture neuve (supposé de 15 000 ¤) et le coût de reprise de l’ancienne, donné dans le tableau suivant suivant : âge de de la voit voitur ure e prix prix de de repr reprise ise 1 12 000 ¤ 2 7 500 ¤ 3 6 000 ¤ 4 3 500 ¤ 5 2 000 ¤ Que doit doit faire faire la personn personnee pour minimiser minimiser ses dépenses dépenses sachan sachantt qu’elle qu’elle doit vendre sa voiture à la fin de la 5ème année?
Exercice Exercice II.2 Exécuter l’algorithme de Dijkstra sur le graphe ci-dessous en choisissant C puis F comme sommets sources.
89:; ?>=<
` ` B P i i z
P P i i z z P P i i z z z z P P i i i z 7 z z 1 i i P z i i 5 P P z z i i P z P P i i z z z i i P z z z 4 4 8 G G o A P F i C 13 P y y i i i i P P i i P P i i P P i i6 1 P 4 i i 10 P i i P P i i P P i i Õ Õ
89:; ?>=< 89:; ?>=<
89:; ?>=< E o
89:; ?>=< 89:; ?>=<
4 4
2
89:; ?>=< D
21
Exercice Exercice II.3 Exécuter l’algorithme de Floyd pour déterminer les chemins de valeur maximale entre entre tout couple de sommets sommets dans le graphe suivant suivant :
89:; ?>=<
c c C d ~ ~ v v d d
d d3 4 ~ ~ d d ~ ~ d d ~ ~ ~ 2 2 4 A d −6 B d d ~ d d d ~ d d8 d d2 ~ d d d d ~ ~ ~ d d ~ ~ 2 d d 1 1 ~ ~ 1 1 G E D 1
89:; ?>=<
89:; ?>=<
89:; ?>=<
89:; ?>=<
Peut-on appliquer l’algorithme pour la recherche de chemin de valeur minimale?
22
23
Chapitre III
Ordonnancement III.1 III.1
Positio osition n du prob problèm lèmee
On appelle problème d’ordonnancement un problème dans lequel les trois conditions suivantes suivantes sont réalisées : Il s’agit d’étudier comment on doit réaliser quelque chose.
Il peut s’agir d’un grand ensemble (maison, usine, navire, · · · ), d’une production d’atelier (construction mécanique, imprimerie, . . .), d’un ensemble d’opérations d’entretien à effectuer périodiquement pour maintenir un matériel en état de fonctionnem fonctionnement ent,, ou encore d’un emploi du temps . . . Ce quelque chose est décomposable en tâches.
Ces tâches correspondent soit à des opérations élémentaires, soit à des groupements d’opérations selon que l’on veut aller plus ou moins loin dans le détail. La décomposition n’est en général pas unique et demande une analyse minutieuse. La définition de chaque tâche peut nécessiter de grandes connaissances technologiques ainsi qu’une expérience des modèles d’ordonnancement dont elle constitue l’élément de base. Si l’on considère n tâches numérotées de 1 à n, ( n pouvant varier de quelques dizaines à quelques milliers), il est indispensable que pour chaque tâche les notions suivantes suivantes soient clairement définies : 1. époque de début, notée ti pour la tâche i. 2. durée d’exécution d’exécution,, notée di pour la tâche i. Si l’on suppose que cette durée est convenablement évaluée (en fait on sera souvent amené à considérer une valeur moyenne avec son écart type), et qu’aucune interruption prévisible ne doive intervenir durant l’exécution de la tâche i, on peut considérer que celle-ci sera achevée à l’époque f i = ti + di . Souvent pour déterminer cette époque on s’intéressera aux moyens qu’il faut affecter pour son exécution (moyens humains et matériels). Mais même quand ces moyens jouent un rôle important c’est toujours par l’intermédiaire de ces deux nombres qu’ils se manifestero manifesteront nt dans les calculs. Cette réalisation est soumise à un ensemble de contraintes.
CHAPITRE CHAPITRE III. ORDONNANCEME ORDONNANCEMENT NT
24
Ces contrainte contraintess sont imposées par : – Le matériel. matériel. – La main d’oeuvre. d’oeuvre. – La technologie technologie : une tâche tâche ne peut souvent souvent débuter débuter que lorsque lorsque certaines certaines autres sont achevées. – Le commerce : certaines tâches tâches doivent doivent être terminées terminées avant avant un délai fixé. – Les fournisseurs fournisseurs : la livraison de matières matières premières risque risque de limiter inférieuremen rieurementt l’époque de début début de certaines tâches, tâches, · · · – Le climat : il est des tâches tâches irréalisables irréalisables à certaines certaines époques de l’année. Le choix de l’ordonnancement est généralement guidé par des critères tels que: – coût ou durée totale totale minimaux. – immobilisation immobilisation,, attente attentes, s, pénalités pénalités minimales. minimales. – Production Production maximale. maximale. – Sécurité Sécurité ou souplesse maximales, maximales, . . . Après avoir donné une formulation analytique convenable du problème, on est conduit à la recherche d’un optimum. L’analyse des contraintes permettra de déterminer les tâches clefs, c’est à dire celles qui ne supporteront que peu d’écart par rapport aux prévisions si l’on ne veut pas introduire des perturbations graves dans l’exécution.
III.2 III.2 .a .a
Princi Principau paux x types types de contra contrain intes tes Contrai Contraint ntes es de de type type poten potentiel tiel
Elles sont sont de deux types : Localisation Localisation temporelle : elles imposent à une tâche i quelconque d’être située à certains certains moments moments : ne pas débuter avant avant une certaine certaine époque (climat, matières premières non livrées, . . .) ou, au contraire, d’être terminées au plus tard avant une époque donnée (exigences commerciales, . . .). On peut les mettre sous la forme suivante suivante : ti > ei ti < ei
En effet, si l’on veut exprimer qu’une tâche i doit être terminée avant l’époque limite Li , il vien vientt : ti + di < Li
succes succession sion : elles viennent limiter l’intervalle de temps qui s’écoule entre les débuts de deux tâches i et j . On peut les mettre mettre sous sous la forme forme : tj − ti > aij tj − ti < aij
Par exemple si la tâche j ne peut commencer avant que la tâche i ne soit termin terminée ée on aura aura : tj > ti + di
III.3. III.3. EXEMPL EXEMPLE E DE PROBLÈ PROBLÈME ME :
25
Plus généralement si la tâche j ne peut commencer avant que la tâche i n’ait atteint un certain degré d’avancement a on aura aura : tj > ti + a.di
III.2 .b .b
Contrai Contraint ntes es de type type disjo disjoncti nctif f
Ce sont les contraintes traduisant que les intervalles de temps durant lesquels doivent être exécutées deux tâches i et j ne peuvent avoir de partie commune, ce qui se traduit traduit par : [ti , ti + di ] ∩ [tj , tj + dj ] = ∅ Cela arrive,entre autres, quand les deux tâches réclament l’utilisation d’un matériel unique susceptible susceptible de n’en accomplir accomplir qu’une seule à la fois. Si l’on connaît connaît l’ordre de succession, succession, par exemple exemple i avant j , on tradui traduira ra par : tj > ti + di
III.3 III.3
Exem Exempl plee de prob problè lème me :
On s’intéresse à la construction d’un complexe hydro-électrique. Après une première première approche, on a répertorié répertorié les opérations opérations suivantes suivantes : 1. Construction Construction des voies d’accès. d’accès. 2. Travaux ravaux de terrassement. 3. Construction des bâtiments d’administration. d’administration. 4. Commande Commande du matériel électrique. électrique. 5. Constructio Construction n de la centrale. centrale. 6. Constructio Construction n du barrage. 7. Constructio Construction n des galeries galeries et conduites. conduites. 8. Installation Installation des machines. machines. 9. Tests de fonctionnement. On supposera que toutes les contraintes sont des contraintes de succession, résumées sumées dans le tableau ci-dessous ci-dessous : Opéra Opérati tions ons Duré Durée e (m (mois ois)) prépré-re requ quis is 1 4 6 1 2 4 3 4 12 5 10 2, 3, 4 6 24 2, 3 7 7 1 8 10 5, 7 9 3 6, 8 Les deux principales méthodes pour résoudre les problèmes d’ordonnancement sont les méthodes MPM et PERT . Elles sont exposées dans les deux sections suivantes.
CHAPITRE CHAPITRE III. ORDONNANCEME ORDONNANCEMENT NT
26
III.4 III.4
La mét métho hod de MP MPM M
MPM signifie "méthode des potentiels Métra". Dans le graphe de représentation, un sommet correspond à une tâche, un arc définit une relation d’antériorité. La longueur de l’arc donne le temps minimum qui doit s’écouler entre la tâche origine et le début de la tâche extrémité. Lorsque les contraintes sont uniquement des contraintes de succession, la longueur de l’arc sera donc égale à la durée de la tâche origine.
III.4 III.4 .a
Cons Constru tructi ction on du du grap graphe he MPM MPM
On établit d’abord un tableau donnant les tâches et, pour chacune d’entre elles, les opérations pré-requises. On ordonne les tâches (qui seront les sommets du graphe) en partant de la tâche origine (début). Pour cela on se sert du tableau initia initiall : La classe 0 est obtenue en prenant les tâches sans pré-requis (sommets sans prédéc prédécess esseur eur). ). On raye raye ensuit ensuitee les sommet sommetss ainsi ainsi obten obtenus, us, et la classe classe 1 est obtenue en prenant les nouveaux sommets sans prédécesseur, on continue jusqu’à épuisement des tâches. Dans l’exemple l’exemple [III.3], on obtient obtient ainsi les classes :
{ 1, 3 , 4 } , { 2 , 7 } , { 5, 6 } , { 8 } , { 9 } . Les sommets sont disposés de gauche à droite de façon à limiter le nombre d’intersections entre les arcs. Un arc relie un sommet i à un sommet j si i est un pré-requis de j . Chaque sommet est figuré par un rectangle où figurent les informations suivante vantess : x : nom de la tâche. (en bas) T x : date de début au plus tôt de la tâche. (en haut à gauche) T x∗ : date de début au plus tard de la tâche. (en bas à droite)
On introduit une tâche supplémentaire ou tâche fin, Z et une tâche initiale W qui précède toutes les autres. Elles sont évidemment de durée nulle.
III.4 III.4 .b
Déter Détermi mina natio tion n du calend calendrie rier r au plus tôt tôt
Pour chaque sommet x, on considère T x, chemin le plus long de 0 à x ; cela garantit que toutes les contraintes d’antériorité seront respectées. L’ensemble des arcs qui contribuent à la détermination de la date de fin des travaux T Z constitue constitue le chemin chemin critique. critique. Pour Pour déterm détermine inerr ce chemi chemin, n, on peut utilise utiliserr l’algorithme l’algorithme de Ford, modifié pour la déterminat détermination ion de chemin chemin maximal. maximal. Pour la tâche W , on pose T W W = 0. Pour une tâche x quelconque, T x est la longueur du plus long chemin conduisant de W à x. La figure [III.1] correspond au graphe de l’exemple [III.3]. Disposition pratique pratique On utilise la disposition disposition suivante suivante pour effectuer effectuer les calculs :
III.4. III.4. LA MÉTHO MÉTHODE DE MPM 0: 0|
1
W
:0
22 : 8 12 |5 : 10 4 |7 : 7
27
4: 2 0 |1 : 4
0: 3 0 |W : 0
34 : 9 10 |6 : 24 22 |8 : 10
37 : Z 34 | 9 : 3
0: 4 0 |W : 0
12 : 5 4 |2 : 6 0 |3 : 4 0 |4 : 12
10 : 6 4 |2 : 6 0 |3 : 4
4: 7 0 |1 : 4
Le chemin critique est ici, {W, 1, 2, 6, 9, Z }.
III.4 III.4 .c
Déter Détermi mina natio tion n du calend calendrie rier r au plus plus tard
Il s’agit de déterminer pour chaque tâche x la date au plus tard T x∗ telle que la date de fin des travaux T Z ne soit pas retardée. On utilise la procédure suivant suivantee : 1. On pose T Z∗ = T Z . 2. Soit x un sommet dont tous les suivants sont marqués (ce qui implique que T y∗ est connu), alors, T x∗ = min (T y∗ − dx ). y ∈Γ(x)
En effet, les contraintes imposent que T x∗ + dx ≤ T y∗.
III.4 III.4 .d
Marg Marge e tot total ale e
C’est le retard maximum que l’on peut prendre dans la mise en route d’une tâche sans remettre en cause les dates au plus tard des tâches suivantes et donc retarder la fin des travaux. Pour une tâche x, elle est égale à T x∗ − T x .
III.4 III.4 .e
Marg Marge e libr libre e
C’est le retard maximum que l’on peut prendre dans la mise en route d’une tâche sans remettre en cause la date au plus tôt d’aucune autre tâche. Elle est égale à min (T y − T x − dx ).
y ∈Γ(x)
III.4 III.4 .f
Syn Synthès thèse e
On réunit les résultats obtenus précédemment précédemment dans un tableau récapitulatif :
CHAPITRE CHAPITRE III. ORDONNANCEME ORDONNANCEMENT NT
28 Tâc Tâche
Date Date au plus plus tôt tôt
Date Date au plus plus tard tard
Marg Marge e tota totale le
Marg Marge e libr libre e
1
0 4 0 0 12 10 4 22 34 37
0 4 6 2 14 10 17 24 34
0 0 6 2 2 0 13 2 0
0 0 6 0 0 0 11 2 0
2 3 4 5 6 7 8 9 Z
III.4. III.4. LA MÉTHO MÉTHODE DE MPM
29
0
0
W
0
0 0
0
0
0
6
1
0
3
2
4
4 4
4
17
4
12
7
4
4
4
2
6 6
12
14
10
10
7 5
6
10
22
24
24 8
10
34
34
9
3
37
37
Z
Fig.
III.1 – Graphe MPM
CHAPITRE CHAPITRE III. ORDONNANCEME ORDONNANCEMENT NT
30
III.5 III.5
La mé méth thode ode PER PERT
Les principes principes diffèrent de ceux de la méthode méthode MPM : à chaque tâche tâche correspond un arc du graphe dont la longueur est égale à la durée de la tâche. Chaque sommet du graphe correspond correspond à une étape signifiant signifiant : Toutes les tâches qui arrivent sont terminées Toutes les tâches qui partent peuvent commencer
III.5 III.5 .a
Cons Constru tructi ction on du gra graph phe e PERT PERT
Chaque Chaque sommet est représent représentéé par un cercle où figurent figurent : X : étape (en bas) tx : date attendue de l’étape X (en haut à gauche). t∗x : date au plus tard de l’étape X (en haut à droite). On ajoute un sommet initial d’où partent toutes les tâches dont la mise en route n’est soumise à aucune contrainte d’antériorité et un sommet final auquel aboutissent toutes les tâches n’ayant pas de suivante. On est parfois obligé d’introduire des tâches fictives, ainsi dans l’exemple [III.3], pour tenir compte du fait que les tâches 2, 3, 4 sont antérieures à la tâche 5 alors que seules les tâches 2, 3 sont antérieure à la tâche 6, on introduit une tâche fictive de longueur nulle entre l’étape 3 à laquelle aboutissent les tâches 3 et 2 et l’étape 4 à laquelle aboutit également la tâche 4. La figure [III.2] correspond au graphe de l’exemple [III.3].
III.5 III.5 .b .b
Cale Calend ndrie rier r au plus plus tôt
A chaque sommet x on affecte une date tx égale à la longueur du chemin le plus long allant du sommet 1 au sommet x. tx est la date attendue de l’événement x, elle est égale à la date au plus tôt de toutes les tâches partant du sommet x.
III.5 III.5 .c
Calen Calendr drier ier au plus plus tard tard
Pour chaque étape x, on détermine t∗x date de réalisation de x telle que la date au plus tôt de la fin des travaux ne soit pas retardée. On utilise la procédure suivant suivantee : ∗ 1. On pose tZ = tZ . 2. Pour un sommet x ayant tous ses suivants marqués, on pose t∗x = min (ty∗ − dk ) y ∈Γ(x)
où k est une tâche joignant x à y .
III.5 III.5 .d
Marg Marges es tota totale less :
Idem que par la méthode MPM.
III.5 III.5 .e
Marg Marges es libr libres es :
Pour une tâche k joignant joignant un sommet x à un sommet y , elle est égale à ty − tx − dk .
III.5. LA MÉTHODE MÉTHODE PER PERT
31
00
00 1 1
{1}
4 {3}
4
4
4
{4}
12
2
{2}
6 {7}
10
10
12
7
3
14 4
{5}
10
22
{6}
24
24 5
{8}
10
34
34 6
{9}
3
37
37 7
Fig.
III.2 – Graphe PERT
32
Exercices du chapitre III Exerci Exercice ce III.1 Un producteur de cinéma a planifié planifié les tâches tâches suivante suivantess pour son prochain prochain film :
Code de la tâche A
Définition Choix Choix du scénascénario
Durée (en jours) 30
B
Choix et recrutement ment des des comé comé-diens
45
C
Choi Choix x des des lieux lieux de tournage
30
D E
Déco Découp upag agee des des scènes Prépar Préparati ation on des décors
15 21
F
Tournage des extérieurs
35
G
Tournage des intérieurs
21
H
Synchronisation
7
I
Montage
21
J
Bande sonore
14
K
Mixage
7
L
Tirage de la première copie
1
Antériorités Ne peut commen mencer cer que que 20 jours après le début de A Ne peut commen mencer cer que que 25 jours après le début de A A et C doiv doiveent être terminées C et D doiv doiveent être terminées A, B, C et D doivent doivent être terminées D, E et F doivent être terminées F et G doiv oivent ent être terminées H doit être terminée H, ne peut commencer que 7 jours après le début de I I et J doivent être terminées K doit doit être être terterminée
1. Supprimer les contraintes obtenues par transitivité et ordonner ordonner les tâches. 2. Déterminer Déterminer par la méthode méthode MPM l’ordonnance l’ordonnancemen mentt au plus tôt des différentes tâches et indiquer le chemin critique. 3. Tracer le graphe MPM. MPM. 4. Tracer le graphe PERT. PERT.
33
Deuxième partie
Programmation Linéaire
35
Chapitre I
Présentation La programmation linéaire est un des domaines les plus utilisés de la RO. Elle permet de traiter un vaste ensemble de problèmes d’optimisation dans des contextes divers comme la gestion de stocks, flux de transport, distribution de tâches à des personnels, recherche de plans de fabrication etc . . . La modélisation de ces problèmes débouche sur des équations ou inéquations linéaires (exprimant les différentes contraintes) dont on cherche les solutions permettant d’optimiser une fonction économique elle-même linéaire. De plus on supposera que les variables considérées sont astreintes à être positives (contraintes de positivité). On appelle une telle formulation un programme linéaire (PL).
I.1 I.1
Prés Présen entat tation ion d’un d’un ex exem empl plee :
Un industriel fabrique un engrais dans lequel interviennent trois composants de base P 1 , P 2 , P 3 dont les cours sont fluctuants et dont on suppose que les quantités disponibles sont illimitées. Suivant le prix de ces composants, l’industriel détermine les pourcentages de chacun d’entre eux x1 , x2 , x3 devant entrer dans la composition du produit final, sachant que certaines normes de fabrication doivent être respectées. On notera c1 , c2 , c3 les coûts respectifs d’une unité des produits produits P 1 , P 2 , P 3 . Le coût de fabrication fabrication d’une d’une unité d’engrais d’engrais est : z = c 1 x1 + c 2 x2 + c 3 x3
qui définit la fonction économique du problème et que l’on doit minimiser. De plus l’engrais doit présenter un taux de potasse minimum b1 . Notons a11 , a 12 , a 13 les taux de potasse minimum respectifs de P 1 , P 2 , P 3 , la proportion de potasse dans dans le produit produit final est : a11 x1 + a12 x2 + a13 x3 et l’on doit avoir, a11 x1 + a12 x2 + a13 x3 ≥ b1
De la même manière on suppose que la teneur en nitrate ne doit pas descendre en dessous d’une certaine valeur b2 , en notant a21 , a22 , a23 les teneurs respectives en nitrate de P 1 , P 2 , P 3 , on doit donc avoir, a21 x1 + a22 x2 + a23 x3 ≥ b2
CHAPITRE I. PRÉSENTA PRÉSENTATION
36
De plus, comme les xi sont des pourcentages (exprimé en centièmes 100% est ramené à 1), on a l’équation, x1 + x2 + x3 = 1 .
Par ailleurs les contraintes de positivité impliquent que xi ≥ 0, pour i = 1 , 2, 3. On obtient obtient ainsi la formulation formulation du problème à résoudre : min(z ) = c1 x1 + c2 x2 + c3 x3
a11 x1 + a12 x2 + a13 x3 ≥ a21 x1 + a22 x2 + a23 x3 ≥ x1 + x2 + x3 = xi ≥ 0, pour i ∈ { 1, 2, 3}
(I.1) b1 b2
(I.2)
1
l’ensemble ainsi formé est un PL, la fonction économique est donnée par l’équation (I.1), tandis que le système (I.2) détermine les contraintes du problème. Les variables xi sont appelées variables structurelles ou variables de décision. La résolution du problème consiste à déterminer les valeurs des xi qui optimisent la fonction z (qui est une fonction des variables xi ). n
ti =
aij xj − bi est appelée variable d’écart, ti ≥ 0. Son introduction dans
j =1
chacune des contraintes, hors celles de positivité, permet d’obtenir des équations et conduit à une formulation dite standard du PL. Ici on obtient obtient : min(z ) = c1 x1 + c2 x2 + c3 x3
I.2 I.2
a11 x1 a21 x1 x1 xi ≥ 0,
+ a12 x2 + a13 x3 + a22 x2 + a23 x3 x2 + x3 + pour i ∈ { 1, 2, 3}
(I.3)
+ t1 + t2
= b1 = b2 = 1
(I.4)
Forme orme stan standa dard rd des des probl problèm èmes es de PL PL
I.2 I.2 .a
Prés Présen entat tatio ion n géné général rale e:
Pour les problèmes à maximum de la fonction économique, les contraintes par rapport aux seconds membres bi seront de du type ≤ tandis que pour les problèmes à minimum elles seront du type ≥. On obtient ainsi les deux formulation suivantes appelées formes canoniques : n
max(z ) =
n
c j xj
min(z ) =
j =1
n
cj xj
j=1
n
aij xj ≤ bi , i ∈ {1, . . . , m}
j=1
xj ≥ 0, pour j ∈ { 1, . . . , n}
aij xj ≥ bi , i ∈ {1, . . . , m}
j=1
xj ≥ 0, pour j ∈ { 1, . . . , n}
Remarques Remarques : 1. Minimiser Minimiser la fonction fonction économique économique z revient à maximiser −z : on change ci en ci = −ci.
I.2. FORME FORME STANDA STANDARD RD DES PROBLÈMES PROBLÈMES DE PL
37
2. Les contraintes peuvent toujours se ramener à des égalités en introduin
sant les variables d’écarts ti égales à ti = bi −
aij xj dans le cas d’un
j =1
n
maximum (resp. ti =
aij xj − bi dans le cas d’un minimum).
j=1
On obtient la formule standard suivant suivantee : n
max(z ) =
(I.5)
cj xj
j =1
n
aij xj = bi , i ∈ { 1, . . . , m}
(I.6)
j=1
xj ≥ 0, pour j ∈ {1, . . . , n}
I.2 I.2 .b
Forme orme matri matrici ciell elle e:
a11
.. .
Soit, A =
· · · a1m .. .
la matrice représentant les coefficients des
· · · amn contrain contraintes tes (avec (avec l’adjonction l’adjonction des variable variabless d’écart, d’écart, on a toujours toujours n ≥ m). am1
x1
X =
.. .
c1
, C =
xn
.. .
respectivement le vecteur des solutions et des
cn
a1 j
coefficients de la fonction économique, et pour j ∈ {1, . . . , n}, P j =
am j
b1
les vecteurs colonnes de la matrice A, B =
.. .
.. .
. La formulation du PL se
bm
résume résume à :
n
t
n
min{z = C.X | A.X = B, X ∈ R+ } ou encore
j=1
P j xj = B
(I.7)
CHAPITRE I. PRÉSENTA PRÉSENTATION
38
I.3 I.3
Résol Résolut ution ion d’un d’un systè système me d’équa d’équatio tions ns par la méthode méthode du pivot pivot de Gauss Gauss : n
Partant Partant d’un système d’équations d’équations du type :
aij xj = bi , i ∈ {1, . . . , m},
j =1
on suppose que les différentes équations du système sont linéairement indépendantes, ce qui revient à dire que la matrice A, définie à la section précédente, est de rang m (ce qui est toujours acquis avec l’introduction des variables d’écart). Après réduction réduction par l’utilisatio l’utilisation n de la méthode du pivot, pivot, on arrive arrive à une formulation du type,
x1 x2
..
+ +
a1 ,m+1 xm+1 a2 ,m+1 xm+1
+
a
. xm
variables
+ ... + + ... +
en base
m,m+1 xm+1
var iabl es
+
... ...
hors
a1 n xn a2 n xn
+ amn xn
= =
b1 b2
= bm
b ase
Les variables x1 , . . . , xm (on a éventuellement changé la numérotation au cours des calculs pour qu’elles apparaissent dans cet ordre) sont appelées variables variables en base. Les variables restantes i.e. xm+1 , . . . , xn sont appelées variables hors base. Dans cette configuration, une solution évidente du système de départ sera sera : xi = b i, pour i ∈ { 1, . . . , m} et xi = 0, pour i ∈ { m + 1, . . . , n}.
Cette solution est de base réalisable réalisable.. Ce type de solution sera utilisé ultérieurement dans la méthode du simplexe.
I.4 I.4
Défin Définit itio ion ns :
Solution réalisable réalisable : On appelle appelle ainsi toute toute soluti solution on du système système (I.6) (y compri compriss donc donc les contraintes de positivité). Variables de base : tout sous-ensemble xi1 , . . . , xim de m variables prises parmi x1 , . . . , xn et telles que les vecteurs associés P i1 , . . . , Pi m forment une base de Rm donc que la matrice qu’ils forment, qui est carrée d’ordre m, soit inversible. Solution de base : Toute solution comportant n − m variables nulles et telles que les m restantes soient des variables de base. Solution de base réalisable : Toute solution de base qui satisfait aux contraintes (I.6). Solution optimale optimale : Toute solution réalisable qui optimise z. Si une telle solution existe, il y a au moins une qui est de base et réalisable.
I.5. RÉSOLUTION RÉSOLUTION GRAPHIQUE GRAPHIQUE D’UN D’UN PL: PL :
I.5 I.5 I.5 I.5 .a
39
Réso Résolu lutio tion n graph graphiq ique ue d’un d’un PL : Exem Exempl ples es :
1. Problème Problème borné à solution unique unique (voir (voir fig.(I.1) fig.(I.1) : max(z ) = x1 + 3x2
x1 + x2 −2x1 + 3x2 2x 1 − x 2 x1 , x2
≤ 14 ≤ 12 ≤ 12 ≥ 0
2. Problème Problème borné avec infinité infinité de solutions solutions (voir fig.(I.2) fig.(I.2) : max(z ) = x1 + x2
x1 −2x1 2x 1
+ x2 + 3x2 − x2 x1 , x2
≤ 14 ≤ 12 ≤ 12 ≥ 0
3. Problème Problème non borné sans solution solution (voir (voir fig.(I.3) fig.(I.3) : max(z ) = x1 + x2
−x1 −x1
+ x2 + 2x2 x1 , x2
≤ 1 ≤ 4 ≥ 0
4. Problème Problème non borné avec une solution solution unique (voir (voir fig.(I.4) fig.(I.4) : max(z ) = −3x1 + 4x2
−x1 −x1
+ x2 + 2x2 x1 , x2
≤ 1 ≤ 4 ≥ 0
Dans le cas où il n’y a que deux variables structurelles, on peut effectuer une résolution graphique. L’espace des décisions est ici le plan (x1 , x2 ). L’ensemble des solutions réalisables, dans le cas d’un problème borné, constitue un polygone convexe convexe : (O, A, B, C, D ) dans l’exemple 1 ci-dessus. Dans le cas général, si le PL a des solutions, il en existe toujours au moins une qui est de base, c’est un sommet (ou point extrême) extrême) du polygone. Dans le PL de l’exemple 1, le point B (6, 8) pour lequel la fonction économique z vaut 30 donne l’optimum. Toutes les droites d’équation z = x1 + 3x2 sont parallèles, en les déplaçant vers le haut, tout en restant au contact du polygone convexe (O, A, B, C, D ), on obtient comme limite le point B . Dans l’exemple 2, la fonction économique z = x1 + x2 , conduit à une infinité de solutions constituées par le segment [B, C ], z vaut 14 sur ce segment. Dans les exemples 3 et 4, l’ensemble des solutions réalisables est non borné, dans ce cas la solution peut-être infinie (ex. 3) ou exister (ex. 4) cf les figures à la fin du chapitre. Enfin dans le cas de contraintes contradictoires, l’ensemble est vide, il n’y alors pas de solution.
CHAPITRE I. PRÉSENTA PRÉSENTATION
40
I.6
Cas général :
L’ensemble des solutions réalisables d’un PL détermine dans l’ espace des décisions (Rn ) un ensemble convexe appelé domaine réalisable, réalisable, qui est, – soit l’ensemble l’ensemble vide, vide, – soit un ensemble ensemble polyédrique polyédrique convexe convexe non borné, – soit un polyèdre convexe convexe.. Dans le cas où le PL admet des solutions, il existe toujours une solution située sur un des sommets, appelés points extrêmes, extrêmes, du polyèdre.
41
Exercices du chapitre I Exercice Exercice I.1 Une entreprise fabrique deux produits P 1 et P 2 qui nécéssitent du temps de travail(main travail(main d’œuvre), du temps-machine et des matières premières. Les données techniques de production ainsi que les prix de vente par unité sont donnés dans le tableau ci-dessou ci-dessouss :
Quantité de travail (en h) nécessaire à la fabrication d’une unité Quan Quanti tité té de temp tempssmachine (en h) nécessaire saire à la fabr fabric icat ation ion d’une unité Quan Quanti tité té de matiè matière re premiè première re (en nombre nombre d’unité u) nécess nécessaire aire à la fabric fabricati ation on d’une d’une unité de produit Prix de vente par unité (en ¤)
P 1
P 2
0.07
0.04
0.12
0.06
2
1
15
8
Chaque semaine, au plus, 4000 unités de matière première sont disponibles au prix de 1.5¤ par unité. L’entreprise emploie 4 ouvriers qui travaillent 35 heures par semaine pour la main d’œuvre. Ces personnes peuvent faire des heures supplémentaires payée 10 ¤ l’unité. La disponibilité hebdomadaire des machines est de 320h. Sans publicité, la demande hebdomadaire du produit P 1 est de 500 unités, celle de P 2 de 600 600.. Chaque ¤ dépensé en publicité pour P 1 (resp. P 2 ) augmente la demande hebdomadaire de 10 (resp. 15 15)) unités. Les frais de publicité ne doivent pas dépasse 1000 ¤ et les quantités fabriquées doivent rester inférieures ou égales à la demande réelle (compte-tenu de la publicité). On définit définit les 6 variables suivan suivantes tes : X1 : nombre d’unités de P 1 fabriquées par semaine. X2 : nombre d’unités de P 2 fabriquées par semaine. HS : nombre total d’heures supplémentaires effectuées par semaine. MP : nombre nombre d’unités d’unités de matière première achetées achetées par semaine. PUB1 : nombre d’¤ dépensés en publicité pour P 1 . PUB2 : nombre d’¤ dépensés en publicité pour P 2 . L’entreprise désire maximiser son profit sachant que,
Bénéfice = Chiffre des ventes - Somme des coûts variables.
42 Les salaires (pour les heures normales) sont un coût fixe pour l’entreprise. Question : Modéliser le problème sous forme d’un PL que l’on ne demande pas de résoudre.
Exercice Exercice I.2 On cherche comment approvisionner, au moindre coût, des clients en implantant un nombre p, donné a priori, de dépôts dans des sites préalablement recensés. Chaque client sera rattaché à un seul dépôt, un client quelconque pouvant être rattaché rattaché à n’importe quel dépôt. Les données données sont : – m le nombre de sites ( m ≥ p). – n le nombre de clients. – γ i le coût de construction d’un dépôt sur le site i (1 ≤ i ≤ m). – cij le coût de rattachement du client j à un dépôt construit sur le site i (1 ≤ i ≤ m, 1 ≤ j ≤ n). On prend comme inconnue inconnuess : xij = yi =
1 si le client j est rattaché au dépôt i 0 sinon 1 si le dépôt est construit sur le site i 0 sinon
Formuler ormuler : 1. La fonction économique économique du problème problème (coût de constructi construction on des entrepôts entrepôts + coût de rattachement). 2. Les contraintes contraintes exprimant exprimant que chaque client client est rattaché rattaché à un seul dépôt. 3. La contrainte contrainte exprimant exprimant que l’on doit construire construire exactemen exactementt p dépôts. 4. Que signifient signifient les contraint contraintes es supplémenta supplémentaires ires : xij ≤ yi , (1 ≤ i ≤ m, 1 ≤ j ≤ n)
(interpréter le cas yi = 1, puis yi = 0). 5. A la question précéden précédente, te, on a introduit m.n contraintes. Montrer que l’on peut remplacer celles-ci par seulement m contrain contraintes tes du type : n
xij ≤ n.yi
j=1
.
Exercice Exercice I.3 Résoudre Résoudre graphiquement graphiquement le PL suivant suivant:: max(z ) = x1 + 2x2
x1 −x1 x1
+ x2 + x2 x1 , x2
≤ ≤ ≤ ≥
3 1 2 0
43 Même question question pour le PL suivant suivant : max(z ) = x1 + 2x2
Exercice Exercice I.4
x1 x1 −x1
+ x2 + x2 x1 , x2
≤ 1 ≥ 6 = 12 ≥ 0
Un fabricant fabricant d’aliment d’aliment pour porcs, cherche cherche à optimiser optimiser la composition composition de celuici sachan sachantt qu’il qu’il n’ent n’entre re dans dans sa composi compositio tion n que trois ingréd ingrédien ients ts : Blé, maïs et soja. L’aliment devra comporter au moins 22% d’un composant C 1 et 4% d’un composant C 2 pour se conformer aux normes en vigueur. Les données sont résumées résumées dans le tableau tableau ci-dessous ci-dessous :
Pourcentage de C 1 Pourcentage de C 2 Coût Coût en ¤ par tonne
Bl é 12
So ja ja 52
Colza 42
2
2
10
25
41
39
1. Donner la formulation algébrique du PL en prenant comme variables variables structurelles les différents pourcentages requis pour obtenir une tonne d’aliment. 2. Montrer que l’on peut réduire à deux variables le PL et le résoudre graphiquement.
44 x2 3 0 = z = = x 1 1 +
3 x 2 2
Opt
B
8
C 0 = = z = = x 1 + 3 x 2
x 1 - 2
+
2 3 x
Fig.
=
z c r ro i s o s s a a n t
A x 1 + x 2 = 1 4
O
1 2
6
D
x1
2 1 = 2 x 1 x 2
I.1 – Représentation graphique en 2D, solution unique x2
0 = z = x 1 +
x 2
B
z c r o i s s a n t
C A x 1 + x 2 = 1 4
1 2 x - 2
Fig.
+
2 3 x
=
1 2
O
D 2 1 = 2 x 1 x 2
I.2 – Représentation graphique en 2D, infinité de solutions
x1
45
x2 c r z o i s s a n t 1 - x
1 = x 2 +
B
+ x 1 - x
= 2 x 2
4
A
O
x1 z = x 1 +
Fig.
x 2
I.3 – Problème non borné, pas de solution x2
x 1 -
1 = x 2 +
z = 6
=
1 x 3 -
+
2 x 4
Opt
B
3
+ - x 1
= 2 x 2
4
A
O
2
t z n s a i s o c r
Fig.
I.4 – Problème non borné, solution unique
x1
46
47
Chapitre II
La méthode du simplexe II.1 II.1 II.1 II.1 .a .a
Intr Introdu oduct ction ion Etud Etude e d’u d’un n exe exemp mple le :
Reprenons Reprenons l’exemple l’exemple 1 de la section section (III.2 .b) du chapitre chapitre précédent: précédent: max(z ) = x1 + 3x2
x1
−2x1 2x 1
+ x2 + 3x2 − x2 x1 , x2
≤ 14 ≤ 12 ≤ 12 ≥ 0
Pour obtenir des égalités, on introduit 3 variables d’écart t1 , t2 , t3 , qui seront les variable variabless de base initiales, avec avec x1 , x2 hors base et de valeur nulle. On obtient le système système :
z x1 −2x1 2x 1
− x1 + x2 + 3x2 − x2
− 3x2 t1 +
=
0
+ t2 + t3
= 14 = 12 = 12
La solution de base associée est (x1 , x2 , t1 , t2 , t3 ) = (0, 0, 14, 12, 12) avec z = 0. 0 . Le but est de maximiser z , on cherche si l’on peut augmenter les valeurs de x1 ou x2 en les faisant entrer en base et en faisant sortir l’une des variables ti (le nombre de variables en base est constant et égal à m (3 ici)). x2 a le plus fort coefficient dans la fonction économique, il est donc naturel de la faire entrer en base. Les différentes contraintes imposent, x2 ≤ 14, x2 ≤ 12 3 = 4 , x2 ≥ 0 , obtenues par les trois dernières équations du système. On retient la valeur x2 = 4, de la deuxième équation, ce qui va entraîner la sortie de t2 , x1 restant égale à 0. On utilise la méthode du pivot de Gauss, pour obtenir le nouveau système (ici, on divise le coefficient de x2 par 3 dans la deuxième équation et on remplace x2 par 23 x1 − 13 t2 + 4 dans les trois autres, on obtient obtient le nouveau nouveau système :
z 5 3 x1 − 32 x1 4 3 x1
− 3x 1 +
x2
+ t2 + t1
= − + +
12 1 3 t2 1 t 3 2 1 3 t2
+ t3
= 10 = 4 = 16
CHAPITRE CHAPITRE II. LA MÉTHODE MÉTHODE DU SIMPLEXE SIMPLEXE
48
La nouvelle solution de base est (x1 , x2 , t1 , t2 , t3 ) = (0, 4, 10, 0, 16) avec z = 12 12.. On cherche si on peut améliorer la solution, la seule possibilité ici est de faire entrer x1 en base, les contraintes conduisent à faire sortir t1 de la base et on obtient obtient ainsi le nouveau système système :
z 5 3 x1 − 32 x1 4 3 x1
9 5 t1
+ +
+ +
2 5 t2 t1
x2
= − + +
30 1 3 t2 1 3 t2 1 3 t2
+ t3
= 10 = 4 = 16
La nouvelle solution de base est (x1 , x2 , t1 , t2 , t3 ) = (6, 8, 0, 0, 8) avec z = 30 30.. Comme l’on doit avoir z = 30 − 95 t1 − 25 t2 , avec t 1 , t2 = 0, 0 , la solution obtenue est bien optimale. La solution du problème initial est (x1 , x2 ) = (6, 8), 8), on retrouve bien sûr ce que l’on avait obtenu par la résolution graphique.
II.1 .b
Dispo Disposit sitio ion n pratiq pratique ue des des calcu calculs ls :
On va représenter les données par un tableau (que l’on enrichira par la suite) comportant comportant les colonnes : (Variables en base, Seconds membres, Liste des variables) Dans notre exemple, nous obtenons successivement, Tableau initial : Base
B
x1
x2
t1
t2
t3
t1
14
1
1
1
0
0
t2
12
−2
89:; ?>=< 3
0
1
0
t3
12
2
−1
0
0
1
Tableau n◦ 2 : Le nombre 3 en gras, est appelé pivot, pivot, il est forcément strictement positif, on divise la ligne du pivot (dans l’exemple, la ligne de la variable t2 ) par le pivot pour que la valeur de celui-ci devienne égale à 1, puis par combinaison linéaire, en ajoutant la ligne du pivot multipliée par un coefficient tel que les valeurs de la colonne du pivot deviennent égales à 0 à chacune des autres lignes, on obtient le tableau suivant, en remplaçant dans la première colonne la variable sortante par la variable entrante. Ici, on multiplie la ligne du pivot par −1 et on l’ajoute à la première ligne, puis on multiplie la ligne du pivot par 1 (inchangée) et on l’ajoute à la dernière dernière ligne, pour obtenir obtenir les nouvelles nouvelles lignes, cela donne : Base
B
x1
x2
t1
t2
t3
t1
10
@ABC GFED 5 3
0
1
− 13
0
x2
4
1
0
16
0
0
1 3 1 3
0
t3
−2 3 4 3
1
II.2. L’ALGORITHME L’ALGORITHME DU SIMPLE SIMPLEXE XE : Ici le pivot est
5 3,
49
on opère comme précédemme précédemment. nt.
Tableau final : Base
B
x1
x2
t1
t2
t3
x1
6
1
0
− 51
0
x2
8
0
1
8
0
0
1 5 3 5
0
t3
3 5 2 5 − 45
1
Dans la colonne du vecteur B du dernier tableau figurent les valeurs des variable variabless en base : x1 = 6, x2 = 8, t3 = 8.
II.2 II.2
L’algo L’algori rith thme me du simp simplex lexee :
On part d’un PL mis sous forme standard dans lequel on suppose que l’on dispose d’une solution de base réalisable de départ. En général celle-ci est obtenue par les m variables d’écart ti qui prennent respectivement les m valeurs bi . Dans un problème à maximum, on va successivement, à chaque étape, faire entrer une variable en base, de telle sorte que la valeur de la fonction économique z augmente. augmente. On cherche cherche les solutions solutions aux point p ointss extrêmes extrêmes de l’ensemble l’ensemble convexe des solutions réalisables.
II.2 .a .a
Passa assage ge d’un d’un extrê extrême me à l’au l’autre tre
Considérons un point extrême (correspondant à une solution de base du PL), m
X = ( x1 , . . . , xm , 0, . . . , 0) où
xi P i = B, xi ≥ 0 et P 1 , . . . , Pm linéairement
i=1
indépendants (base de Rm ). Les n− m vecteurs P m+1 , . . . , Pn peuvent s’exprimer comme des combinaiso combinaisons ns linéaires des précédent précédents, s, on peut p eut écrire m
P j =
xij P i , j ∈ { m + 1, . . . , n}
(II.1)
i=1
Pour simplifier, supposons que l’on veuille faire entrer en base le vecteur P m+1 . Notons θ la valeur que l’on va donner à la variable xm+1 qui devient de base. m
On a θP m+1 =
θxi, m+1 P i , on peut donc écrire,
i=1
m
(xi − θxi, m+1 )P i + θP m+1 = B
(II.2)
i=1
On va chercher un point extrême voisin du point précédent. Pour cela, l’un des vecteurs P i initiaux doit sortir de base et un vecteur hors base doit y rentrer. Il faut déterminer quel vecteur sortant on va choisir. On doit avoir obligatoirement
CHAPITRE CHAPITRE II. LA MÉTHODE MÉTHODE DU SIMPLEXE SIMPLEXE
50
θ > 0, et xi − θxi, m+1 ≥ 0, ∀i ∈ { 1, . . . , m}. Cette dernière condition est acquise xi si xi, m+1 ≤ 0 pour les autres on doit avoir ≥ θ. On va donc choisi choisirr : xi, m+1 θ = θs =
min
{i|xi,m+1 >0}
xi xi,
m+1
Soit s l’indice qui donne ce minimum, on a donc θs =
(II.3) xs xs, m+1
. Le coefficient
de P s est donc nul et c’est le vecteur qui sort de base. La nouvelle base est donc (P i ), i ∈ {1, . . . , m + 1}\{s}. Si l’on suppose que s = 1, le nouveau point extrême serait, X = (0 , x2 − θs x2, m+1 , . . . , xm − θs xm, m+1 , θs , 0, . . . , 0)
II.2 .b .b
Choi Choix x de la var variab iable le entra entran nte
On va s’intéresser à la fonction économique. Avec les notations précédentes, m
sa valeur pour le premier point extrême était z0 = point extrême X on obtient, en posant zj =
ci xi , pour le nouveau
i=1
m
ci xij quantité appelée coût
i=1
fictif , m
z0 =
ci (xi − θs xij ) + θs cm+1 = z0 + θs (cm+1 − zm+1 )
i=1 =s i
On va choisir comme vecteur entrant celui dont l’indice e vérifie ce − ze =
max
(ci − zi ),
{i|ci −zi >0}
c’est celui qui est susceptible de donner le plus grand accroissement à la fonction économique. Dans le cas où tous les coûts fictifs sont négatifs ou nuls, on démontre que l’optimum est atteint. De plus, si pour un coût fictif positif, toutes les coordonnées xij de la colonne correspondante sont négatives ou nulles, on montre que le problème n’admet pas de solution (problème non borné).
II.3 II.3
L’algo L’algori rith thme me du simp simplex lexee :
Cet algorithme a été mis au point par George Dantzig en 1947. Il est basé sur les considérations précédentes.
II.3. L’ALGORITHME L’ALGORITHME DU SIMPLE SIMPLEXE XE : II.3 II.3 .a
51
L’al L’algo gori rith thme me : PL à maximum
Début
Mettre Mettre les contraintes contraintes sous forme d’égalités d’égalités ; Recherche Rechercherr une première première solution solution réalisable réalisable ; Construir Construiree le premier tableau du simplexe simplexe ; Tant que ∃ j ∈ {1, . . . , n} : (cj − zj ) > 0 Faire Si ∃k ∈ { 1, . . . , n} : (ck − zk ) > 0 et xij < 0 ∀i ∈ { 1, . . . , m} max(z ) = +∞ {pas de solution} Alors max(z Sinon Début
{Recherche des variables entrante et sortante } xe entre en base si ce − ze = max(c max(ck − zk ) ; bs bi xs sort si = min ( ); xie >0 xie xse {Construction du nouveau tableau, le pivot est xse } {Ligne du pivot} bs be ← {dans la colonne de B }; xse xsj xej {donc 1 pour xes }; ← xse {Autres lignes} xie bi ← bi − xs ; xse xie ; ← xij − xij xse x s z0 ← z0 + (ce − ze ) ; xse xsj cj − zj ← cj − zj − (ce − ze ) ; xse
Fin; Fin.
II.3 .b
Dispo Disposi sitio tion n prati pratiqu que e:
On suppose que les variables x1 , . . . , xm sont en base.
Base
c1 x1
c2 x2
0 1 .. . 0 0
x1 x2
C c1 c2
B b1 b2
.. .
.. .
.. .
1 0 .. .
xm
cm
bm z0
0 0
... ... ... ...
cm xm
.
0 0 .. .
... ...
1 0
..
cm+1 xm+1 x1,m+1 x2,m+1
... ... ... ...
cn xn x1,n x2,n
.. .
.. .
.. .
xm,m+1 cm+1 − zm+1
... ...
xm,n cn − zn
CHAPITRE CHAPITRE II. LA MÉTHODE MÉTHODE DU SIMPLEXE SIMPLEXE
52
II.3 II.3 .c
Traitem raitemen entt d’un d’un exe exemp mple le :
Soit le PL suivant suivant:: min(z ) = x2 − 3x3 + 2x5
3x2 − x3 −2x2 + 4x3 −4x2 + 3x3 xj ≥ 0, j ∈ {1, . . . , 6} x1
+
+ 2x5
+ x4
+ 8x5
+ x6
= 7 = 12 = 10
Les vecteurs P i et B correspondant aux variables xi sont les suivant suivantss :
P 1
1 0 0
P 2
3 −2 −4
−1 4 3
P 3
P 4
0 1 0
P 5
2 0 8
0 0 1
P 6
B
7 12 10
Une base initiale est formée par P 1 P 4 , P 6 , avec 7P 1 + 12P 4 + 10P 6 = B , X = (7, 0, 0, 12, 0, 10) est une solution solution de base réalisable. réalisable. Relativeme Relativement nt à cette cette base, on a, P 2 = 3P 1 − 2P 4 − 4P 6 , P 3 = −P 1 + 4 P 4 + 3 P 6 , P 5 = 2P 1 + 8 P 6 . Le problème étant un problème à minimum, on va maximiser −z et donc remplacer dans l’algorithme du simplexe ci par ci = −ci . Pour obtenir les valeurs de zi , on multiplie les valeurs de la colonne C par les valeurs correspondantes de la colonne relative à la variable xi , puis on calcule les valeurs ci − zi , on obtient ainsi, Tableau initial : 0
−1
3
0
−2
0
Base
C
B
x1
x2
x3
x4
x5
x6
x1
0
7
1
3
−1
0
2
0
89:; ?>=<
−2 1 0 0 4 x6 0 10 0 −4 3 0 8 1 0 0 −1 3 0 −2 0 Seul c3 − z3 > 0, x3 entre en base. Les valeurs pour lesquelles xi3 > 0 12 10 x4 x6 sont x43 , x63 , on calcule calcule les quotien quotients ts : = = 3 et = , la x43 x63 4 3 plus petite valeur est θ = 3, donc x4 sort de base, on calcule le deuxième tableau. x4
0
12
0
Tableau n◦ 2 : 0
−1
3
0
−2
0
Base
C
B
x1
x2
x3
x4
x5
x6
x1
0
10
1
@ABC GFED
0
1 4
2
0
5 2
1 0 − 21 1 0 0 4 5 3 0 −2 0 −4 8 1 1 3 0 0 − 4 −2 0 2 On a ici c2 − z2 > 0 et x2 entre en base tandis que x1 sort, avec θ = 4.
x3 x6
3 0
3 1 9
II.4. OBTENTION OBTENTION D’UNE BASE RÉALISABLE RÉALISABLE DE DÉPAR DÉPART T:
53
Tableau n◦ 3 :
Base
C
B
x2 x3 x6
−1 3 0
4 5 11 11 11
0
−1
3
0
−2
0
x1
x2
x3
x4
x5
x6
1 − 15
1 0 0 0
0 1 0 0
10 − 12 5
0 0 1 0
2 5 1 5
1 10 3 10 − 12 − 45
4 5 2 5
La solution optimale est X = (0, 4, 5, 0, 0, 11) et z0 = 11. 11 .
II.4 II.4
Obte Obten ntion tion d’un d’unee base base réalis réalisab able le de dép dépar artt :
Si le problème initial n’est pas sous la forme canonique, même en introduisant des variables d’écart, on n’obtiendra pas aisément une solution de base de départ: en effet certaines certaines des variables variables introduites introduites figureront figureront avec le coefficient coefficient −1 du fait du changement du sens de l’inégalité dans la contrainte correspondante. On sera donc amené à introduire de nouvelles variables, dites variables artificielles qui figureront provisoirement dans la formulation du PL jusqu’à l’obtentio l’obtention, n, si elle est possible, possible, d’une base de départ avec les variables ariables initiales. initiales. G. Dantzig et d’autres chercheurs de RAND Corporation ont mis au point la :
II.4 II.4 .a .a
Méth Méthod ode e en deux deux pha phase sess :
Début
Mettre Mettre les contraintes contraintes sous forme d’égalités d’égalités ; Rendre positif positif le second membre des contrain contraintes tes ; Introduire les variables artificielles vi dans les contrain contraintes tes : n
aij xj + vi = bi , xi , vj ≥ 0
j =1
Sous ces contraintes contraintes,, résoudre le PL : m
max(z max(z ) = −
vi
i=1
Si ∀i ∈ { 1, . . . , m}, vi = 0 Alors
Résoudre le PL initial en prenant comme solution de base de départ la solution obtenue à l’issue de la première phase Sinon Il n’y a pas de solution réalisable Fin.
Remarques Remarques : 1. On n’introduira n’introduira que le nombre nécessaire nécessaire de variables ariables artificielles artificielles ( ≤ m), c’est à dire dans les contraintes qui le nécessitent. 2. Lorsqu’une Lorsqu’une variable variable artificielle artificielle sort de base, cette sortie est définitive définitive et on la raye de la liste. 3. Le premier tableau du simplexe de la deuxième phase est identique au dernier tableau de la première phase, à l’exception de la dernière ligne où l’on reprend les coefficients initiaux de la fonction économique.
CHAPITRE CHAPITRE II. LA MÉTHODE MÉTHODE DU SIMPLEXE SIMPLEXE
54
II.4 II.4 .b
Exem Exempl ple e:
On veut résoudre résoudre le PL suivant suivant :
max(z ) = 5x1 + 7x2
≥ 6 ≥ 4 ≤ 3
+ x2
x1 x1
x2 x1 , x2 ≥ 0
On introduit les variables d’écart t1 , t2 , t3 ≥ 0 ce qui condui conduitt à : max(z ) = 5x1 + 7x2
−
+ x2
x1 x1
t1
− t2 + t3
x2 x1 , x2 , t1 , t2 , t3 ≥ 0
= 6 = 4 = 3
Les deux premières équations nécessitent nécessitent l’introduction l’introduction de deux variables variables artificielles v1 , v2 , on obtien obtientt : max(z ) = −v1 − v2
x1 x1
−
+ x2
+ v1
t1
− t2
+ v2 + t3
x2 x1 , x2 , t1 , t2 , t3 , v1 , v2 ≥ 0
= 6 = 4 = 3
Première Première phase : 0
0
0
0
0
−1
−1
Base
C
B
x1
x2
t1
t2
t3
v1
v2
v1
−1
6
1
1
−1
0
0
1
0
v2
−1
4
89:; ?>=< 1
0
0
−1
0
0
1
t3
0
3 −10
0 2
1 1
0 −1
0 −1
1 0
0 0
0 0
v2 sort et x1 rentre en base, on élimine v2 du problème problème :
0
0
0
0
0
−1
x2
t1
t2
t3
v1
Base
C
B
x1
v1
−1
2
0
89:; ?>=< 1
−1
1
0
1
x1 t3
0 0
4 3 −2
1 0 0
0 1 1
0 0 −1
−1 0 1
0 1 0
0 0 0
II.4. OBTENTION OBTENTION D’UNE BASE RÉALISABLE RÉALISABLE DE DÉPAR DÉPART T:
55
achève la première phase phase : v1 sort et x2 entre en base, on élimine v1 , ce qui achève
Base
C
B
0
0
0
0
0
x1
x2
t1
t2
t3
2 0 1 −1 1 −1 4 1 0 0 −1 1 0 0 1 0 0 0 0 0 Une solution solution de base réalisable est donc : X = (x1 , x2 , t1 , t2 , t3 ) = (4 , 2, 0, 0, 1). 1). Deuxième Deuxième phase : Le PL se formule sous la forme équivalen équivalente te suivante suivante:: 0 0 0
x2 x1 t3
0 0 1
max(z ) = 5x1 + 7x2
−
x2
t1
x1 t1
+ t2 − t2 − t2
+ t3
= 2 = 4 = 1
x1 , x2 , t1 , t2 , t3 ≥ 0
5
7
0
0
0
Base
C
B
x1
x2
t1
t2
t3
x2 x1
7 5
2 4
0 1
1 0
−1 0
1 −1
0 0
t3
0
1
0
0
89:; ?>=<
−1
1
1
34 0 0 7 −2 0 t3 sort de base et t1 entre, entre, La colonne colonne de t2 ne comporte que des nombres ≤ 0, le problè problème me est donc non borné : 5
7
0
0
0
Base
C
B
x1
x2
t1
t2
t3
x2 x1 t1
7 5 0
3 4 1 41
0 1 0 0
1 0 0 0
0 0 1 0
0 −1 −1 5
1 0 1 −7
56
Exercices du chapitre II Exercice Exercice II.1 Un chalutier est équipé pour la pêche de trois sortes de crustacés, C 1 , C 2 , C 3 . La capacité totale de pêche est de 1000 tonnes. Au débarquement, on effectue un tri sur la cargaison et seuls 80% de C 1 , 95% de C 2 et 90% de C 3 sont utilisables à la vente. Par ailleurs la capacité de traitement est de 900 tonnes au maximum. Pour préserver les espèces, la différence entre la quantité pêchée de C 1 et de la totalité des deux autres espèces, ne doit pas dépasser 100 tonnes. tonnes. Le capitaine capitaine veut maximiser le bénéfice sachant qu’une tonne de C 1 pêché et conditionné dégage un bénéfice de 125 ¤ de C 2 , 84 ¤ et de C 3 , 78 ¤. 1. Formuler ormuler algébriquemen algébriquementt le PL ainsi posé (on p ourra arrondir arrondir aux entiers entiers les plus proches les coefficients de la fonction économique). 2. résoudre résoudre le PL par la méthode du simplexe. simplexe.
Exercice Exercice II.2 Résoudre le PL suivant en utilisant la méthode des pénalités pour trouver une première première solution solution de base réalisable. max(z ) = 3x1 + 4x2 + x3
x1 + 2x2 x1 + 2x2 x1 , x2 , x3 ≥ 0
+ 2x3 + 3x3
≤ ≥
8 3 7 3
57
Chapitre III
Dual III.1 III.1
Intr Introdu oduct ctio ion n:
Etant donné un PL du type, n
max(z ) =
cj xj
j =1
n
aij xj ≤ bi , i ∈ { 1, . . . , m}
j=1
(III.1)
xj ≥ 0, pour j ∈ {1, . . . , n}
on peut considérer qu’il concerne une entreprise E 1 fabricant n biens j, j ∈ {1, . . . , n} et faisant intervenir m ressources i, i ∈ {1, . . . , m}. Le problème que peut se poser l’entrepris l’entreprisee est le suivant suivant : Etant Etant donnée donnée la disponibilité disponibilité bi pour chaque chaque ressource ressource i et le profit unitaire cj pour chacun des biens j , quel doit être le niveau de production de chaque bien j pour que la quantité de bien i consommée reste inférieure à la disponibilité bi et que le profit total soit maximal? Supposons qu’une autre entreprise E 2 , en rupture de stock, désire racheter les ressources ressources de la première, première, le problème qu’elle va va se poser et le suivant suivant : Etant donné un prix unitaire cj pour chacun n biens j et une disponibilité bi pour chacune des m ressources i, quel doit être le prix unitaire minimum d’achat yi de chaque ressource i pour que la valeur totale des ressources consommées par chaque bien j soit supérieure ou égale à cj (pour que cela rester intéressant pour l’entreprise E 1 et que le prix total d’achat des ressources disponible soit minimum? Ce deuxième problème constitue le problème dual du premier, il peut se mettre sous sous la forme : m
min(z ) =
bi y i
i=1
m
i=1
aij yi ≥ cj , j ∈ {1, . . . , n}
yi ≥ 0, pour i ∈ {1, . . . , m}
(III.2)
CHAPITRE CHAPITRE III. DUAL
58 On voit aisément que les contraintes, m
aij yi ≥ cj , j ∈ { 1, . . . , n}
(III.3)
i=1
impliquent que le prix d’achat des ressources par l’entreprise E 2 reste supérieur au profit que peut en tirer l’entreprise E 1 , c’est à dire, m
n
b i yi ≥
i=1
cj xj
j =1
ce qui est conforme aux lois de l’économie, on voit donc intuitivement que le minimum atteint par le deuxième problème doit être égal au maximum du premier problème. La théorie montre que c’est le cas quand le problème a des solutions.
III.2 III.2
Défin Définit itio ions ns et ex exem empl ples es :
III.2 III.2 .a
Prim Primal al et Dual Dual :
Les PL standards (III.1) et (III.2) sont appelés respectivement problèmes primal et dual : Primal
Dual
n
max(z ) =
m
c j xj
min(z ) =
j=1
bi yi
i=1
n
m
aij xj ≤ bi , i ∈ {1, . . . , m}
j=1
xj ≥ 0, pour j ∈ { 1, . . . , n}
III.2 III.2 .b
Exem Exempl ples es :
aij yi ≥ cj , j ∈ { 1, . . . , n}
i=1
yi ≥ 0, pour i ∈ { 1, . . . , m}
Primal
Dual
max(z1 ) = x1 + 3x2
min(z2 ) = 14y1 + 12y2 + 12y3
x1 −2x1 2x1 x1 , x2
+ x2 + 3x2 − x2 ≥0
≤ 14 ≤ 12 ≤ 12
y 1 − 2y2 + y1 + 3y2 − y1 , y2 , y3 ≥ 0
2y3 y3
≥ 1 ≥ 3
Remarq Remarque ue : Le PL initial doit impérativement être mis sous forme canonique avant de déterminer son dual, ainsi dans l’exemple qui suit,
III.3. PROPRIÉTÉ PROPRIÉTÉSS DE LA LA DUALITÉ DUALITÉ::
59
min(z1 ) = −2x1 + 4x2
on écrira écrira :
III.3 III.3
3x 1 4x 1
+ x2 − 3x2 x1 − x2 x1 , x2 ≥ 0
≥ 10 ≤ 8 ≤ 6
Primal
Dual
min(z1 ) = −2x1 + 9x2
max(z2 ) = 10y1 − 8y2 − 6y3
3x1 −4x1 −x1
+ x2 + 3x2 + x2 x 1 , x2 ≥ 0
≥ 10 ≥ −8 ≥ −6
− 4y 2 − y 3 y1 + 3y2 + y3 y1 , y2 , y3 ≥ 0 3y 1
≤ −2 ≤ 9
Prop Propri riét étés és de la dual dualit itéé :
On démontre démontre les théorèmes théorèmes suivants suivants:: Théorèmes Théorèmes : – Le dual du PL dual est le PL primal. – Si le primal est non borné, le dual est contradictoire. Si le primal est contradict contradictoire, oire, le dual est non borné ou contradict contradictoire. oire. Si le primal admet une solution finie x ¯ alors le dual admet une solution optimale finie y¯ qui vérifi vérifiee : z1 (¯ x) = z2 (¯ y ). – A toute variable variable d’écart d’écart primale (resp. duale) positive correspond correspond une vavariable structurelle duale (resp. primale) nulle. A toute variable structurelle primale (resp. duale) positive correspond une variable d’écart duale (resp. primale) nulle. On note, xj (resp. yi )les variables structurelles du primal (resp. dual) et ti (resp. uj ) les variables d’écart du primal (resp. dual).
III.4
xj xj ti ti
= 0 > 0 = 0 > 0
→ uj ← uj → yi ← yi
0 = 0 > 0 = 0 >
Passage assage du du derni dernier er table tableau au simp simplex lexee du du priprimal au dernie dernierr tableau tableau simplex simplexee du dual dual :
Au signe près, on a les correspondances correspondances suivant suivantes es : ligne xj (resp. ti ) en base colonne xj (resp. ti ) hors base ligne cj − zj (primal)
←→ ←→ ←→
colonne uj (resp.yi ) hors base. ligne uj (resp.yi ) en base. ligne zi − bi .
CHAPITRE CHAPITRE III. DUAL
60 Exemple: Exemple: Base
B
x1
x2
t1
t2
3 5 2 5 − 45 − 95
− 15 1 5 3 5 − 25
y3
u1
t3
6 1 0 0 8 0 1 0 8 0 0 1 30 0 0 0 En utilisant les propriétés vues ci-dessus, on obtient le tableau final simplexe du dual: x1 x2 t3
Base
B
y1 y2
9 5 2 5
30
y1
y2
1 0 0
0 1 0
4 5 − 53
−8
− 35 1 5
−6
u2
− 52 − 51 −8
61
Exercices du chapitre III Exerci Exercice ce III.1 Une entreprise fabrique 3 produits produits A, B et C qui nécessitent nécessitent matières matières premières et main d’œuvre qui sont disponibles en quantité limitées suivant le tableau ci-dessous ci-dessous :
Produits Matières Matières premières(en premières(en kg) Main d’œuvre (en h) Bénéfice par unité (en ¤)
A
B
C
4 2 60
2 0. 5 20
1 3 40
Disponibilité 60 00 40 00
De plus les capacités de stockage ne peuvent excéder 2500 unités. 1. Formuler ormuler algébriquemen algébriquementt le PL ainsi p osé. On note xi , i ∈ {1, 2, 3} les variables structurelles du problème et ti , i ∈ {1, 2, 3} les variables d’écarts. On considère le tableau du simplexe correspondant respondant à notre PL :
Base
C
B
60
20
40
0
0
0
x1
x2
x3
t1
t2
t3
0
3 10 − 15 1 − 10
1 − 10 2 5 3 − 10
0
−10
−10
x1
60
1400
1
x3
40
40 0
0
t3
0
70 0
0
11 20 − 51 13 20
0
0
−5
0 1
0 0 1 0
2. Déterminer Déterminer un plan optimal optimal de fabrication fabrication hebdomadaire. hebdomadaire. 3. Déterminer le PL dual, son dernier tableau par la méthode du simplexe et sa solution optimale. 4. On envisage envisage la fabrication d’un nouveau nouveau produit, produit, D, qui nécessite nécessite 1.5kg de matières premières et 2.5h de main d’œuvre par unité. La fabrication d’une unité de ce produit revient à 70 ¤. Quel est le prix de vente minimum à donner au produit pour qu’il soit intéressant de le fabriquer? (on supposera que le bénéfice net est égal à la différence du prix de vente et du coût de fabrication, on notera p ce bénéfice.)
62
63
Chapitre IV
Analyse de sensibilité, PL paramétrique Dans la pratique, on a à faire face aux situations situations suivant suivantes es : – Le profit unitaire de chaque chaque activité peut varier varier soit à cause de la conjoncconjoncture, soit qu’il ait mal été estimé. – Les disponibilités disponibilités peuvent peuvent varier et ainsi modifier les valeurs valeurs des seconds seconds membres des contraintes. Grâce à la dualité on pourra se contenter de traiter le premier type de problème. On suppose que l’on a affaire à un PL sous forme standard admettant des solutions optimales réalisables. réalisables. Dans cette cette configuratio configuration, n, si l’on remplace le coefficient ci d’une variable hors base xi par ci = ci + α, il se peut que la quantité ci − zi correspondante ne soit plus négative et que la solution obtenue ne soit plus optimale. La variable xi sera candidate pour entrer en base. La plus petite valeur |α| telle que, lorsque ci est remplacé par ci , la variable xi est candidate à rentrer en base, est appelée coût réduit de la variable xi . La signification économique est que pour les variables hors base, la valeur est nulle, ce qui veut dire que les activités correspondantes ne sont pas profitables, le problème est donc de savoir pour quelles valeurs des coefficients de la fonction économique elles le deviennent.
IV.1 IV.1
Paramétr aramétrisat isation ion de de la fonct fonction ion écon économiq omique ue
Considérons Considérons le PL suivant suivant:: n
max(z ) =
cj xj
j =1
n
aij xj = bi , i ∈ { 1, . . . , m}
j=1
xj ≥ 0, pour j ∈ {1, . . . , n}
64
CHAPITRE IV. ANALYSE ANALYSE DE SENSIBILITÉ, PL PARAMÉTRIQUE PARAMÉTRIQUE
On va poser, cj = cj + λcj , ∀i ∈ {1, . . . , n}. La fonction économique devient une fonction de λ : n
z (λ) =
(ci + λci )xi
i=1
Le domaine de variation de λ peut être découpé découpé en un nombre nombre fini d’interv d’intervalles alles pour chacun desquels correspond une solution optimale différente. Ces intervalles sont appelés intervalles de stabilité . Supposons qu’il existe une solution optimale x¯(λ0 ) du PL pour la valeur λ = λ0 . A cette solution correspond un tableau final du simplexe pour lequel toutes les quantités cj − zj sont négatives. Comme ici, m
zj =
m
ci xij =
i=1
(ci + λ0 ci )xij , j ∈ { 1, . . . , n}
i=1
On en déduit,
m
λ0
m
cj −
ci xij
ci xij
+ cj −
i=1
i=1
m
m
Posons C j = cj −
≤ 0, j ∈ { 1, . . . , n}
ci xij .
ci xij et C j = cj −
i=1
i=1
La solution x ¯(λ) restera optimale si toutes les quantités correspondantes zj − cj restent négatives, i.e. pour toutes les valeurs de λ qui vérifient vérifient::
C
λ
≤ αj
= − C j
∀ j ∈ { 1, . . . , n},\{C j > 0}
λ
≥ β j
= − C j
C
∀ j ∈ { 1, . . . , n},\{C j < 0}
j
j
En posant a0 = minj αj et b0 = maxj β j , l’intervalle de stabilité de la solution x ¯(λ0 ) est [a0 , b0 ]. Pour toute valeur de λ prise dans cet intervalle, x¯(λ) reste une solution optimale. Dans la pratique, on construit les intervalles de stabilité de proche en proche à partir d’une valeur λ0 déterminée (souvent 0), qui correspond à un PL sans paramètre. On poursuit le processus jusqu’à ce que les intervalles de stabilité recouvrent le domaine de variation de λ tout entier. Remarq Remarque ue : Le changement des coûts ci ne modifie pas la région admissible, seule la fonction économique varie. Dans le cas d’un problème à deux variables, si un point extrême P est solution optimale, on cherche la pente des droites définies par la fonction économique pour lesquels P reste une solution optimale.
IV.2
Paramétri Paramétrisation sation du second second m memb embre re des contrain contraintes tes
Considérons Considérons le PL suivant suivant:: n
max(z ) =
j =1
c j xj
IV.3. EXEMPLE EXEMPLE
65
n
aij xj ≤ bi + λbi , i ∈ {1, . . . , m}, λ ∈
R
j =1
xj ≥ 0, pour j ∈ {1, . . . , n}
Par dualité on peut se ramener au cas de la paramétrisation de la fonction économique. nomique. Le dual s’écrit en effet : m
min(z ) =
(bi + λbi )yi
i=1
n
aij yi ≥ cj , j ∈ {1, . . . , n}
i=1
yi ≥ 0, pour i ∈ {1, . . . , m}
que l’on résout comme à la section précédente.
IV.3 IV.3
Exem Exemp ple max(z ) = x1 + (3 − 3λ)x2
x1
−2x1 2x 1
≤ 14 ≤ 12 ≤ 12 ≥ 0
+ x2 + 3x2 − x2 x1 , x2
Pour λ = 0 la solution optimale a déjà été calculée. Sur chaque intervalle de stabilité, les valeurs de x1 et x2 sont fixées, la valeur optimale de la fonction économique devient donc une fonction affine par morceaux de la variable λ.
Base
C
B
1
3 − 3λ
0
0
0
x1
x2
t1
t2
t3
x1 x2
1 3 − 3λ
6 8
1 0
0 1
3 5 2 5
t3
0
8
0
0
− 54
@ABC GFED 3 5
1
30 − 24λ
0
0
−9+6λ 5
−2+3λ 5
0
−9 + 6 λ 5 −2 + 3 λ 5
≤ 0 ≤ 0
=> 0 ≤ λ ≤
− 51 1 5
0 0
2 , (x1 , x2 ) = (6 , 8), z = 30 − 24λ. 3
Le premier intervalle intervalle de stabilité stabilité est donc : 0;
2 . 3
CHAPITRE IV. ANALYSE ANALYSE DE SENSIBILITÉ, PL PARAMÉTRIQUE PARAMÉTRIQUE
66
1
3 − 3λ
0
0
0
x1
x2
t1
t3
1
0
− 13
t2
16 3
0
1
40 3
0 0
0 0
Base
C
B
x1
1
26 3
x2
3 − 3λ
t2
0 74 3
− 16λ
0
1 3
@ABC GFED 2 3
0
− 13
− 43 − 73 + 2λ
0 0
5 3
2 3
−λ
7 − + 2λ ≤ 0 2 7 26 16 74 3 ≤ ≤ − 16λ. > λ , x , x , , z = ( ) = = 1 2 2 3 6 3 3 3 −λ ≤ 0 3 2 7 Le deuxième interv intervalle alle de stabilité stabilité est donc : . ; 3 6
Base
C
B
3 − 3λ
0
0
0
x1
x2
t1
t2
t3
− 12 3 2
6 1 0 0 8 0 1 0 24 0 2 0 1 7 − λ 6 0 3 0 0 2 7 λ ≥ , (x1 , x2 ) = (6, 0), z = 6 . 6 7 Le dernier interva intervalle lle de stabilité stabilité est donc : ; +∞ . 6 x1 t1 t2
1 0 0
1
z
30
14
6
2/3
O
Fig.
7/6
IV.1 – Intervalles Intervalles de stabilité stabilité
1 2 − 12
1 − 12
67
Exercices du chapitre IV Exercice Exercice IV.1 Une petite compagnie de taxis-bus possède 4 véhicules et emploie 6 chauffeurs. Les véhicules peuvent rouler de jour comme de nuit. Le rendement d’un véhicule circulant le jour est fixé à 1 tandis que la nuit il vaut 1+ λ. Déterminer le nombre de véhicules devant circuler la nuit en fonction de λ.
Exercice Exercice IV.2 Quatre machines M 1 , M 2 , M 3 , M 4 servent à fabriquer trois produits P 1 , P 2 , P 3 . Le produit P 1 est composé de deux éléments fabriqués respectivement par M 1 et M 3 , P 2 de trois éléments fabriqués respectivement par M 2 , M 3 et M 4 , P 3 de trois éléments fabriqués respectivement par M 1 , M 2 et M 4 . Les machines M 1 , M 2 , M 3 , M 4 doivent produire quotidiennement respectivement au moins 10, 12, 8, 10 unités pour être rentables. Déterminer les quantités minimales des trois produits à fabriquer pour minimiser le coût total de production, si les coût unitaires de production valent respectiveme respectivement nt : 1. 2, 3 et 4 ¤. 2. (2+3λ), (3+2λ) et (4+ (4 + λ) ¤, où λ est choisi de telle manière que les quantités considérées soient positives ou nulles. Représenter graphiquement la fonction fonction économique pour les valeurs valeurs optimales, optimales, en fonction fonction de λ.
68
69
Troisième partie
Processus Stochastiques et applications
71
Chapitre I
Présentation des processus stochastiques I.1
Définit Définition ion des processu processuss stoc stochas hastiq tiques ues
On se souvient qu’une variable aléatoire réelle définit une mise en correspondance biunivoque entre les résultats d’une expérience et des valeurs prises dans R ou un sous-ensem sous-ensemble ble de R. Un processus stochastique stochastique consiste en la mise en correspondance biunivoque entre les résultats d’une expérience et une fonction fonction d’un paramètre t (en général représentant le temps) ou d’une ou plusieurs autres variables indépendantes, prenant ses valeurs dans un ensemble T et à valeurs dans un ensemble noté E , appelé espaces des états. états. Cette fonction du paramètre t est appelée fonction aléatoire . Pour chaque valeur de t on définit ainsi une variable aléatoire réelle . Si on appelle Ω l’ensemble définissant les résultats de l’expérience considérée, on définit donc une application T → V A(Ω, E ), t → (ω → X t (ω )). que l’on notera pour simplifier X . Si T est un intervalle de R on parlera de processus stochastique, stochastique, si T est discret (par exemple N) on parlera de suite stochastique, à état d’état continu si E est un intervalle de R, discret si E est discret. Pour ω fixé, l’application t → X t (ω ) est appelée trajectoire du processus X. Exemple n◦ 1 On mesure tous les jours du mois de janvier la pluviométrie en mm de différentes communes. L’ensemble Ω représente ici la mesure de la pluviom pluviométr étrie ie au mois de janvie janvierr dans dans l’ense l’ensemb mble le des commu communes nes.. T = {1, . . . , 31} est discret, tandis que l’espace d’états E , qui est un intervalle de R, est continu. Si on choisit une commune particulière c1 , on obtient la réalisation d’une courbe de pluviométrie X c1 (t) d’autre part, pour un jour donné t1 , X t1 représente une variable aléatoire réelle continue. Si l’on choisit une autre commune c2 , on obtient une autre réalisation X c2 (t). Exemple n◦ 2 Sur la carte mémoire d’un appareil photo numérique on considère l’ensemble Ω des photos qui sont stockées. Le choix d’une photo donnée constitue une réalisation particulière de l’expérience choisir une photo. Si la photo est codée en RVB, Chaque pixel de la photo est représenté par
PRÉSENTATION DES PROCESSUS STOCHASTIQUES 72 CHAPITRE I. PRÉSENTA un triplet (R, V, B) appartenant à {0, . . . , 255}3. L’espace T est ici l’ensemble (fini) des pixels pour le format choisi, et l’espace E l’ensemble des triplets possibles de couleurs. On a donc ici une suite stochastique à valeurs discrètes. m m n e ) t ( 2 c X
m m n e ) t ( 1 c X
1
2
31 t
3
Commune n˚1
Fig.
1
2
3
31 t
Commune n˚2
I.1 – Exemple de processus en temps discret
Exemple n◦ 3 La courbe d’évolution du CAC40 constitue une trajectoire du processus stochastique continu à espace d’état continu, dont l’espace Ω est formé de portefeuilles d’actions, le CAC40 étant constitué de l’ensemble des 40 actions les plus représentatives de l’économie française. La courbe est continue bien que très perturbée, ce n’est pas le cas pour toutes les trajectoires.
Fig.
I.2 – Exemple de trajectoire trajectoire : le CAC40
I.2. PROCESSUS PROCESSUS DE DE POISSON POISSON
I.2 I.2
73
Proces Processu suss de Poiss oisson on
I.2 .a
Prése Présen ntatio tation n
Un processus de Poisson est un processus continu à espace d’états discret. Il sert à décrire de nombreuses situations, citons, le nombre d’appels téléphoniques à un standard, le nombre d’accidents à un carrefour, le nombre de pannes sur des appareils, appareils, le nombre de clients clients dans un système de service, etc . . .
I.2 I.2 .b
Modéli Modélisa satio tion n
Si on note X le processus, en partant de la valeur t = 0, X t décrit le nombre d’événements survenus dans l’intervalle ]0, t], par hypothèse X 0 = 0. 0 . Le processus X est dit de Poisson Poisson s’il vérifie vérifie les conditions conditions suivante suivantess : 1. Le processus est sans mémoire, ce qui revient à dire que pour un instant quelconque t, les occurences d’événements avant avant la date t n’influent pas sur les occurences d’événements après t. De manière générale, si l’on considère deux intervalles [t1 , t2 ] et [t1 , t2 ] disjoints, le nombre d’événements qui se produisent dans l’un des intervalles est indépendant des événements qui se produisent produisent dans l’autre. l’autre. 2. Si l’on considère t > 0 et h > 0 quelconques, X t+h − X t est une variable aléatoire dont les valeurs ne dépendent que de h. On dit que le processus est homogène dans le temps. Puisque X 0 = 0, la loi de cette v.a. est la même que celle de X h . 3. La probabilité pour qu’au moins deux événements se réalisent en même temps est négligeable devant la probabilité qu’il ne s’en produise qu’un. Sous réserve de quelques hypothèses supplémentaires, on montre qu’il existe une constante λ telle que la v.a. X t suive une loi de Poisson de paramètre λt. C’est à dire que,
∀t ∈]0, + ∞[, ∀n ∈ N, P (X t = n) =
(λt)n exp(−λt). n!
E (X t ) On a, E (X t ) = V (X t ) = λt. On a donc λ = , c’est la taux d’arrivée i.e. le t nombre moyen d’arrivées par unité de temps. Cette remarque permettra de déterminer λ expérimentalement en faisant quelques hypothèses supplémentaires. Soient t, s > 0, le fait que le processus ne dépende pas de son passé implique que:
(λs)n P (X t+s − X t = n|X u ,u ≤ t) = P (X t+s − X t = n) = exp(−λs) n!
I.3
Tem emps ps d’att d’atten ente te
Etant donné un processus de Poisson X , on s’intéresse à la suite stochastique T à espace d’états continu qui pour chaque valeur de n ∈ N définit le temps écoulé jusqu’à la neme occurence de l’événement considéré. La v.a. T 1 vérifi vérifiee : P (T 1 > t) = P (X t = 0) = e−λt .
PRÉSENTATION DES PROCESSUS STOCHASTIQUES 74 CHAPITRE I. PRÉSENTA En effet l’événement (T 1 > t) signifie qu’aucun événement ne s’est produit sur l’intervalle [0, t ]. T 1 suit donc une loi exponentielle de paramètre λ. Pour n ∈ N∗ , intéressons-nous à la v.a. T n+1 − T n, qui définit la loi d’inter-arrivées entre la neme et la (n + 1)eme occurence de l’événement. (∀s ∈ R+ ), P (T n+1 − T n > t ) = P (X s+t − X s = 0) = P (X t = 0) = e−λt puisque d’une part, si n événements sont arrivés sur l’intervalle ]0, s], il n’y en aucun sur l’intervalle ]s, s + t], et que d’autre part le processus X est sans mémoire. Remarq Remarque ue : X et T décrivent le même processus et l’on a,
∀t ∈ R, ∀n ∈ N, (T n ≤ t) ≡ (X t ≥ n). On déduit des résultats précédents que la v.a. T n suit une loi d’Erlang de paramètres n, λ définie définie par : n
P (T n ≤ t) = 1 −
k=0
I.4
(λt)k −λt e . k!
Détermi Déterminati nation on expérime expérimen ntale
On a le résultat suiva suivant nt :
I.4 I.4 .a
Théo Théorè rème me
Soit X un processus de Poisson. Si un événement intervient dans l’intervalle ]0, t], t > 0, la probabilité pour qu’il se produise dans un sous-intervalle de lonx gueur x ≤ t est c’est à dire que la v.a. Y 1 associée à cet événement suit une loi t
uniforme sur ]0, t]. Plus généralement, s’il y a eu n événements sur l’intervalle ]0, t], les v.a. Y 1 , . . . , Yn sont indépendantes et de loi uniforme sur ]0, t]. Cela implique que lors de la détermination expérimentale de la loi on pourra choisir des échantillons au hasard dans les intervalles concernés.
I.4 I.4 .b
Appl Applic icati ation on
Dans une banque ouvrant de 9h à 17h en journée continue, on a choisi un échantillon de 100 intervalles intervalles de 30 minutes durant lesquels on a relevé le nombre de clients dans la banque. On a fait l’hypothèse que durant la journée chaque période vérifie les conditions du théoreme I.4 .a, ce qui signifie que les différentes plages horaires sont identiquem identiquement ent chargées. chargées. On a établi le tableau tableau suivant suivant : Nombre d’arrivées Nombre de périodes
0 2
1 9
2 14
3 19
4 20
5 15
6 11
7 5
8 3
9 1
10 1
11 0
(0 × 2 + 1 × 9 + . . . + 10 × 1 + 11 × 0) ≈ 4. Calcul de la moyenne moyenne : 100 On constate que l’histogramme est très proche de celui d’une loi de Poisson de
I.5. GRAPHES GRAPHES ASSOCIÉS ASSOCIÉS À UNE LOI DE POISSON
75
paramètre 4 : k
100 × pk
0 1.83
1 7.33
2 14 . 6
3 19.6
4 19.6
5 15.6
6 10.4
7 6. 0
8 3. 0
9 1.3
10 0.0
On valide cette hypothèse avec un test du χ2 par exemple.
I.5
Grap Graphe hess associé associéss à une une loi de de Poi Poiss sson on
Soit X un processus de Poisson de paramètre λ. Sur un petit petit inter interv valle de temps ∆t on peut considére considérerr qu’il n’y a que deux deux possibil possibilité itéss : soit soit il y a une arrivée, avec une probabilité proche de λ∆t, soit il n’y en a aucune avec la probabilité 1 − λ∆t. On obtient le graphe de transitions entre les différents états :
Fig.
I.6 I.6
I.3 – Graphe du processus de Poisson
Exem Exemp ple
Dans une station de RER, les trains arrivent à une gare selon un processus de Poisson de paramètre 4 trains par heure en moyenne. Un voyageur arrive à la gare où un employé lui déclare que le précédent train est passé il y a une demi-heure. Quelle est la probabilité que le voyageur doive attendre plus de cinq minutes le train suivant? Réponse Réponse :
la durée d’attente T entre deux trains suit une loi exponentielle de paramètre λ = 4. On a
1 1 1 |T > P T > + 2 12 2
= P T >
1 12
4
1
= e− 12 = e− 3 .
En utilisant le processus de Poisson X de paramètre paramètre 4, on obtient obtient : P (X 1 = 0) = 12
4 0 ( 12 ) −4 1 e 12 = e− 3 . 0!
11 0.0
76
Exercices du chapitre I Exercice Exercice I.1 Dans un standard téléphonique, on a constaté que le nombre moyen d’appels arrivant par minute entre 14 h et 18 h est de 2.5. Sachant que les appels suivent 14h 18h un processus de Poisson, trouver les probabilités pour que dans une minute quelconque de l’intervalle [14, 18], 18], 1. Il n’y ait pas d’appel. d’appel. 2. Il y ait deux appels exactement exactement.. 3. Il y ait quatre appels au moins.
Exercice Exercice I.2 Un laboratoire d’analyses médicales effectue régulièrement des contrôles de facteur rhésus sur des groupes de 30 personnes. 1. Sachant qu’en moyenne, moyenne, 15 personnes sur 100 ont un rhésus négatif, exprimer la loi de la variable X associant à chacun de ces contrôles le nombre des personnes contrôlées ayant un rhésus négatif. Calculer l’espérance et la variance de X . 2. On approche la loi de X par une loi de Poisson. Déterminer le paramètre de cette loi et donner à l’aide de cette loi les valeurs approchées des événements nements : (X < 2) et (X > 3). 3).
Exercice Exercice I.3 Des bateaux arrivent dans un port de plaisance suivant un processus de Poisson de paramètre λ = 2. 2 . Le port ne peut accueillir que 3 bateaux par jour. S’il arrive plus de 3 bateaux, les navires en excès sont envoyés dans un autre port. 1. Quelle est la probabilité probabilité pour qu’un jour donné, donné, au moins un bateau soit refusé? 2. Combien Combien de bateaux bateaux seront, seront, en moyenne, moyenne, accueillis accueillis dans une journée? journée?
Exercice Exercice I.4 Les véhicules circulant dans une rue suivent un processus de Poisson de paramètre λ = 15 (en secondes). Pour traverser la rue un piéton a besoin de 10 secondes. Quelle est la fraction des intervalles entre deux véhicules, assez grande pour permettre au piéton de traverser la rue?
77
Chapitre II
Processus de naissance et de mort II.1 II.1
Intr Introdu oduct ction ion
Dans un processus processus de Poisson, Poisson, la probabilité probabilité de l’occurence l’occurence d’un événemen événementt est indépendante des événements qui se sont déjà produits. Cela n’est pas une hypothèse réaliste quand on étudie, par exemple, l’évolution d’une population, le nombre de naissances ou de morts dépendant de la taille de la population. Dans le cas général, le taux de naissance dépendra de la taille n de la population, on le notera λn , de même que l’on notera µn le taux de mort.
II.2 II.2
Défin Définit itio ion n
Considérons Considérons un processus processus stochastiqu stochastiquee X à espace d’états d’états discret discret N. Ce processus décrit un système qui est dans un état noté E n , n ∈ N au temps t si et seulement si X t = n. On dira que ce système système est un processus de naissance naissance et de mort, mort, s’il existe des taux positifs ou nuls de naissance λn , n ∈ N et des taux positifs ou nuls de mort µn , n ∈ N∗ tels que les conditions suivantes soient satisfaites satisfaites : 1. Les changements changements d’états d’états sont seulement seulement autorisés autorisés de l’état E n vers l’état E n+1 ou de l’état E n vers l’état E n−1 si n ≥ 1 mais seulement de l’état E 0 à l’état E 1 . 2. Si à l’instant t le système est dans l’état E n , la probabilité probabilité qu’entre qu’entre l’instant t et l’instant t + h la transition se produise vers l’étant E n+1 est o(h) λn h + o(h) (rappelons que o(h) signifie signifie que lim = 0) 0 ) et que la tranh→0
h
sition se produise vers l’état E n−1 (si n ≥ 1) est µn h + o(h) 3. La probabilité que plus d’une transition se se produise dans l’intervalle l’intervalle [t, t + h] est o(h). Exemple Exemple : dans la théorie théorie des files d’attente, d’attente, on verra que l’on peut considérer considérer l’évolution de la file comme un processus de naissance et de mort où l’état E n correspond à la présence de n clients dans le système d’attente, attendant ou recevant un service.
CHAPITRE CHAPITRE II. PROCESSUS PROCESSUS DE NAISSANCE NAISSANCE ET DE MORT MORT
78
II.3 II.3
Modél Modélis isat atio ion n
Nous poserons dans la suite P n (t) = P (X t = n). Pour n ≥ 0 la probabilité probabilité qu’au temps t + h le système soit dans l’état E n a quatre composantes composantes : 1. Il était dans l’état E n à l’instant t et aucune transition ne s’est produite. L’événemen L’événementt associé est : (X t = n) ∩ (aucune naissance ni mort sur l’intervalle) [t,t + h]. La probabilité probabilité associée est P n (t)(1 − λn h + o(h))(1 − µn h + o(h).
La probabilité qu’il n’y ait pas de transition étant égale à 1− la probabilité qu’il y ait une transition. En utilisant les propriétés de o(h), on obtien obtientt : P n (t)(1 − λn h − µn h) + o(h).
2. Il était dans dans l’état l’état E n−1 au temps t et se trouve dans l’état E n à l’instant t + h. On obtient la probabilité probabilité : P n−1 (t)λn−1 h + o(h).
3. Il était dans dans l’état l’état E n+1 au temps t et se trouve dans l’état E n à l’instant t + h. On obtient la probabilité probabilité : P n+1 (t)µn+1 h + o(h).
4. Plus d’une transition transition s’est produite produite : probabilité probabilité o(h) (négligeable devant h). Au total on obtient obtient : P n (t + h) = [1 − λn h − µn h]P n (t) + λn−1 hP n−1 (t) + µn+1 hP n+1 (t) + o(h).
En soustrayant P n (t), en divisant par h et en passant à la limite, on obtient les équations équations différent différentielles ielles :
∀n ∈ N∗ , P n (t) = −(λn + µn )P n (t) + λn−1 P n−1 (t) + µn+1 P n+1 (t). Pour n = 0, 0 , on obtient, P 0 (t) = −λ0 P 0 (t) + µ1 P 1 (t).
Si le système est dans l’état E i pour un certain i à l’instant t = 0, les conditions initiales initiales sont : P i (0) = 1, P j (0) = 0 pour j = i. Inutile de préciser que la résolution de tels systèmes est extrêmement complexe. Il y a cependant des cas particuliers où cela reste relativement aisé. Voyons-en quelques uns.
II.4. PROBABILITÉ PROBABILITÉSS À LONG TERME TERME II.3 .a
79
Proce Process ssus us de de nais naissa sanc nce e pur
On a ici ∀n ∈ N λn = λ, µn = 0. On est conduit conduit au système :
P n (t) = −λP n (t) + λP n−1 (t), pour n ≥ 1 P 0 (t) = −λP 0 (t) P 0 (0) = 1 , P j (0) = 0, pourj = 0
Les solutions solutions de ce système système sont :
∀n ∈ N, t ≥ 0, P n (t) =
(λt)n e−λt . n!
On retrouve le processus de Poisson, ce qui permet d’en donner une nouvelle interprét interprétation ation : c’est un processus processus de naissance naissance pur à taux constant. constant.
II.3 II.3 .b
Proc Proces essu suss de mor mortt pur pur
On part d’un système à N + 1 états possibles numérotés de 0 à N . Dans ce processus nous avons,
∀n ∈ {0, . . . , N } λn = 0 , µn = µ si n ≥ 1, µ0 = 0 . Intuitiv Intuitivemen ement, t, il s’agit ici d’une population population à N individus dans laquelle il n’y a que des disparitions et pas de naissance. Ici P n (t) est la probabilité que N − n disparitions se soient produites dans l’intervalle [0, t], on trouve, (µt)N −n −µt P n (t) = e , n ∈ {1, . . . , N } , et P 0 (t) = 1 − (N − n)!
II.4 II.4
N −1
j=0
(µt)j −µt e j !
Prob Probab abili ilité téss à long long term termee
Dans le cas général, le calcul des probabilités P n (t) s’avère très difficile, voire impossible. Cependant, dans la plupart des cas, le processus atteint un état d’équilibre appelé régime stationnaire où les probabilités P n (t) tendent vers une limite pn qui ne dépend plus de t. Les dérivées P n (t) s’annulent alors on obtient les équations d’équilibre suivant suivantes es :
λ0 p0 λn pn
= µ1 p1 = µn+1 pn+1
pour n ∈ N∗
avec l’équation l’équation de normalisation : +∞
pn = 1
n=0
On obtient obtient les solutions : pn =
λ0 λ1 . . . λn−1 p0 . µ1 µ2 . . . µn
Avec l’équation de normalisation, on obtient p0 et donc toutes les autres valeurs.
CHAPITRE CHAPITRE II. PROCESSUS PROCESSUS DE NAISSANCE NAISSANCE ET DE MORT MORT
80
n-1
n
n-1 1
Fig.
n+1
n
n+1 n+1
II.1 – Graphe du processus de Naissance et de mort
En régime stationnaire stationnaire,, les équations obtenues obtenues signifient signifient que pour tout état E n on a :
Flux entrant = Flux sortant
81
Exercices du chapitre II Exercice Exercice II.1 On considère un processus de naissance et de mort pouvant prendre les états caractérisé par les paramètres paramètres suivants suivants : E 0 , E 1 , E 2 , E 3 caractérisé λ0 = 4 , λ1 = 3 , λ2 = 2, , µ1 = 2, µ2 = 4 , et µ3 = 4 . 1. Construisez Construisez le diagramme diagramme de transition transition de ce processus. processus. 2. Déterminer Déterminer les probabilités probabilités en régime stationnaire stationnaire du processus. processus.
Exercice Exercice II.2 On considère un processus de naissance et de mort dans lequel, λn = pour un réel α > 0 et µn = µ, n ∈ N. (α )n − α µ e µ. Montrer que pn = n! N
α n+1
,n∈
82
83
Chapitre III
Chaînes de Markov III.1 III.1
Défin Définit itio ion n
Un processus stochastique X = {X t , t ∈ T } à espace d’états d’états E est un processus de Markov s’il est homogène dans le temps, i.e. si son comportement sur un intervalle de T ne dépend que de la longueur de cet intervalle et non de son origine, et si, ∀{t1 , . . . , tn+1 }, n ∈ N∗ , t1 < t2 < . . . < tn+1 et tout ensemble d’états {E 1 , . . . , En +1 }, prenant respectivemet les valeurs x1 , . . . , xn+1 , P (X tn+1 = xn+1 |X t1 = x1 , . . . , Xt n = xn ) = P (X tn+1 = xn+1 |X tn = xn )
Intuitivement, cela signifie que le futur du processus ne dépend que de l’état présent E n et non de l’histoire du processus. On s’intéressera ici aux processus à espace d’états discret, appelé chaîne chaîne de Markov. Pour simplifier les notations on supposera que la valeur prise dans l’état E n , n ∈ N est n. De la même manière, on supposera que T est discret et on noter m, m ∈ N au lieu de tm , on aura donc à considérer la suite X n , n ∈ N.
III.2 III.2 III.2 III.2 .a
Prob Probab abili ilités tés de tran transi sitio tion n Trans ransiti ition on d’o d’ord rdre re 1
Si au temps 0 on est dans l’état E i , on va définir les probabilités de passer dans un autre état E j à l’instant l’instant suivant suivant:: pij = P (X 1 = j |X 0 = i)
De manière manière générale on va s’intéress s’intéresser er aux probabilités probabilités : P (X n+1 = j |X n = i)
Ces probabilités appelées probabilités de transition dépendent en général de l’état de départ E n, mais comme on a supposé le processus homogène dans le temps il n’en est rien. On aura donc pour toute valeur de n, P (X n+1 = j |X n = i) = pij
CHAPITRE CHAPITRE III. CHAÎNES CHAÎNES DE MARKOV MARKOV
84
Ces quantités vérifient vérifient les propriétés suivantes suivantes :
0 ≤ pij ≤ 1, ∀(i, j ) ∈ N2 +∞
pij = 1, ∀i ∈
N
j=0
La matrice (( pij )) est appelée matrice stochastique .
III.2 III.2 .b
Transi ransitio tions ns d’o d’ord rdre re n
On va s’intéresser maintenant au passage d’un état E i à un état E j en n transitions. Le processus étant homogène, cela ne dépend pas de l’instant initial. On va donc donc poser : n pij = P (X n = j |X 0 = i) = P (X m+n = j |X m = i), ∀m ≥ 0, n > 0.
Pour passer de l’état E i à l’état E j en m + n transitions, on peut passer par n’importe quel état E k après m transitions et repartir vers l’état E j en n transitions. On a donc, (X m+n = j ) ∩ (X 0 = i) =
((X m+n = j ) ∩ (X m = k)) ∩ (X 0 = i)
k
Les événements événements (X m = k, k ∈ N formant un système complet d’événements. On obtient donc, +∞
P (X m+n = j |X 0 = i) =
=
P (X m+n = j |(X m = k ) ∩ (X 0 = i))
k=0
+∞
P (X m+n = j |(X m = k))P (X m = k|X 0 = i),
k=0
et d’après les propriétés d’homogénéité, P (X m+n = j |X m = k ) = P (X n = j |X 0 = k ). On obtient ainsi les équations équations de Chapman-K Chapman-Kolmogor olmogorov ov : +∞
m+n pij
=
n m pik pkj , ∀n, m, i, j ≥ 0
k=0
En particulier, si E est fini, et si l’on nomme P la matrice de transition d’ordre 1, la matrice de n-transitions est égale à P n. En effet, P (2) = P 2 et par récurrence P (n) = P (n−1) P = P n .
III.2 III.2 .c
Exem Exempl ple e
Un système de communication transmet les bits 0 et 1 à travers plusieurs étapes. A chaque étape, la probabilité pour qu’un bit soit reçu de manière identique à l’étape suivante est 0.75 75.. Quelle est la probabilité qu’un 0 entré à la première étape soit reçu comme 0 à la cinquième? Réponse : La matrice matrice de transition transition d’ordre 1 est est ici : P =
0.75 0.25 0.25 0.75
III.3. CLASSIFICATION CLASSIFICATION DES ÉTA ÉTATS D’UNE CHAÎNE
85
4 La probabilité cherchée est obtenue en prenant l’élément P 00 de la matrice P 4 . On a, 4 0.5312 1255 0.46875 4 P = 0.4687 8755 0.53125
La probabilité cherchée est donc égale à 0.53125 53125..
III.3
Classifi Classificat cation ion des états états d’une d’une chaîne haîne
Etats communican communicants ts : Deux états E i et E j des états communicants si et m > 0 et un entier n tel que seulement si il existe un entier m tel que pij n pji > 0. Etat récurren récurrentt : Si le retour à un état E i est certain, E i est dit récurrent . L’état est dit récurrent positif si le temps moyen pour y revenir est fini, récurrent nul si le temps est infini. Etat Etat périodiqu périodique e : S’il existe un entier d tel que l’état E i ne puisse être atteint qu’aux temps d, 2d, . . . , nd, . . . , E i est dit périodique de période d. Etat transitoire transitoire : Si le retour à un état E i n’est pas certain, l’état est dit transitoire. Etat absorban absorbantt : Un état E i est dit absorbant si une fois atteint il est impossible de le quitter, i.e. pii = 1. 1. Définit Définition ion : Une chaîne est dite apériodique si elle ne possède aucun état périodique.
III.4
Propri Propriétés étés des chaînes haînes de Mark Markov ov
III.4 .a
relatio relation n d’équiv d’équivalen alence ce sur l’ense l’ensemb mble le des états états
On définit une relation, que l’on notera ↔ entre deux états E i et E j , E i ↔ E j si et seulement si E i et E j sont communicants. Cette relation est une relation d’équivalence. Ainsi les états d’une chaîne de Markov peuvent être partitionnés en classes d’équivalence d’états. Une chaîne sera dite irréductible si et seulement si elle ne possède qu’une seule classe d’équivalence pour cette relation. Une chaîne chaîne irréductib irréductible le peut traduire traduire l’évolution l’évolution d’un système réparable réparable et/ou soumis soumis à une politique de maintenanc maintenancee préventi préventive ve : le système système étant étant toujours toujours réparé, il n’existe pas d’état absorbant.
Définition Une chaîne de Markov irréductible et apériodique est dite ergodique. Obention Obention des classes d’équiv d’équivalence L’obtention des classes d’équivalence se fait en calculant la matrice de fermeture transitive du graphe associé à la chaîne de Markov. On appelle classe finale une classe formée d’états récurrents et classe de transition une classe formée d’états transitoires. Chaque trajectoire entre à un moment donné dans une classe finale et ne la quitte plus, il y a absorption.
CHAPITRE CHAPITRE III. CHAÎNES CHAÎNES DE MARKOV MARKOV
86
III.4 III.4 .b
Exem Exempl ple e
Considérons un système à quatre états E 1 , E 2 , E 3 , E 4 . Les probabilités de transition transition d’ordre 1 sont données données par la matrice matrice suivante suivante::
P =
Le graphe associé associé est : 0.6
0.6 0.3 0 0.1 0.1 0.4 0.5 0 0.75 0 0.2 0.05 0 0 0 1
0.1
0.3
89:; ?>=< l 1
0.4
89:; ?>=<
D 2
0.1 0.75 0.5
89:; ?>=< 4 o t t
89:; ?>=< 3
0.05
1
0.2
La matrice associée associée à ce graphe graphe est :
M =
1 1 1 0
1 1 0 0
0 1 1 0
1 0 1 1
1 1 1 0
1 1 1 0
1 1 1 1
La matrice de fermeture fermeture transitive transitive est :
Γ=
1 1 1 0
Seul l’état E 4 est absorbant, les états E 1 , E 2 , E 3 sont transitoires, on n’y passe jusqu’à ce que l’on arrive à l’état E 4 . Il y a deux classes d’équivalence pour la relation ↔ : la classe {E 4 } qui est finale, E 4 étant un état récurrent, et la classe {E 1 , E 2 , E 3 } qui est une classe de transition transition (formée d’états transitoires) transitoires)..
III.4 III.4 .c
Théo Théorè rème me 1
Soit (X) une chaîne de Markov irréductible. Une et une seule des assertions suivant suivantes es est vérifiée : 1. Tous les états sont récurren récurrents ts positifs. 2. Tous les états sont récurren récurrents ts nuls. 3. Tous les états états sont transitoires. transitoires. (n) (n) Notons πi la probabilité que la chaîne soit dans l’état E i au temps n, πi = P (X n = i). On va supposer ici que E est fini de taille N . D’après les propriétés
III.4. PROPRIÉT PROPRIÉTÉS ÉS DES CHAÎNES CHAÎNES DE MARKOV
87
des chaînes de Markov, où la présence dans un état donné ne dépend que du précédent, on déduit que N
(n)
πi
=
(n−1)
πk
pki
k=0
d’après le fait que les événements (X n−1 = k ), k ∈ {0, . . . , N } forment un système complet d’événement d’événement,, en utilisant la formule formule des probabilités probabilités totales totales et le fait que P (X n = i|X n−1 = k ) = pki . (n) (n) (n) Appelons πn = (π0 , π1 , . . . , πN ) le vecteur des probabilités d’états à l’instant n, on a : πn = πn−1 P = π0 P n . Dans certains cas, que nous allons voir, π(n) admet une limite quand n → +∞. On la notera π, elle vérifie l’équation l’équation : π = πP.
III.4 III.4 .d
Théo Théorè rème me 2
Si X est une chaîn chaînee de Marko Markov v ergodiq ergodique, ue, les probab probabilit ilités és limites limites π = lim π(n) existent toujours et sont indépendantes de la distribution initiale. Si
n→+∞
tous les états ne sont pas pas récurrents positifs alors π = (0, . . . , 0) et il n’existe pas de distribution stationnaire. Dans le cas contraire π = (π0 , π 1 , . . . , πN ) forme 1 une distribution stationnaire et le temps moyen de retour à l’état E i est . On πi
N
a évidemment évidemment::
πi = 1.
i=0
III.4 III.4 .e
Exem Exempl ple e
Reprenons l’exemple III.2 .c, il est clair que la chaîne est ergodique et possède une distribution stationnaire π = (π0 , π1 ). On obtient obtient les équations :
D’où π0 = π1 = 0.5.
π0 + π1 = 1 π0 = 0 .75π0 + 0.25π1 π1 = 0 .25π0 + 0.75π1
88
Exercices du chapitre III Exerci Exercice ce III.1 La sociolo sociologie gie s’intére s’intéresse sse à la questi question on suivan suivante te : dans dans quelle quelle mesure mesure le statut statut social des parents parents influe sur celui des enfants. On considère considère pour simplifier simplifier trois classes de population, "pauvre", "moyenne" et "riche" (états E 1 , E 2 , E 3 ), On a la matrice matrice de transition transition suivant suivantee : P =
0.45 0.48 0.07 0.05 0.7 0.25 0.01 0.5 0.49
1. Calculer la probabilité de passer de la classe riche à la classe pauvre en deux générations. 2. Calculer la probabilité de passer de la classe pauvre à la classe riche en deux générations. 3. Déterminer Déterminer les probabilités probabilités stationnaires stationnaires..
Exerci Exercice ce III.2 Les vacanciers partent en général, soit à la mer état E 1 , soit à la montagne, état E 2 , soit à l’étranger, état E 3. La matrice de transition transition est : P =
0.3 0.1 0.6 0.5 0.3 0.2 0.2 0.6 0.2
Déterminer le flôt des congés en régime stationnaire.
Exerci Exercice ce III.3 Dans des temps reculés, un tout petit village se compose d’un paysan, d’un tailleur et d’un charpentier. L’argent n’y a pas cours et il y règne une économie 7 5 de troc. Le paysan utilise 16 de sa production, le charpentier 16 et le tailleur 14 . 3 5 Le tailleur utilise la moitié de sa production, le paysan 16 et le charpentier 16 . 1 1 Le charpentier utilise 6 de sa production, le paysan la moitié et le tailleur 3 . Des banquiers de passage veulent introduire l’argent. Pour cela ils estiment en pourcentage les productions respectives de respectives p1 , p 2 et p3 de P, T, et C. 1. Tracer le graphe des échanges échanges de troc. 2. Déterminer Déterminer p1 , p2 et p3 de telle manière que l’économie de troc ne voit pas son équilibre brisé.
89
Chapitre IV
Files d’attente IV.1 IV.1
Intr Introdu oduct ction ion
La théorie des files d’attente a pour but de modéliser les situations qui répondent pondent au schéma suivant suivant : des clients arrivent à intervalles aléatoires dans un système comportant un ou plusieurs serveurs auxquels ils vont adresser une requête. La durée de service est également aléatoire. De nombreux cas de la vie courante courante répondent répondent à ce schéma : service dans une banque banque ou un organisme public, ateliers d’usinage ou de production, ici les clients sont des ordres de production duction à exécuter exécuter et les serveurs des machines, machines, péages autoroutier autoroutierss etc . . . Les principales principales questions questions que l’on se pose sont: – quel est le temps moyen moyen avant avant qu’un client client soit servi. – quel est le nombre moyen de clients dans le système. – quel est le taux d’utilisation d’utilisation moyen moyen des serveurs. serveurs. Dans Dans le cas général général il y a de nombreux nombreux modèles modèles de descript description ion : des système systèmess à serveurs parallèles ou en série, de même les arrivées des clients peuvent être groupées ou individuelles et de la même façon il peut y avoir différents types de service. Les clients forment une ou plusieurs files d’attente, et il y a des règles de sélection pour le service, c’est ce que l’on appelle la discipline de service la plus courante étant la discipline FIFO . La capacité du système , c’est à dire le nombre de clients pouvant être présents dans le système est limitée ou non. Dans le cadre de ce cours, nous nous bornerons à un seul serveur et arrivées et services individuels. Notation de Kendall on note A/B/S (N)une (N)une file d’attente où A est le code de la loi des arrivées, B, celui de la loi des services et S le nombre des guichets (tous identiques) fonctionnant en parallèle, N désigne le nombre maximal de clients admis dans le système (infini si l’indication est omise). Dans le cadre de ce cours, nous intéresserons aux files M/M/1 et M/M/1 (N). Définit Définitions ions : – On appelle file d’attente l’ensemble des clients qui attendent d’être servis.
CHAPITRE CHAPITRE IV. FILES D’A D’ATTENTE
90
– On appelle système d’attente l’ensemble des clients qui font la queue, y compris ceux ou celui qui est en train d’être servi.
IV.2
Evaluatio Evaluation n du système, système, mesures mesures à long terme
On appellera état du système à l’instant t, le nombre N t de clients présents dans le système d’attente. On notera pn (t) la probabilité que n clients soient présents dans le système à l’instant t i.e. P (N t = n) et pn = lim pn(t), n ∈ N, t→+∞
ce sont les probabilités en régime stationnaire, qui signifient que dans le long terme exactement n clients soient présents dans le système ou qui indiquent la proportion du temps, en régime stationnaire (avec quelques hypothèses supplémentaires), où le système contient n clients, ce qui ne signifie pas qu’il devient parfaitement déterministe. La connaissance de ces probabilités permet de calculer de nombreuses mesures de performance du système d’attente que l’on étudie. On considèrera en particulier les mesures suivantes suivantes : – Ls : nombre de clients attendu dans le système d’attente (en régime stationnaire). – Lq : nombre de clients dans la file d’attente (en régime stationnaire). – W s : temps attendu passé par chaque client dans le système (en régime stationnaire). – W q : temps attendu passé par chaque client dans la file d’attente (en régime stationnaire). Par Par définitio définition n on a : +∞
Ls =
npn .
n=0
Si le système comporte c serveurs, +∞
Lq =
(n − c) pn .
n=c+1
En effet, il ya (n − c) clients dans la file si et seulement s’il y a n clients dans le système.
IV.2 IV.2 .a
Lois Lo is de Litt Little le
Appelons λ le taux d’entrée moyen de clients dans le système d’attente, on a les formules de Little : Ls = λW s et Lq = λW q .
La durée moyenne moyenne de service par client est : W s − W q . Le nombre moyen moyen de serveurs occupés occupés est : Ls − Lq .
IV.3. FILES D’A D’ATTENTE TTENTE M/M/1 M/M/1
IV.3 IV.3
91
Files Files d’at d’atten tente te M/M/ M/M/1 1
Un système M/M/1 est caractérisé par le fait que c’est processus de naissance sance et de mort, mort, où les paramè paramètre tress d’arriv d’arrivée ée sont : λn = λ, n ∈ N et les ∗ paramètres paramètres de sortie : µ0 = 0 , µn = µ,n ∈ N . On supposera dans notre cas que les clients arrivent suivant un processus de Poisson de paramètre λ et que le temps de service suit une loi exponentielle de paramètre µ. La signification signification de ces paramètres paramètres est la suivante suivante : λ est le nombre moyen d’arrivées par unité de temps et µ, le nombre moyen de clients pouvant être servis 1 par unité de temps. La durée moyenne d’un service est donc µ
IV.3 .a
Probab Probabilit ilités és associé associées es
Pour que le service puisse s’effectuer sans allongement indéfini de la file, il faut que λ < µ, d’après les résultats vus sur les processus de naissance et de mort mo rt,, on a :
λ µ
pn =
n
p0
+∞
De la condition,
pk = 1, on déduit que sous les conditions indiquées, p0 =
k=0
λ 1 − et finalement, µ
pn =
Posons ρ =
Posons ρ =
λ µ
n
λ µ
1−
λ , on obtient, en régime stationnaire, µ
λ . µ
W q =
ρ µ
1−ρ
Lq = λW q =
1 W s = µ−λ Ls = λW s =
ρ2
1−ρ λ µ−λ
La probabilité probabilité que le serveur soit occupé est : 1 − P (N = 0) = 1 − (1 − ρ) = ρ La probabilité qu’il y ait plus de n clients clients dans le système est : P (N ≥ n) = (1 − ρ)
k≥n
ρk = ρn .
CHAPITRE CHAPITRE IV. FILES D’A D’ATTENTE
92
Exem Exempl ple e n◦1
IV.3 IV.3 .b
Chez un médecin la durée moyenne d’une consultation est de 15 minutes, celui-ci prend des rendez-vous toutes les 20 minutes, les clients étant supposés arriver de manière aléatoire. D’après le modèle que nous utilisons nous avons 3 ici, l’unité de temps étant l’heure, λ = 3 et µ = 4. 4 . On obtient Ls = = 3 et 4−3 3 3 W q = = . Cela signifie que le nombre moyen de clients dans la salle 4(4 − 3) 4 d’attente et dans le cabinet du médecin est de 3 et leur temps moyen d’attente 3 dans la salle d’attente est de d’heure, tandis que le temps moyen passé chez 4 le médecin est de 1 heure. La probabilité qu’il y ait plus de 4 client clientss dans dans le systèm systèmee d’atte d’attent ntee est de 3 4 3 ( ) ≈ 0.316 316,, tandis que le médecin est occupé en moyenne d’heure d’heure par 4 4 heure. On montre que la probabilité que l’attente dans la file soit inférieure à une durée t est: P (T f f ≤ t) = 1 −
λ µ
e−(µ−λ)t
De même la probabilité que le temps passé dans le système d’attente soit inférieur à une durée t est: P (T s ≤ t) = 1 − e−(µ−λ)t
Dans l’exemple IV.3 .b, la probabilité d’attendre moins de 20 minutes chez le 3 1 médecin médecin avant avant la consultatio consultation n est : 1 − e− 3 ≈ 0.463 et la probabilité de passer 4 1 moins de 20 minutes chez le médecin est 1 − e− 3 ≈ 0.283 283.. La probabilité qu’un 3 −1 patient attende plus d’une heure est P (T f ≈ e f > 1) = 1 − P (T f f ≤ 1) = 4 0.276 276..
IV.4 IV.4
File Filess M/M/ M/M/1 1 (N) (N)
Dans de nombreux cas le nombre de clients dans le système d’attente est limité, soit N le nombre maximum de clients admissibles. Dans le système de naissan naissance ce et de mort mort associé associé,, on a mainten maintenan antt : λn = λ, n ∈ {0, . . . , N − 1}, 0 sinon et de même µn = µ, n ∈ { 1, . . . , N } , 0 sinon. En régime stationnaire, on a donc, en posant ρ = pn = ρn
1−ρ , si λ =µ (1 − ρN +1 )
pn =
1 , si λ = µ. N + 1
On obtient Ls =
ρ
(1 − ρ)
λ : µ
−
(N + 1)ρN +1 si λ = µ. (1 − ρN +1 )
IV.4. FILES M/M/1 (N)
93
et Ls =
N
si λ = µ 2 Lq = Ls − (1 − p0 ). La probabilité probabilité pour que le serveur serveur soit occupé est : (1 − pn )ρ = ρ W s =
et W q =
(1 − ρN ) . (1 − ρN +1 )
Ls (λ − pN ) Lq . λ(1 − pN )
94
Exercices du chapitre IV Exercice Exercice IV.1 Chez un coiffeur, il entre λ = 5 clients à l’heure, et on sert µ = 6 clients à l’heure. Des clients attendent en permanence. 1. Quelle est la fraction fraction des clients qui n’aura pas besoin d’attendr d’attendre? e? 2. Calculer Calculer le nombre nombre moyen moyen de clients clients dans le système système et dans la file. 3. Dans le salon il y a quatre chaises réservées aux clients qui attendent. Quelle est la probabilté pour qu’un nouveau client demeure debout. 4. Calculez Calculez la durée moyenne moyenne d’attent d’attentee dans le salon et dans la file.
Exercice Exercice IV.2 Une succursale de banque est ouverte chaque jour ouvrable, de 9h à 17h en journée continue. Elle accueille en moyenne 64 clients par jour. Il y a un guichet unique, la durée moyenne de chaque traitement est de deux minutes et demie. Les clients font la queue dans leur ordre d’arrivée, aucun client n’étant refusé. On suppose que l’on fonctionne en régime stationnaire. 1. Calculer le temps moyen passé à attendre dans la queue, puis le temps moyen passé dans la banque. 2. Quelles Quelles sont les probabilités probabilités pour qu’il n’arrive n’arrive aucun client entre entre 15 15h h et 16 16h? h? Que Que 6 clients arrivent entre 16 16h h et 17 17h h? 3. Quelle est, en moyenne moyenne et par heure, la durée pendant laquelle laquelle l’employé l’employé du guichet ne s’occupe pas des clients? 4. Quelle est la probabilité probabilité d’avoir d’avoir quatre clients clients dans la file d’attente? d’attente? 5. Quelle est la probabilité probabilité qu’un client client passe plus d’un quart d’heure d’heure dans la banque? On fait maintenant l’hypothèse que la banque ne peut accueillir plus de cinq clients à la fois, ce qui arrivent en surnombre repartent. 6. Tracer le graphe des transitions transitions associé à ce processus. processus. 7. Déterminer Déterminer les probabilités probabilités de chaque état en régime stationnaire stationnaire et calculer le nombre moyen de clients refusés par jour ainsi que le temps d’inactivité de l’employé.
95
Quatrième partie
Eléments de Fiabilité
97
Chapitre I
Présentation I.1 I.1
Intr Introdu oduct ction ion
La fiabilité fiabilité est l’aptitude l’aptitude d’un système, système, d’un matériel,. matériel,. . . ) à fonctionner fonctionner sans incident pendant un temps donné. Pour l’AFNOR c’est la caractéristique d’un dispositif, qui s’exprime par une probabilité, pour que celui-ci accomplisse la fonction requise, dans des conditions déterminées, pendant une période donnée. Prévoir la fiabilité est essentiel pour des raisons de sécurité (systèmes de freinage, système système avioniques, avioniques, systèmes systèmes nucléaires, nucléaires, systèmes systèmes informatiques, informatiques, . . . ). La quasiimpossibilité de réparer certains matériels (satellites par exemple), les problèmes économiques (coûts de défaillances, gestion du personnel de maintenance, maintenance tenance des stocks de pièces de rechange, rechange, . . . ) rendent nécessair nécessairee la connaissance connaissance de la fiabilité des systèmes utilisés. Dans notre cas nous ne considèrerons que des situations simples.
I.2 I.2 .a
Général Généralités ités,, termino terminologi logiee Fonctio onctions ns de défai défaillan llance ce et de fiabil fiabilité ité
On considère ici un dispositif unique, ou un groupe de dispositifs identiques de même provenance utilisés dans des conditions semblables, dont les propriétés sont susceptibles de se modifier au cours du temps. Au bout d’un certain temps appelé durée de vie , le système cesse de satisfaire aux conditions d’utilisation. Définitions On appelle, 1. fiabilité d’un système S la probabilité probabilité notée R(t) que le système n’ait aucune défaillance sur l’intervalle [0, t]. 2. maintenabilité d’un système d’un système réparable S et on note M (t) la probabilité pour que le système soit réparé avant l’instant t sachant qu’il est défaillant à l’instant 0, on M (t) = 1 − P (S non réparé sur [0, t]). 3. MTTF (mean time to failure), failure), la durée moyenne moyenne de bon fonctionnem fonctionnement ent d’un système en état de marche à l’instant initial.
CHAPITRE I. PRÉSENTA PRÉSENTATION
98
4. MTBF (mean time between failure) la moyenne des temps entre deux défaillances d’un système réparable, en régime stationnaire. Si l’on appelle T la v.a. mesurant la durée de bon fonctionnement du système, on a R(t) = P (T > t = 1 − P (T ≤ t). Si T a pour densité f , on a presque partout, f (t) = −R (t). La MTTF est alors l’espérance de T si elle existe et on a la relation,
+∞
M T T F = E (T ) =
R(t)dt
0
On introduit introduit le taux instantané instantané de défaillance défaillance λ(t), on obtient, P (t < T ≤ t + ∆t|T > t) ∆t→0 ∆t
λ(t) = lim lim
On voit que λ(t) = −
et donc que
R (t) R(t)
t
R(t) = exp −
λ(u)du .
0
d’où
t
T (t) = 1 − exp −
λ(u)du
0
On constate expérimentalement que dans la plupart des cas la courbe représentative tative de cette cette fonction est une courbe en baignoire baignoire comportant comportant trois périodes : 1. Période (1) : le taux de défaillance décroît, il correspond à des fautes de jeunesse. 2. Période (2) : c’est la période de vie utile, le taux reste à peu près constant, les pannes pannes semblent semblent seulement seulement dues au hasard. hasard. 3. Période (3) : le taux d’avarie croît rapidement, les pannes sont dues aux défauts défauts causés causés par l’usure.
I.3
Détermi Déterminati nation on expérime expérimen ntale
I.3 I.3 .a
Estim Estimati ation on des des fonc fonctio tions ns R et T
Sur un intervalle [0, t], une estimation de la fonction R(t est fournie par le pourcentage des dispositifs n’ayant subi aucune défaillance. Exemple On étudie la fiabilité d’un ensemble de pièces mécaniques. On a étudié pour cela la durée de vie de 9 de ces pièces. Les temps de bon fonctionnement (en heures) jusqu’à défaillance constatés sont, N◦ pièce temps
1 90
2 350
3 950
4 1660
5 530
6 1260
7 23 8 0
8 230
9 720
I.3. DÉTERMINATION DÉTERMINATION EXPÉRIMENT EXPÉRIMENTALE ALE
Fig.
99
I.1 – Allure de la courbe du taux d’avarie
On estime la valeur de R(t) en prenant le quotient par 9 du nombre de pièces en état de marche à l’instant t, N (t) étant le nombre de pièces en état de marche à l’instant t :. On obtient obtient ainsi le tableau suivant suivant :
t N (t) R(t)
90 8
230 7
530 6
720 5
950 4
1260 3
1660 2
238 0 1
8 9
7 9
6 9
5 9
4 9
3 9
2 9
1 9
0 0
Cette méthode d’estimation est acceptable si le nombre des systèmes mis en service à l’instant 0 est suffisemment grand. C’est ainsi que l’on adopte les estimations suivantes pour R(t) : i si n > 50 (méthode des rangs bruts) n i si 20 < n ≤ 50 (méthode des rangs moyens) n+1 (i − 0.3 si n ≤ 20 (méthode des rangs médians) n + 0.4
Dans l’exemple précédent, on utilise utilise la méthode des rangs médians et on obtient :
i t R(t)
1 90 0.93
2 230 0.82
3 530 0.71
4 720 0.61
5 950 0.5
6 1260 0.39
7 1660 0.28
8 23 80 0.18
9 0.07
CHAPITRE I. PRÉSENTA PRÉSENTATION
100
I.4 I.4 I.4 I.4 .a .a
Prin Princi cipa pales les lois lois util utilisé isées es La loi loi expo expone nen ntielle tielle
Si on considère des systèmes ne présentant pas de phénomènes d’usure (semiconduc conducteu teurs, rs, . . . ) et pour lesque lesquels ls les défauts défauts de jeunes jeunesse se sont sont néglige négligeabl ables, es, il faut envisager une loi dont le taux d’avarie est constant, on l’utilise aussi pour décrire la période de vie utile du système. On a alors λ(t) = λ. On obtient ainsi, R(t) = e−λt , M T T F = E (T ) =
1 λ
La probabilité pour que le système fonctionne après un temps d’utilisation égal à la M T T F est R( λ1 = 1e ≈ 0.368 soit environ 36.8% 8%.. En reprenant reprenant l’exemple l’exemple ci-dessus, on peut approximer par une loi exponentie exponentielle lle 1 de paramètre λ ≈ 1660 ≈ 0.00094 00094.. On en déduit que la probabilité que la pièce 2000 fonctionne à peu près 2000 heures est exp(− 1060 ) ≈ 0.15 15..
I.4 I.4 .b .b
Loii de Lo de Wei Weibu bull ll
Dans la loi de Weibull W (γ , η , β ) la M T T F est égale à η Γ 1 +
1
β
. Le
calcul pratique se fait grâce à des tables qui donne une valeur A = ηΓ 1 + β1 suivant les valeurs de β . De la même manière on a des tables avec une valeur B où V (T ) = Bη 2 .
101
Chapitre II
Fiabilité d’un système et de ses composants II.1 II.1
Syst Systèm èmee à stru struct ctur uree en séri sériee
Un système présente une structure en série si la défaillance d’un de ses composants composants entraîne entraîne celle du système. système. Il est souvent souvent représen représenté té par le schéma : C 1
C 2
C 3
Si T i, i ∈ {1, . . . , n détermine le temps de bon fonctionnement du composant n◦i, les événements (T i > t) étant supposés indépendants, on a si T représente le temps de bon fonctionnement du système, n
(T > t) =
(T i > t)
i=1
D’où, n
R(t) =
Ri (t)
i=1
II.1 II.1 .a
Exem Exempl ple e
Un système à structure en série est constitué de n composants C i indépendants dont la durée de vie T i suit une loi exponentielle de paramètre λi . Pour chaque composant, nous avons Ri (t) = exp(λi t) si t ≥ 0, 0 sinon.. La fonction de fiabilité du système système est donc : R(t) = exp(λ1 t + . . . + λn t) si t ≥ 0, 0 sinon .
On en déduit que le système suit une loi exponentielle de paramètre λ = λ1 + . . . + λn. On obtient, 1 M T T F = n
i=1
λi
CHAP APIT ITRE RE II II.. FIABI FIABILI LITÉ TÉ D’UN D’UN SYST SYSTÈM ÈME E ET DE SES SES COMP COMPOS OSAN ANTS TS 102CH
II.2 II.2
Syst Système ème à stru struct ctur uree paral parallèl lèlee
Un système présente une structure parallèle si l’état de marche d’un seul de ses composants entraîne celle du système. Le système est défaillant si chacun de ses composants est défaillant. On le représente par le type de schéma suivant suivant : C 1 c c c c c c c c • c • C 2 c c c c c c c C 3 Si le système comporte n éléments en parallèle, on a n
(T ≤ t) =
(T i ≤ t).
i=1
D’où, n
R(t) = 1 −
(1 − Ri (t)).
i=1
II.2 II.2 .a
Exem Exempl ple e
Dans un système à structure parallèle de n composants, on suppose que la durée de vie de chaque composant suit une loi exponentielle de paramètre λ. Soit T 1 la durée d’attente avant que le premier composant ne tombe en panne et pour i > 1, T i le temps écoulé entre la mise hors service de l’élément i − 1 et l’élément i (on suppose que l’on ordonné les composants dans l’ordre de leur défaillance). On a alors, n
T =
T i .
i=1
Entre la défaillance de l’élément i − 1 et celle du suivant, il reste n − i + 1 appareils que l’on peut traiter comme s’ils étaient en série (puisque l’on attend la défaillance d’un élément quelconque). On en déduit que T i suit une loi 1 exponentielle de paramètre λi = (n − i + 1)λ et E (T i ) = . Par suite, λi
n
E (T ) =
i=1
II.3 II.3
1 λi
=
λ(1 +
1 2
1 + . . . + n1 )
Syst Systèm èmes es à stru struct ctur uree mixt mixtee
Si le système combine les deux structures précédentes est appelé système à structure mixte, mixte, on peut en général le décomposer en sous-systèmes qui sont soit en série soit en parallèle.
II.3. SYSTÈMES SYSTÈMES À STRUCTURE STRUCTURE MIXTE MIXTE II.3 II.3 .a
103
Exem Exempl ple e
Soit le système suivant, C 1 c c c c c c c c • c • c c c c c c c C 2
C 3
Le système est une structure série du composant C 3 et du sous-système noté structure parallèle. La durée de vie de ce sous-système sous-système est : C 1,2 à structure R1,2 = 1 − (1 − R1 (t))(1 − R2 (t)) = R1 (t) + R2 (t) − R1 (t)R2 (t).
Par suite, R(t) = R3 (t).(R1 (t) + R2 (t) − R1 (t)R2 (t)).
104
Exercices du chapitre II Exercice Exercice II.1 On considère un système S constitué de 5 composants, composants, de fonctions fonctions de fiabilité fiabilité respectives Ri , suivant suivant le schéma schéma ci-dessous. ci-dessous. Déterminer Déterminer la fonction fonction de fiabilité fiabilité R de ce système. C 1 c c c c c c c c • c • c c c c c c c C 2
C 3 c c c c c c c c C 4
•
C 5
Exercice Exercice II.2 La fiabilité d’un type de machine a été ajustée par une loi de Weibull de paramètres γ = 40 , η = 60 et β = 1.1 1. Déterminer la M T T F et calculer le temps de bon fonctionnement pour une défaillance admise de 50% 50%.. 2. Calculer Calculer le taux d’avarie d’avarie pour les valeurs t = 45, 75, 105, 135 et 165.
105
Cinquième partie
Annexes
107
Annexe A
Eléments de probabilités A.1
Vocabulair ocabulairee des probab probabilit ilités és
Expérience Expérience aléatoire aléatoire : une expérience dépendant du hasard. On la décrit par l’ensemble de ses résultats possibles. Un résultat possible est appelé l’univers éventualité. L’ensemble des éventualités sera nommé Ω qui est l’univers des possibles. Evénemen Evénementt aléatoire aléatoire : tout événement lié à une expérience aléatoire, il est représenté par le sous-ensemble des éventualités permettent sa réalisation qui est une partie ou sous-ensemble de Ω donc un élément de P (Ω). (Ω). Un événement élémentaire est un singleton ω de P (Ω). (Ω). Ω est appelé événement certain . l’ l ’événement événement contraire d’un événement événement A est le complémentaire dans Ω de A, on le note A¯. Etant donnés deux événement A et B on note A ou B l’ensemble A ∪ B , événement A et B l’ensemble A ∩ B . On dit que deux événements A et B sont incompatibles si A ∩ B = ∅. On dit que l’événement A implique l’événement B si A ⊂ B . Système Système complet complet d’événeme d’événements nts : Soit (Ai )i∈I où I est une partie finie ou dénombrable de N, une famille d’événements non vides de Ω. On dit qu’elle constitue constitue un système système complet d’événemen d’événements ts si : 2 – ∀(i, j ) ∈ I , (i = j ) = > (Ai ∩ Aj = ∅). –
Ai = Ω .
i∈I
A.2 A.2
Espa Espace cess prob probab abili ilisé séss
Soit Omega un ensemble, et B une partie de P (Ω) (Ω) vérifiant vérifiant:: – Ω ∈ B. – ∀A ∈ B, A¯ ∈ B – Pour toute toute famille finie ou dénombrable dénombrable (Ai )i∈I d’éléments de B , B. On a les propriétés propriétés suivante suivantess : – ∅ ∈ B. – B est stable par intersection dénombrable. ¯ ∈B – ∀A, B ∈ B ,A ∩ B
i∈I Ai
∈
ANNEXE ANNEXE A. ELÉMENTS ELÉMENTS DE PROBABILI PROBABILITÉS TÉS
108 – ∀A, B ∈ B ,A∆B ∈ B
A.2 .a .a
Défin Définiti ition on des des prob probab abili ilités tés
On appelle probabilité sur l’espace probabilisable (Ω,B ) toute application telle que : P de B dans [0, 1] telle 1. P (Ω) = 1 2. Pour toute suite (An ) d’événements deux à deux incompatibles de a,
B,
on
+∞
P
An
=
P (An )
n=0
n∈N
Le triplet (Ω,B ,P ) est alors appelé espace probabilisé. Propriété Propriété : Si (Ai ]i∈I est un système complet d’événements,
P (Ai ) = 1.
i∈I
Définiti Définition on : Deux événements A et B sont indépendants si P (A ∩ B ) = P (A).P (B ).
A.2 .b
Probab Probabilit ilités és cond conditio itionne nnelles lles
définit définition ion : 0, on appelle probaSoient deux événements A et B tels que P (A) = bilité conditionnelle conditionnelle de B sachant que A est réalisé (ou B sachant A) : P (B |A) =
Soient (Ai ), i ∈ {1, . . . , n}, n ∈
N
P (A ∩ B ) . P (A)
une famille famille de n événemen événements ts tels que
n
P
Ai
= ∅., on a,
i=1
n
P
Ai
= P (A1 )P (A2 |A1 ) . . . P ( An |A1 ∩ . . . ∩ An−1 ).
i=1
Si (Ai )i∈I est un système complet d’événements de probabilités non nulles, on a la formule des probabilités totales Pour tout événement B , P (B ) =
P (B |Ai )P (Ai ).
i∈I
De la même façon, on obtient la formule formule de Bayes Bayes :
n
P
Ai
i=1
P (Ak |B ) =
P (B |Ak )P (Ak ) . i∈I P (B |Ai )P (Ai )
A.3. VARIABLES ALÉATOIRES ALÉATOIRES
A.3 A.3 A.3 .a
109
Variable ariabless aléatoir aléatoires es Défin Définit itio ions ns
1. On appelle, de façon générale, variable aléatoire réelle (v.a.r. ou v.a. dans la suite) sur l’espace probabilisé (Ω, B , P ) toute application X de Ω dans R telle que pour tout intervalle I de R, X −1 (I ) ∈ B où X −1 (I ) = {ω ∈ Ω|X (ω) ∈ I }. On aura par définition, P (X (ω ) ∈ I ) = P (X −1 (I )) )). que l’on notera notera désormais, désormais, P (X ∈ I ) 2. On appelle fonction de répartition de la v.a. x l’application de [0, 1] définie par x → P (X ≤ x).
A.3 .b .b
Rdans
Variable ariabless aléato aléatoires ires discrèt discrètes es
On dira que X est une v.a. discrète si X (Ω) (Ω) est fini ou dénombrable. Soit {x1 , x2 , . . . , xn , . . .} les valeurs prises la v.a. On appellera loi de v.a. discrète X , l’ensemble l’ensemble des couples couples (xi , P (X = xi )). Définitions 1. On appelle espérance de X la quantité quantité : E (X ) =
xi P (X = xi )
i∈I
Elle existe sous réserve de convergen convergence ce de cette série. 2. On appelle variance de X la quantité V (X ) =
(xi − E (X ))2 P (X = xi )
i∈I
sous réserve de convergen convergence. ce. On a, V (X ) = E (X 2 ) − E (X )2 . 3. Si la variance variance existe, on définit l’écart-type l’écart-type de X , σ (X ) =
V (X ).
4. Si X admet une espérance et une variance, on définit la variable variable centrée réduite X − E (X ) X ∗ = . σ (X )
A.3 .c
Variable ariabless aléatoir aléatoires es cont contin inues ues
Définitions 1. Si f est une fonctio fonction n rélle rélle d’une d’une variable ariable réelle, réelle, on dit que f est une densité de probabilité si : – f est une fonction fonction à valeurs valeurs réelles positives. positives. – f est continue sur R (sauf éventuellement en un nombre fini de valeurs).
ANNEXE ANNEXE A. ELÉMENTS ELÉMENTS DE PROBABILI PROBABILITÉS TÉS
110
+∞
–
f (t)dt = 1 .
−∞
2. Soit X une variable à densité densité f , on définit définit :
x
F (x) = P (X ≤ x) =
f (t)dt.
−∞
F est continue sur
et et dérivable sauf éventuellement en un nombre fini de points. De plus F est croissante et à valeurs dans [0, 1]. 1]. De plus lim F (x) = 0 et lim F (x) = 1 x→−∞
R
x→+∞
Si a et b sont deux réels, on a P (a < X ≤ b) = F (b) − F (a). 3. Si X est une variable à densité f et sous réserve de convergence, on a
+∞
– E (X ) =
tf (t)dt.
−∞ +∞
– V (X ) =
(t − E (X ))2 f (t)dt
−∞
A.4 A.4 A.4 A.4 .a .a
Lois Lois usue usuell lles es Loii bin Lo binôm ômia iale le
La loi binômiale notée B (n, p) où n ∈ N, p ∈]0, 1[ est définie définie par : P (X = k) = C nk pk (1 − p)n−k , k{0, . . . , n}.
On a E (X ) = np et V (X ) = np(1 − p).
A.4 A.4 .b .b
Loii de Lo de Poi Poiss sson on
Soit λ un réel strictement positif, la loi de Poisson est définie par P (X = k ) = e−λ
λk . k!
On a E (X ) = λ et V (X ) = λ.
A.4 A.4 .c
Loii géom Lo géomét étriq rique ue
Soit p ∈]0, 1[, 1[, et q = 1− p, une variable aléatoire X suit une loi géométrique de paramètre p, si P (X = k ) = q k p, k ∈ N. On a E (X ) =
A.4 A.4 .d
q q et V (X ) = 2 . p p
Loii uni Lo unifo form rme e notée U [,] si sa ¯ si t ∈ [a, b], 0 sinon. On a
uniforme sur un intervalle [a, b] de X suit une loi uniforme 1 b−a x−a si x ∈ [a, b] b−a F (x) = 0 si x ≤ a 1 si x > b
densité f est définie par f (t) =
R,
A.4. LOIS USUELLES USUELLES a+b
E (X ) =
2
A.4 .e
111 (b − a)2 . 12
et V (X ) =
Loii expo Lo expone nent ntiel ielle le
X suit une loi exponentielle exponentielle de paramètre λ, notée E (λ) si sa densité est f (x) =
On a, On obtient, E (X ) =
A.4 A.4 .f .f
1 λ
λe−λx
si x ≥ 0 0 si x < 0
et V (X ) =
1 λ2
.
Loii de Lo de Wei Weibu bull ll
X suit une loi de Weibull de paramètres γ, η, β , notée W (γ, η, β ). si,
β . η
f (x) =
β −1
x − γ η
exp −
x − γ η
0
On obtient,
F (x) =
1 − exp −
x − γ η
A.4 A.4 .g
1
β
si x ≥ γ si x < γ
β
0
E (X ) = ηΓ 1 +
β
si x ≥ γ
si x < γ
+∞
où Γ(x) =
e−t tx−1 dt.
0
Exem Exempl ple e
Soit T une v.a. de distribution géométrique, m et k deux entiers, on a P (T = m + k|T ≥ m) = P (T = k ). (à démontrer) La distribution géométrique est sans mémoire, ce qui veut dire ici que le nombre d’essais entre deux succès ne dépend pas du nombre d’essais qui précèdent (propriété de Markov). De la même manière, si X suit une loi exponentielle de paramètre λ, P (X > t + h|X > t) =
e−λ(t+h) = e−λh = P (X > h), t, h > 0. − λt e
Si X représent représentee le temps d’attente d’attente avant avant qu’un événemen événementt particulier particulier ne se produise, et que t unités unités de temps temps n’ont n’ont produit produit aucun aucun événe événemen ment, t, alors alors la distribution avant qu’un événement ne se produise à partir de la date t est la même que si aucun temps ne s’était écoulé. Là aussi le processus est sans mémoire.
112
ANNEXE ANNEXE A. ELÉMENTS ELÉMENTS DE PROBABILI PROBABILITÉS TÉS
A.1 – Quel Quelqu ques es densi densités tés de la loi loi de Weibu eibull ll ( η = 1, γ = 0, β = 0.3, 0.6, 1, 1.5, 2, 3.)
Fig.
113
Annexe B
TABLES B.1 B.1
Table able de de la loi loi de de Pois Poisso son n P (X = k ) =
k↓λ→
0 1 2 3 4 5
0.2 0.8187 0.1637 0.0163 0.0011 0.000 0.000
0. 3 0.7408 0.2222 0.0333 0.0033 0.0002 0.000
λk −λ e k!
0.4 0.6703 0.2681 0.0536 0.0536 0.0007 0.0001
E (X ) = V (X ) = λ
0.5 0.6065 0.3032 0.0758 0.0758 0.0015 0.0001
0.6 0.5488 0.3293 0.0988 0.09988 0.003 0.0003
1 0.368 0.368 0.184 0.061 0.015 0.003
1.5 0.223 0.335 0.251 0.126 0.047 0.014
2 0.135 0.271 0.271 0.180 0.090 0.036
3 0.0498 0.149 0.224 0.224 0.168 0.101
4 0.018 0.073 0.147 0.195 0.195 0.156
5 0.007 0.034 0.084 0.140 0.176 0.176
ANNEXE ANNEXE B. TABLES
114
B.2 B.2
TABLE ABLE DE DE LA LOI LOI DE WEIB WEIBUL ULL L
Tableau des coefficients nécessaires aux calculs de E (X )) ))Aη + γ et de σ(X ) = Bη . β 0.20 0.25 0.30 0.35 0.40 0.45 0 . 50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95
1 1.05 1.1 1.15 1.20 1.25
A
B
120 24 9.261 5.0291 3.323 2.479 2 1.702 1.505 1.366 1.264 1.191 1.133 1.088 1.052 1.023 1 0.960 0.965 0.952 0.941 0.931
1 90 1 199 50.08 19.98 10.44 6.46 4.47 3.35 2.65 2.18 1.85 1.61 1.43 1.29 1 . 17 1.08 1 0.934 0.878 0.830 0.787 0.750
β 1 .3 1 .35 1.40 1.45 1. 5 1.55 1. 6 1.65 1. 7 1.75 1. 8 1.85 1. 9 1.95
2 2. 1 2 .2 2. 3 2. 4 2. 5 2. 6 2. 7
A 0.924 0.917 0.911 0.907 0.903 0.899 0.897 0.894 0.892 0.8906 0.889 0.888 0.887 0.887 0.886 0.886 0.8856 0.886 0.887 0.887 0.888 0.889
B 0.716 0.687 0.660 0.635 0.613 0.593 0.574 0.556 0.540 0.525 0.511 0.498 0.486 0.474 0.463 0.443 0.425 0.409 0.393 0.380 0.367 0.716
β 2.8 2.9
3 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 4 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9
A 0.891 0.892 0.893 0.894 0.896 0.897 0.898 0.900 0.901 0.9025 0.904 0.905 0.906 0.908 0.909 0.910 0.911 0.913 0.914 0.915 0.916 0.971
B 0.344 0.334 0.325 0.316 0.307 0.299 0.292 0.285 0.278 0.272 0.266 0.260 0.254 0.249 0.244 0.239 0.235 0.230 0.226 0.222 0.218 0.214
β
5 5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 6 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9
A 0.918 0.919 0.920 0.921 0.922 0.923 0.924 0.925 0.926 0.927
0928 0.929 0.929 0.930 0.931 0.9318 0.9325 0.933 0.934 0.935
B 0.210 0.207 0.203 0.200 0.197 0.194 0.191 0.188 0.185 0.183 0.180 0.177 0.175 0.172 0.170 0.168 0.166 0.163 0.161 1.160
115
Annexe C
conclusion J’ai eu beaucoup de plaisir à écrire ce modeste manuel qui j’espère aidera les étudiants qui ont le courage de reprendre le chemin des études après bien souvent une dure journée de labeur. Je leur exprime toute mon admiration et leur souhaite bon courage. Richard Loustau
Index adjacence, 4 algorithme algorithme de Dijkstra, Dijkstra, 17 algorithme de Floyd, 19 algorithme de Ford, 16 algorithme algorithme du simplexe, simplexe, 51 arcs, 3 arêtes, 4 boucle, 3 capacité du système, 89 chaîne chaîne apériodique, apériodique, 85 chaîne de Markov, 83 chaîne chaîne de Markov ergodique, 85 chaîne irréductible, 85 chaînes, 4 chemin critique, 16 chemin élémentaire, 5 chemin hamiltonien, 5 chemin simple, 5 chemins, 4 circuit, circuit, 5 classe de transition, 85 classe finale, 85 composantes connexes, 9 composantes fortement connexes, 9 concaténation, 5 contraintes de positivité, 36 coût réduit, 63 cycle, 5 degré, 5 degrés, 5 demi-degré extérieur, 5 demi-degré intérieur, 5 densité densité de probabilité probabilité,, 109 discipline de service, 89 domaine domaine réalisable, réalisable, 40 dual, 58 durée de vie, 97 écart-type, 109
équations d’équilibre, 79 équations de Chapman-Kolmogorov, 84 équation équation de normalisatio normalisation, n, 79 espace des décisions, 40 espace des états, 71 espace probabilisé, 108 espérance espérance d’une v.a. discrète, 109 état absorbant, 85 états communicants, 85 état du système, 90 état périodique, 85 état récurrent, 85 état transitoire, 85 éventualité, 107 événement aléatoire, 107 événement certain, 107 événement contraire, 107 événement élémentaire, 107 événements incompatibles, 107 expérience aléatoire, 107 extrémité finale, 3 extrémité initiale, 3 fermeture transitive, 7 fiabilité fiabilité d’un système, 97 file d’attente, 89 fonction aléatoire, 71 fonction de répartition, 109 fonction économique, 35 formes canoniques, 36 formule de Bayes, 108 formule des probabilités totales, 108 formules de Little, 90 graphe orienté, 3 graphe partiel, 4 graphe réflexif, réflexif, 4 graphe symétrique, 4 graphe graphe transitif, transitif, 4 1-graphes, 1-graphes, 3
INDEX intervalle de stabilité, 64 loi binômiale, 110 loi de Poisson, 110 loi de Weibull, 111 loi exponentie exponentielle, lle, 111 loi géométrique géométrique,, 110 loi uniforme, 110 maintenabilité d’un système, 97 matrice d’adjacence, 5 matrice d’incidence, 6 matrice stochastique, 84 MPM, 25 MTBF, 98 MTTF, 97 méthode des rangs bruts, 99 méthode des rangs moyens, 99 méthode des rangs médians, 99 méthode en 2 phases, 53 méthode en deux phases, 53 notation de Kendall, 89 PERT, 25 pivot, 48 points extrêmes, extrêmes, 40 polyèdre convexe, 40 primal, 58 probabilité, 108 probabilité conditionnelle, 108 probabilités probabilités de transition, transition, 83 processus processus de Markov, 83 processus de naissance et de mort, 77 processus de Poisson, 73 processus stochastique, 71 relation binaire, 3 Roy-Warshall, 8 régime stationnaire, 79 solution de base, 38 solution de base réalisable, 38 solution solution optimale, optimale, 38 solution solution réalisable, réalisable, 38 sommets, 3 sous-graphe, 4 structure en série, 101 structure mixte, 102 structure parallèle, 102
117 suite stochastique, 71 système complet d’événements, 107 système d’attente, 90 système M/M/1, 91 trajectoire, trajectoire, 71 variable aléatoire réelle, 109 variable centrée réduite, 109 variable d’écart, 36 variables artificielles, 53 variables ariables de base, 38 variables de décision, 36 variables ariables en base, 38 variables hors base, 38 variables structurelles, 36 variance d’une v.a. discrète, 109