jahbromo@yahoo.fr
1
RESOLUTION ANALYTIQUE ET
NUMERIQUE DE F(X)=0
SIDIBE Ali-Broma
Marrakech, le 25 Juin 2007
1
REMERCIEMENTS
Cette modeste oeuvre n’a pas pu ˆetre r´ealis´ee sans la participation directe ou indirecte de nom-
breuses bonnes volont´es.
A mes parents qui m’ont inculqu´e les valeurs morales et fondamentales de la vie.
Mes vifs et sinc`eres remerciements s’addressent `a :
A Mr MANSOURI Abdelatif pour l’interˆet qu’il a accord´e `a ce th`eme, son amour du
travail bien fait, sa disponibilt´e et l’excellente qualit´e de son encadrement. Qu’il trouve en ceci
la preuve de ma plus profonde gratitude envers lui et sa famille.
A Monsieur MAKKI Naciri et Monsieur Idriss BOUZIANE pour leur appui consid´erable
`a mon parcour acad´emique.Qu’ils trouvent en ceci la preuve de ma plus haute consid´eration.
A Monsieur El-Hadj Ait DADS pour ses pr´ecieux conseils constructifs `a la fin de de chaque
cours.
A l’ensemble du corps professoral du D´epartement de Math´ematiques pour l’excellente qualit´e
de leur enseignement.Qu’ils trouvent `a travers ceci le signe de ma plus profonde reconnaissance.
Enfin je remercie tous mes amis qui de loin ou de pr`es ont contribu´e `a la r´ealisation de ce
projet notamment mon ami SIDI ZAKARI Ibrahim pour son appui technique et mon voi-
sin HOUSSOU D Landry P. pour ses pr´ecieux conseils `a la communaut´e malienne et mes
camarades de classe.
D´edi´e `a Mr MODIBO KEITA, Premier Pr´esident de la R´epublique du Mali, et `a
Tch´edioukou Broma SIDIBE
2
Table des mati`eres
AVANT-PROPOS 4
1 R´esolution des ´equations polynˆomiales et diophantiennes 6
1.1 R´esolution alg´ebrique des ´equations polynˆomiales . . . . . . . . . . . . . . . . . 7
1.1.1 Les polynˆomes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Qu’est-ce que r´esoudre un polynˆome ? . . . . . . . . . . . . . . . . . . . . 7
1.1.3 L’existence, nombre et nature des racines . . . . . . . . . . . . . . . . . . 7
1.1.4 R´esolution par radicaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.5 Groupe de Galois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.6 Relation entre les coefficients d’un polynˆome et ses racines . . . . . . . . 10
1.1.7 Les ´equations du 1er degr´e et du 2`eme degr´e . . . . . . . . . . . . . . . 11
1.1.8 Les ´equations du 3`eme degr´e . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.9 La m´ethode de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Les ´equations du 4`eme degr´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.1 Les ´equations bicarr´ees . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.2 M´ethode de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Les ´equations du 5`eme degr´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4 La r´esolution des ´equations diophantiennes . . . . . . . . . . . . . . . . . . . . . 15
1.4.1 Le triplet pythagoricien . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.2 Equation de Fermat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.3 le triangle de rˆeve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 R´esolution des syst`emes lin´eaires et fonctions num´eriques 18
2.1 R´esolution des syst`emes lin´eaires . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.1 M´ethode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.2 L’´egalit´e entre le nombre d’inconnues et d’´equations . . . . . . . . . . . . 19
2.1.3 Plus d’´equations que d’inconnues . . . . . . . . . . . . . . . . . . . . . . 19
2.1.4 Plus d’inconnues que d’´equations . . . . . . . . . . . . . . . . . . . . . . 19
2.1.5 Diff´erence l’homme-machine sur le syst`eme Ax=b . . . . . . . . . . . . . 20
2.1.6 Limiter les d´egats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.7 Le conditionnement d’une matrice . . . . . . . . . . . . . . . . . . . . . 20
2.1.8 Interpr´etation du th´eor`eme . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.9 Les M´ethodes it´eratives . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.10 M´ethode de Jacobi, Gauss-Seidel et de Relaxation . . . . . . . . . . . . 22
2.1.11 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Les Formes lin´eaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.1 Les hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.2 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3
2.3 Les Fonctions num´eriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.1 Th´eor`eme des valeurs interm´ediaires . . . . . . . . . . . . . . . . . . . . 24
2.3.2 Th´eor`eme de Rolle 1652-1749 . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.3 Le th´eor`eme des points fixes . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4 Les extremums et formes standards . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4.1 Extremum simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4.2 Extremum li´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3 R´esolution num´erique des ´equations et syst`emes non lin´eaires 28
3.1 Les fonctions r´eelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.1 M´ethode de dichotomie ou de bissection . . . . . . . . . . . . . . . . . . 29
3.1.2 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1.3 M´ethode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1.4 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.5 Interpr´etation g´eom´etrique . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.6 Analyse de la convergence . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 R´esolution des syst`emes non lin´eaires . . . . . . . . . . . . . . . . . . . . . . . . 32
4 R´eference Bibliographique 36
4
AVANT-PROPOS
L’histoire de la r´esolution de F(X) = 0 o`u F,X de natures quelconques se confond avec
celle des Math´ematiques. Dans le but de r´epondre `a ses probl`emes ou se sentir `a l’aise l’homme
s’attaqua `a de nombreux probl`emes dont la r´esolution par une interpr´etation math´ematique se
ram`ene `a r´esoudre F(X) = 0.
Les Sages les plus r´eput´es dans l’histoire de chaque peuple ´etaient ceux qui trouvaient les solu-
tions des devinettes dont leur r´esolution se r´esume `a une ´equation math´ematique.
L’histoire de chaque peuple est confront´ee `a un probl`eme mathematique de genre du th`eme.
Par exemple il ´etait grav´e sur une tablette de Babylon l’expression : ”A 11 fois la surface de mon
carr´e, j ’ajoute 7 fois le cˆot´e pour obtenir 25
4
” qui se traduit aujourd’hui par : 11x2
+ 7x = 25
4
.
Aussi l’histoire math´ematique italienne a ´et´e confront´ee `a ce probl`eme : ”Quel est l’arˆete in-
connu d’un cube dont le volume ajout´e `a cinq fois l’arˆete donne 378. Ainsi pour r´epondre `a ce
probl`eme un nombre remarquable de savants italiens dont Nicolo Fontana, Jerome Cardano,
ludicio Ferrari, Paolo Rufini travaill`erent dans ce domaine.
De mˆeme qu’au sud du Mali une devinette `a parcouru des si`ecles : ”Trouver le nombre de
lions et d’aˆıgles qu’un chasseur pourrait tuer sachant qu’il a ramen´e cinquante quatre pattes et
dix-neuf tˆetes”.
A ceux-ci on peut ajouter d’autres probl`emes dans la vie courante tel que trouver un triangle
de mˆeme aire qu’un carr´e, maximiser les b´en´efices d’une entreprise ou minimiser les coˆuts d’un
projet.
La r´esolution de tous ces probl`emes se ram`ene ou passe par la r´esolution de F(X) = 0.
Les cours traditionnels de Math´ematiques nous enseignent des th´eories et des m´ethodes qui per-
mettent de r´esoudre de fa¸con analytique un certain nombre de probl`emes de la forme F(X) = 0.
Face au probl`eme de temps et d’efficacit´e, on est app´el´e `a faire recours `a d’autres m´ethodes qui
peuvent tout r´esoudre rapidement :Les m´ethodes num´eriques. Les m´ethodes num´eriques contrai-
rement aux m´ethodes analytiques, sans restriction, ne r´esolvent pas exactement les probl`emes
mais fournissent rapidement leurs solutions approximatives.
5
Chapitre 1
R´esolution des ´equations polynˆomiales
et diophantiennes
Introduction : La r´esolution de l’´equation F(X) = 0 demande d’abord la connaissance
de la nature de F, de X et de l’ensemble dans lequel on travaille. Suivant la nature de F et
de X, l’´equation admet ou non une solution. Pour la d´etermination des ´eventuelles solutions
existantes, des m´ethodes de r´esolution appropri´ees s’appliquent. Nous distinguerons les cas o`u
F est un polynˆome, un syst`eme lin´eaire, une fonction `a une ou plusieurs variables, un op´erateur
( le Laplacien, le gradient)...etc. Il existe d’autres natures de F mais nous nous restreignons `a
ces trois premiers cas cit´es. La nature de X est ´etroitement li´ee `a celle de F et se pr´esente sous
la forme d’un inconnu complexe dans le cas polynˆomial, d’un vecteur dans le cas des syst`emes
lin´eaires, d’un entier dans celui des ´equations diophantiennes comme dans le grand th´eor`eme
de Fermat.
Avant de rentrer dans le vif du sujet, nous rappelerons quelques notions de structures alg´ebriques
qui seront cit´ees dans ce chapitre.
D´efinition 1 1. Soit E un ensemble non vide. On appelle loi de composition interne(qu’on
abr`ege par Lci), notons ⊗, toute application de E X E dans E.
L :EXE −→ E
(x, y) −→ x ⊗ y
2.On appelle groupe, un ensemble G muni d’une loi de composition interne ∗ telle que :
– ∗ est associative : ∀x, y, z ∈ G x ∗ (y ∗ z) = (x ∗ y) ∗ z
– ∗ admet un ´el´ement neutre e (e ∗ x = x ∗ e = x)
– Tout ´el´ement admet un sym´etrique : ∀x ∈ G, ∃y ∈ G tel que x ∗ y = y ∗x = e
Un groupe (G, ∗) est dit commutatif ou ab´elien (du nom d’Abel ) si :∀ x, y ∈ G, x ∗ y = y ∗ x.
D´efinition 2 : On appelle anneau ,un ensemble A muni de deux lois de composition interne
∗, ⊕ not´e (A, ∗, ⊕) tel que :
– (A, ∗) est un groupe ab´elien.
– ⊕ est associative.
– ⊕ est distributive par rapport `a ∗.
Un anneau est commutatif si ⊕ l’est et unitaire si ⊕ poss`ede un ´el´ement neutre.
D´efinition 3 : Enfin on appelle corps tout ensemble (A, ∗, ⊕) tel que :
6
i (A, ∗, ⊕) est un anneau.
ii (A − {0}, ∗) est un groupe.
Il revient `a dire qu’un corps est un anneau dans lequel tout ´el´ement non nul est inversible dans
A
Un corps est dit commutatif si la loi ⊕ est commutative. Dans N, l’addition + est une Lci mais
la soustraction n’est pas une Lci car la soustration de deux entiers n’est pas n´ecessairement
dans N.
1 L’ensemble (Z, +) est un groupe et (Z, +, .) est un anneau.
2 Les ensembles (Q, +, .) (R, +, .) (C, +, .) sont des corps commutatifs de caracteristique 0.
3 L’ensemble M = {M ∈ Mn(R) ; det M = 0} muni de + et . est un corps non commutatif.
4 L’ensemble Z/pZ (p premier) est un corps fini de caract´eristique p.
1.1 R´esolution alg´ebrique des ´equations polynˆomiales
1.1.1 Les polynˆomes
La r´esolution des ´equations polynˆomiales a beaucoup contribu´e `a l’´evolution de l’alg`ebre.
D´efinition 4 Soit K un corps ou anneau. Un polynˆome de degr´e n dans K[X] (n un entier)
est une somme alg´ebrique de monˆomes et se pr´esente sous la forme :
P(X) = anXn
+ an−1Xn−1
+ · · · · · · + a1X + a0 avec an = 0, a0, a1, · · · , an ∈ K.
1.1.2 Qu’est-ce que r´esoudre un polynˆome ?
D´efinition 5 : Soit P un polyˆome dans K[X]. r´esoudre l’´equation P(x) = 0, dans le corps ou
anneau K c’est exprimer ses ´eventuelles racines en fonction de ses coefficients an , an−1, · · · a1 , a0
dans K.
Propri´et´e : Soit
P(x) = anxn
+ an−1xn−1
+ · · · · · · + a1x + a0 = 0.
En posant z = x − an−1
nan
on se ram`ene `a :
P(z) = anzn
+ an−2zn−2
+ · · · · · · + a1z + a0 = 0.
Cette translation nous sera tr`es utile dans la suite.
1.1.3 L’existence, nombre et nature des racines
Les deux th´eor`emes suivants permettent de nous assurer au pr´ealable l’existence et le nombre
des racines d’une ´equation polynˆomiale.
Th´eor`eme 1.1.1 Le corps des complexes C est alg´ebriquement clos.
C’est-`a-dire tout polynˆome `a coefficients dans le corps des complexes C peut ˆetre d´ecompos´e
en produits de facteurs du 1er degr´e.
Th´eor`eme 1.1.2 Tout polynˆome de degr´e n dans le corps des complexes C admet exactement
n racines complexes distinctes ou non.
7
Ce th´eor`eme a ´et´e ´enonc´e par Albert Girard, la d´emonstration a ´et´e commenc´ee par Jean le
Rond D’Alembert et ach´ev´ee par Gauss.
Pour les ´equations `a coefficients r´eels, R´en´e Descarte proposa une id´ee sur les signes des
´eventuelles racines.
Le nombre de racines positives de P(x) = 0 est ´egal, au plus, au nombre de variations de
signes de P(x) ou la diff´erence de ces deux nombres est impaire. L’´equation x3
− 2x2
− 2 = 0 a
deux variations de signe donc poss`ede au plus deux racines positives. On pourrait croire que les
deux pr´ec´edents th´eor`emes ach`event l’´etude des polynˆomes mais un probl`eme persiste :quelle
m´ethode faut-il employer pour trouver les n racines d’un polynˆome de degr´e n avec n quel-
conque dans N ?La r´esolution des ´equations du 1er et 2`eme degr´e laisse pr´esager l’exitence
d’une m´ethode g´en´erale. Cependant on saura dans ce qui va suivre que seules les ´equations
de degr´e 1, 2, 3 et 4 admettent une m´ethode de r´esolution g´en´erale : R´esolution par radicaux.
Aujourd’hui au-del`a de quatre, il n’existe pas ”encore” une m´ethode capable de r´esoudre toutes
les ´equations de degr´e n avec n ≥ 5.
Ainsi, rassur´es de l’existence des racines de tout polynˆome de tout degr´e, nous allons main-
tenant envisager l’obtention d’une m´ethode g´en´erale, nous permettant de trouver ces racines.
L’unique m´ethode naturelle que nous connaissons aujourd’hui est la r´esolution par radicaux
que nous exposerons ci-dessous.
1.1.4 R´esolution par radicaux
Dans tout ce qui suit K sera consid´er´e comme un corps commutatif de caract´eristique 0.
D´efinition 6 : Un ´el´ement a de K est dit alg´ebrique s’il existe un polynˆome P ∈ K[X] tel que
P(a) = 0 (a est alors dit racine de P). Dans le cas contraire, on dit qu’il est transcendant.
Le r´eel
√
2 est alg´ebrique car il annule le polynˆome X2
− 2. Il a aussi ´et´e d´emontr´e que π
et e sont transcendants dans Q. C’est-`a-dire il n’existe pas de polynˆome `a coefficients dans Q
qui s’annule en π ou e.
D´efinition 7 : On appelle corps de d´ecomposition de P le corps des racines de P c’est-`a- dire :
E = { x ∈ K tel que P(x) = 0}.
Le corps E = Q(−
√
2 ,
√
2) est le corps de d´ecomposition du polynˆome P(X) = X2
− 2.
D´efinition 8 : Une extension est dite alg´ebrique si tous ses ´el´ements le sont.
Le corps suivant est une extension alg´ebrique de Q :
Q(
√
2) = {a + b
√
2; a, b ∈ Q}.
D´efinition 9 : On appelle polynˆome minimal de a dans K, l’unique polynˆome unitaire irr´eductible
de K[X] d´efini par :
M(a) = 0; ∀P ∈ K[X], P(a) = 0 =⇒ M|P
Le polynˆome P(X) = X2
− 2 dans Q est irr´eductible (par le crit`ere d’Eseinstein), unitaire
et verifie P(
√
2) = 0 donc c’est le polynˆome minimal de
√
2
D´efinition 10 : Un polynˆome est dit s´eparable dans un corps K si toutes ses racines dans une
clˆoture alg´ebrique de K sont toutes simples.
8
Le polynˆome P(X) = X2
− 2 est s´eparable dans Q car ses racines dans C sont simples.
D´efinition 11 : Un ´el´ement a est dit s´eparable si son polynˆome minimal est s´eparable.
L’irrationnel
√
2 est s´eparable.
D´efinition 12 : Une extension est s´eparable si tous ses ´el´ements le sont.
Le corps E = Q(
√
2, −
√
2) le corps des racines de P,est s´eparable.
D´efinition 13 : Une extension E est normale sur K si :
– E est alg´ebrique.
– Tout polynˆome irr´eductible de K[X] admettant une racine dans E se d´ecompose en un
produit de facteurs du 1er degr´e.
D´efinition 14 : Enfin une extension galoisienne est une extension normale et s´eparable.
Le corps des racines d’un polynˆome est une extension galoisienne.
1.1.5 Groupe de Galois
La th´eorie du groupe r´el`eve d’un domaine math´ematique dans lequel on formalise le concept
de sym´etrie.
D´efinition 15 : Soit E une extension galoisienne sur K. On appelle groupe de Galois de E sur
K qu’on note Gal(E/K) le groupe des automorphismes de E laissant invariants les ´el´ements
de K.
Autrement dit :
Gal(E/K) = {σ : E −→ E, automorphisme; ∀ x ∈ K, σ(x) = x}.
D´efinition 16 : Un groupe de Galois est r´esoluble lorsqu’il existe une suite finie σ0, σ1, · · · , σn
sous groupes de G tels que : σ0 ⊂ σ1 ⊂ σ2 ⊂ · · · ⊂ σn = G o`u ∀ i = 0, 1, 2, · · · , n − 1 , σi
est un sous groupe distingu´e dans σi+1 et σi+1/σi est ab´elien.
Tout groupe ab´elien en particulier les groupes de permutation S1 S2, S3 et S4 sont r´esolubles.
D´efinition 17 : Soient P ∈ K[X], un polynˆome et E son corps de racines.On appelle groupe
de Galois de P le groupe de Galois de E sur K.
Nous allons avec la proposition suivante caract´eriser les groupes de Galois avec les groupes de
permutation dont nous savons beaucoup de leurs propri´et´es
Proposition 1 : Soit E = K(x1, x2, · · · xn). Alors le groupe de Galois de E sur K est isomorphe
`a Sn.
Preuve 1 Soit ϕ l’application de Gal(E/K) sur Sn d´efinie par : ϕ(σ) = π avec σ(xi) =
xπ(i) et 1 ≤ i ≤ n.
Par construction ϕ est un homomorphisme de groupe surjectif,
kerϕ = {σ ∈ gal(E/K), ϕ(σ) = IdE = π} = {σ ∈ gal(E/K); ∀i σ(xi) = xi} = {id} =⇒ ϕ est injectif.
D’o`u le r´esultat.
9
D´efinition 18 -Soit E et F deux corps commutatifs. On appelle radical de F dans E un ´el´ement
a de E tel qu’il existe une puissance de a dans E.
-On dit qu’un ´el´ement a de E s’exprime par radicaux de K si et seulement si il existe une suite
Si tel que :
- S0 est une suite de K.
- Si i ∈ {1, 2, · · · p − 1} alors il exite une suite de combinaisons lin´eaires `a coefficients dans K
de radicaux de la suite Si−1.
-Dans K, a est une combinaison lin´eaire `a coefficients ´el´ements de la suite Sp−1.
-On dit qu’un polynˆome est r´esoluble par radicaux si et seulement si toutes ses racines s’ex-
priment par radicaux de K.
Il s’agit maintenant de determiner le lien entre les polynomes et leur groupe galoisienne.Autrement
dit avec le corps de ses racines.
Th´eor`eme 1.1.3 (Abel-Ruffini) : Un polynˆome est r´esoluble par radicaux si et seulement si
son groupe de galois l’est.
Proposition 2 Les polynˆomes de degr´e n avec n ≤ 4 sont r´esolubles par radicaux.
Preuve 2 Pour n = 1, 2 c’est ´evident .
Faisons pour n = 3, soit Q un polynˆome irr´eductible :
Q(x) = a3X3
+ a2X2
+ a1X + a0.
Quitte `a faire la translation ´enonc´ee dans la propri´et´e pr´ec´edente, on peut se ramener `a la
forme :
P(x) = X3
+ pX − q.
Notons x1 , x2 et x3 les trois racines de P et E son corps des racines.
Le polynˆome P est irr´eductible unitaire et v´erifie P(x1) = 0 alors P est le polynˆome minimal de
x1. Comme E contient x1 alors 3=degr´e(P) divise [E : K]. D’apr`es la proposition pr´ec´edente ,
E est isomorphe `a un sous groupe de S3 donc [E : K] ∈ {3, 6}.
Si [E : K] = 3 =⇒ E isomorphe `a A3 donc r´esoluble (car A3 est ab´elien ).
Sinon [E : K] = 6 alors isomorphe `a S3. Comme S3 contient A3 ab´elien et S3/A3 ab´elien ( ne
contient que deux ´el´ements), donc S3 est r´esoluble et par isomorphisme E est r´esoluble. D’o`u
par le th´eor`eme d’Abel Ruffini les polynˆomes de degr´e 3 sont r´esolubles par radicaux.
De mˆeme pour les polynˆomes de degr´e quatre.
1.1.6 Relation entre les coefficients d’un polynˆome et ses racines
Soient Sn le groupe des permutations de 1 `a n et K un corps commutatif.
D´efinition 19 : Un polynˆome P ∈ K[X1, X2, · · · Xn] est dit sym´etrique si
∀σ ∈ Sn P(Xσ(1), Xσ(2) · · · Xσ(n)) = P(X1, X2, · · · Xn).
On appelle polynˆome sym´etrique ´el´ementaire les polynˆomes not´es σi et d´efinis par :
σ1(X1, X2, · · · Xn) = X1 + X2 + · · · + Xn ; σp(X1, X2, · · · Xn) = i1<i2···ip
Xi1 · · · Xip
σn(X1, X2, · · · Xn) = X1X2 · · · Xn.
10
Proposition 3 : Soit P un polynˆome de la forme : P = Xn
+ a1Xn−1
+ · · · + aiXi
+ · · · +
an−1X + an ∈ K[X] scind´e sur K et (u1, u1, · · · un) ses racines .
Alors on a :
(−1)i
ai = σi(u1, u1, · · · un)
Nous sommes maintenant munis d’une m´ethode de r´esolution des ´equations polynomiales :
r´esolution par radicaux qui est capable de r´esoudre toutes ´equations en polynˆomes de degr´e n
avec n ≤ 4.
1.1.7 Les ´equations du 1er degr´e et du 2`eme degr´e
L’un des plus anciens patrimoines de l’histoire math´ematique, la m´ethode de r´esolution des
´equations du s´econd degr´e a ´et´e d´ecouverte par les summ´eriens et babyloniens il y’a plus 5000
ans, par Diophante, par les Hindous et finalement par les Arabes au XI`eme si`ecle. Dans son
livre ”Abr´eg´e du calcul par restauration et comparaison” (al jabr-wal muquabla), Al-khararizm
d´ecrit les six ´equations canoniques du s´econd degr´e ainsi que les m´ethodes pour s’y ramener.
D’o`u la naissance de l’algorithme et de l’alg`ebre .
(E2) aX2
+ bX + c = 0; a = 0.
Discriminant Nature des racines Forme des racines
b2
− 4ac > 0 x1 et x2 r´eelles x1 = −b+
√
b2−4ac
2a
; x2 = −b−
√
b2−4ac
2a
b2
− 4ac = 0 x1 et x2 r´eelles x2 = x1 = −b
2a
b2
− 4ac < 0 z1 et z2 complexes et conjugu´es z1 = z2 = −b+i
√
b2−4ac
2a
Exemple 1 : L’exemple babylonnien. Soit : 11x2
+ 7x − 25
4
= 0 .
En appliquant directement ce qui pr´ec`ede on a : ∆ = b2
− 4ac = 324 , x1 = −7+
√
324
22
= 11
et x2 = −7−
√
324
22
(`a r´ejeter). Le cˆot´e d’un tel carr´e est 11.
1.1.8 Les ´equations du 3`eme degr´e
La m´ethode de r´esolution des ´equations du 3`eme degr´e a ´et´e premi`erement obtenue au
XVI`eme si`ecle par Scipion Del Ferro. Vingt trois ans apr`es, Nicolo Fontana dit Tartaglia la
d´ecouvrit et l’utilisa en gagnant le grand concours de Math´ematique en 1535. En 1545 dans son
livre ” Ars Magna”( le grand art) Jeromeo Cardano, apr`es l’avoir obtenue aupr`es de Tartaglia ,
la publia . En 1771 Lagrange, se basant sur les relations entre les racines d’un polynˆome et ses
coefficients, obtient une autre m´ethode qui porte son nom. D`es lors, il existe plusieurs m´ethodes
de r´esolution parmi lesquelles on peut citer la m´ethode de Descartes, de B´ezout, de Sotta...etc.
Nous choisirons la m´ethode de Lagrange grˆace `a ses concepts sur les groupes de Galois.
11
1.1.9 La m´ethode de Lagrange
Soit l’´equation
(E3) a3x3
+ a2x2
+ a1x + a0 = 0.
Quitte `a faire une translation, on se ram`ene `a : x3
+ px + q = 0.
Notons x1 , x2 , x3 les trois racines de E3. Si on trouve un polynˆome P en trois variables ( X, Y , Z
) qui ne prend que deux valeurs A et B par toutes permutations effectu´ees sur (X, Y , Z) on
saura, grˆace `a ce qui pr´ec`ede, trouver un polynˆome de degr´e 2 qui s’annule aux deux valeurs
prises par P en ( X , Y , Z) ; on est ainsi ram´en´e au cas du deuxi`eme degr´e ( d´ej`a r´esolu).
Soit x1 , x2 , x3 les trois racines de x3
+ px + q = 0.
Le polynˆome P(X, Y, Z) = X + jY + j2
Z (o`u j est la racine 3`eme de l’unit´e) ne prend au point
(x1 , x2 , x3) que deux valeurs A et B par toutes les permutations effectu´ees sur les x1 , x2 , x3
qui sont :
A = (x1 + jx2 + j2
x3)3
; B = (x1 + jx3 + j2
x2)3
.
Compte tenu du fait que :
σ1 = x1 + x2 + x3 = 0; σ2 = x1x2 + x1x3 + x2x3 = p, ; et σ3 = x1x2x3 = −q.
On a alors :
A + B = −27p; AB = −27p3
.
Ainsi A et B sont les racines de l’´equation :
Z2
+ 27qZ − 27p3
= 0.
Les nombres A et B ´etant connus (maintenant), en choisissant une racine cubique u de A et v
de B de fa¸con que uv = −3p, on se ram`ene au :



x1 + x2 + x3 = 0
x1 + jx2 + j2
x3 = u
x1 + jx3 + j2
x2 = v
=⇒



x1 = 1
3
(u + v)
x2 = 1
3
(j2
u + jv)
x3 = 1
3
(ju + j2
v)
La nature des racines se conclut par le tableau suivant :
∆ = 27(4p3
+ 27q2
); w =
3
−q + i
√
∆
2
; u =
3
−q −
√
∆
2
; v =
3
−q + i
√
∆
2
.
Discriminant Nature des racines Formes des racines
∆ < 0 1 racine r´eelle ;1 racine double r´eelle x1 = 3q
p
; x2 = x3 = −3q
2p
∆ = 0 3 racines r´eelles xi = ji
w + jiw; i ∈ {0, 1, 2}
∆ > 0 1 racine r´eelle ; 2 racines complexes xi = ji
u + jiv; i ∈ {0, 1, 2}
Exemple 2 : La recherche des racines ´evidentes r´esoud g´en´eralement beaucoup d’´equations du
3`eme degr´e de la mani`ere qu’on pourrait voir facilement les racines de :
x3
+ 2x2
− x − 2 = 0; (x1 = −1; x2 = 1; x3 = 2).
12
Ces techniques s’arrˆetent l`a o`u les racines ne sont plus ´evidentes.
Exemple 3 : Naissance des nombres complexes Soit (E)
x3
− 15x2
− 4 = 0.
Par la recherche des racines ´evidentes on trouve x1 = 4 et pourtant par la m´ethode de Cardan
on a :
x1 = 3
2 +
√
−121 + 3
2 −
√
−121.
Parmi les racines, x = 4 n’ y figure pas et pourtant la m´ethode est vraie.Mais c’est le terme√
−121 qui pose probl`eme.Bombelli franchit la barre des r´eels ,en proposant :
u3
= 2+
√
−121 = 2+11
√
−1 et v3
= 2−11
√
−1 et s’apercoit que (2+
√
−1)3
= 2+2
√
−121 =
2 + 11
√
−1 = 2 + 11i alors x = u + v = 4. Par cons´equent le nombre i tel que i2
= −1 est n´e
( nombre sophistiqu´e) que Gauss baptisa le nombre complexe ou imaginaire.
1.2 Les ´equations du 4`eme degr´e
1.2.1 Les ´equations bicarr´ees
Ce sont les ´equations de degr´e quatre, paires ( les monˆomes de degr´e impairs n’y figurent
pas) pouvant se mettre sous la forme :
ax4
+ bx2
+ d = 0.
Par la parit´e si x est racine alors −x est aussi racine. En posant Z = x2
on se ram`ene aux
´equations du s´econd degr´e( d´ej`a r´esolues).
x4
− x2
− 2 = 0 (1). Posons z = x2
alors (1) devient z2
− z − 2 = 0 dont les racines sont
z1 = 2; z2 = −1. Par extraction les racines de (1) sont :
x1 =
√
2; x2 = −
√
2; x3 = −i; x4 = i.
1.2.2 M´ethode de Lagrange
En 1540 Ferrari, se basant sur la m´ethode de son maˆıtre Cardan, mˆıt au point la formule
de la r´esolution du 4`eme degr´e. Par ailleurs il existe la m´ethode de Lagrange, de Sotta et de
B´ezout. Pour la mˆeme raison que la pr´ec´edente, nous d´evelopperons la m´ethode de Lagrange.
E4 a4x4
+ a3x3
+ a2x2
+ a1x + a0 = 0.
En posant x = z − a3
4a4
on se ram`ene `a : z4
+ az2
+ bz + c = 0. Soit x1, x2, x3 et x4 les quatre
racines de cette derni`ere.
Le polynˆome P(X, Y, Z, Z) = XZ + Y T ne prend que trois valeurs par toute permutation
effectu´ee sur x1, x2, x3, x4 qui sont :
A = x1x2 + x3x4; B = x1x3 + x2x4 ; C = x1x4 + x2x3.
Et on a :
σ1(x1, x2, x3, x4) = 0 ; σ2(x1, x2, x3, x4) = a; σ3(x1, x2, x3, x4) = b ; σ4(x1, x2, x3, x4) = c.
13
On a alors :
A + B + C = σ2; AB + AC + BC = σ1σ2 − 4σ4 = −4c; ABC = b2
− 4ac.
Les nombres A, B et C sont obtenus comme racines de
r3
− ar2
− 4cr − b2
+ 4ac = 0.
Cette ´equation est du troisi`eme degr´e que l’on sait r´esoudre. En notant u, v et w ces trois
racines, on aura alors le syst`eme suivant :
S =



x1 + x2 + x3 + x4 = 0
x1x2 + x3x4 = u
x1x3 + x2x4 = v
x1x4 + x2x3 = w
⇐⇒



x1 + x2 + x3 + x4 = 0 (1)
(x1 + x2)(x3 + x4) = v + w (2)
(x1 + x4)(x2 + x4) = u + v (3)
(x1 + x3)(x2 + x4) = u + w (4)
A l’aide de (1) et (2) on a :
(I) x1 + x2 = ρ1 et x3 + x4 = −ρ1 avec ρ1 =
√
−u − w.
A l’aide de (1) et(3) on a :
(II) x1 + x4 = ρ2 et x2 + x4 = −ρ2 avec ρ2 =
√
−u − v.
A l’aide de (2) et (3) on a :
(III) x1 + x3 = ρ3 et x2 + x4 = −ρ3 avec ρ3 =
√
−v − w.
Pour qu’il y’ait ´equivalence entre ( I,II et III) et le syst`eme (S) il faut et il suffit que ρ1 , ρ2 ρ3
soient choisis de fa¸con que : ρ1ρ2ρ3 = −b sachant que :
(x1 + x2)(x1 + x3)(x1 + x4) = x1(x1 + x2 + x3 + x4) + σ3 = −b
Maintenant on voit que les racines sont :



x1 = 1
2
(ρ1 + ρ2 + ρ3)
x2 = 1
2
(ρ1 − ρ2 − ρ3)
x3 = 1
2
(−ρ1 − ρ2 + ρ3)
x4 = 1
2
(−ρ1 + ρ2 − ρ3)
Cependant, pour n ≥ 5, nous n’avons pas de m´ethodes universelles pour tous les polynˆomes
de degr´e n. Nous allons montrer que la r´esolution par radicaux n’est pas g´en´erale pour tout
polynˆome.
1.3 Les ´equations du 5`eme degr´e
En 1799 Paolo Ruffini affirma que les ´equations du 5`eme degr´e en polynˆomes n’´etaient pas
toutes r´esolubles, une proposition r´ej´et´ee par les math´ematiciens de l’´epoque. En1824 Abel
donna une preuve compl`ete mais sans concepts. Finalement, Galois balaya le doute par la
notion et le concept des groupes de Galois en fournissant une condition n´ecessaire et suffisante
de la non-r´esolubilit´e des ´equations de degr´e n avec n ≥ 5 . Soit l’´equation :
P(x) = a5x5
+ a4x4
+ a3x3
+ a2x2
+ a1x + a0 = 0.
14
Et soient x1, x2, x3, x4 et x5 ses cinq racines et E le corps des racines de P.
On d´efinit son groupe de Galois par :
Gal(E/K) = {σ : E −→ E, ∀ i σ(xi) = xj, 1 ≤ i, j ≤ 5}.
Pour montrer que le groupe de Galois n’est pas r´esoluble, par isomorphisme il suffit de
montrer que S5 n’est pas r´esoluble. Comme dans le cas de degr´e inf´erieur ou ´egal `a quatre, on
a trouv´e un polynˆome en (X, Y, Z) ou un polynˆome en (X, Y, , Z, T, W) qui ne prend respecti-
vement que 2 ou 3 valeurs. Il s’agit alors de prouver qu’il n’ existe pas un polynˆome en cinq
ind´etermin´ees ( X, Y, Z, T, W) qui prend 4 ou 3 valeurs par toute permutation effectu´ee sur
X, Y, Z, T et W.
Proposition 4 : Le groupe de permutation S5 n’est pas r´esoluble.
Lemme 1.3.1 : Pour n ≥ 3 , A5 est engendr´e par les cycles de longueur 3.
Preuve 3 Alors montrons que S5 n’est pas r´esoluble avec ce lemme.
Soit H un sous groupe de S5 tel que [S5 : H] ≤ 4
Montrons que H contient tous les cycles de longueur 5.
Soit λ un cycle de longueur 5, ∀ i ∈ {0, 2, 3, 4, 5} card(λi
H) = card(H).
Comme card(H) ≤ 4 alors les sous groupes H , λH , λ2
H , λ3
H , λ4
H , λ5
H ne peuvent pas
ˆetre disjoints car ils prennent leur cardinal dans {1, 2, 3, 4} donc il existe i = j 0 ≤ i < j ≤ 4
tel que λi
H λj
H = φ =⇒ λj−i
∈ H ∈ or 1 < j − i < 5 donc λj−i
engendre le cycle < λ >
d’ordre 5 premier.
Comme H contient tous les cycles d’ordre 5 alors par la relation :
(i, j, k) = (k, j, i, a1, a2) = (i, k, j, a2, a1) ∈ H.
Donc H contient les cycles d’ordre 3 qui engendrent A5. Donc A5 ⊂ H.
A5 ⊂ H =⇒
card(S5)
2
= card(A5) < card(H).
Or card(S5) = card(H).card(S5 : H) < 2card(H) donc [S5 : H] ∈ {1, 2} (card(S5) = 5! donc
fini).
Enfin Card(H)card(S5 : H) < 2cardH d’o`u [S5 : H] ∈ {1, 2}.
Ainsi il n’existe pas de sous groupe H de S5 tel que [S5 : H] ∈ {3, 4} ce qui implique que
Gal(E/K) n’est pas r´esoluble.
De mˆeme pour les polynˆomes de degr´e sup´erieur `a 5.
1.4 La r´esolution des ´equations diophantiennes
D´efinition 20 : Une ´equation diophantienne est une ´equation de la forme :
P(x1, x2, · · · xn) = 0 avec P un polynˆome `a coefficients dans Z et dont la solution est cherch´ee
dans Z.
Les cas de telles ´equations r´esolubles sont rares, leur r´esolution demande aussi souvent un outil
math´ematique tr`es moderne.
15
1.4.1 Le triplet pythagoricien
Probl`eme 1 : Il s’agit de r´esoudre dans Z l’´equation :
x2
+ y2
= z2
.
Elle a ´et´e ´etudi´ee et r´esolue par Diophante. En supposant z = 0 et en divisant l’´egalit´e par z2
on aura :
(
x
z
)2
+ (
y
z
)2
= 1.
La recherche des solutions de cette derni`ere revient `a retrouver les coordonn´ees rationnelles du
cercle unit´e.
Solution 1 : On suppose que x, y et z sont tous non nuls. Quitte `a diviser par le (pgcd(x, y, z))2
on peut se ramener au cas o`u x, y et z sont premiers entre eux.
-Etudions la parit´e de x,y et z.
Soit q un nombre impair. Alors q2
= (2n + 1)2
= 4n2
+ 4n + 1 =⇒ pour tout q impair q ≡
1[4].Alors si x et y sont impairs z2
= x2
+ y2
≡ 2[4] et z pair =⇒ z2
≡ 0[4]. Contradiction.
Alors supposons x pair et y impair. Etant donn´e que x et z sont premiers entre eux, x pair
=⇒ z impair. Par conclusion x est pair, y et z sont impairs.
Et z et y impairs =⇒ les entiers z − y et z + y sont pairs (z−y
2
a donc un sens dans Z).
x2
= z2
− y2
⇐⇒ (
x
2
)2
= (
z − y
2
)2
(
z + y
2
)2
.
les nombres (z−y
2
)et (z+y
2
) sont des carr´es entiers sinon la d´ecomposition de x
2
entraˆınera l’exis-
tence d’un nombre premier p tel que p|(z+y
2
) et p|(z+y
2
) ce qui implique que p|(z+y
2
)+(z+y
2
) = z et
p|(z+y
2
) − (z+y
2
) = y, absurde (pgcd(z, y) = 1). Finalement il existe (m, n) ∈ Z tel que z−y
2
= n2
et (z+y
2
) = m2
.
Alors le triplet (x,y,z )sont :



x = (2kmn), k ∈ N
y = k(m2
− n2
), m ∈ N
z = k(m2
+ n2
), n ∈ N, n < m
ou



x = k(m2
− n2
), k ∈ N
y = (2kmn), m ∈ N
z = k(m2
+ n2
), n ∈ N, n < m
La pr´esence du facteur entier k s’explique par le fait que l’´equation est homog`ene : si le triplet
(x, y, z) est solution =⇒ ∀n ∈ N(nx, ny, nz) est aussi solution.
1.4.2 Equation de Fermat
Th´eor`eme 1.4.1 : Pour n ≥ 3 il n’existe pas d’entiers strictement positifs x, y et z v´erifiant
l’´equation :
xn
+ yn
= zn
,
Pour n = 1, on a tout entier de la droite x + y = z avec z param`etre.
Pour n = 2, elle devient l’´equation pythagoricienne d´ej`a d´emontr´ee.
Le cas n < 100 a ´et´e d´emontr´e par Ernst Kummer. Cette ´equation propos´ee par Fermat en
1637 a inspir´e de nombreuses g´en´erations de math´ematiciens notammant Euler, David Hil-
bert, Mme Emmy No´ether. La recherche des solutions de cette ´egalit´e a beaucoup contribu´e `a
l’´evolution des Math´ematiques. En 1995, le th´eor`eme a ´et´e d´emontr´e par Andrew Whiles. Gra-
phiquemment, on peut ´egalement comprendre ce th´eor`eme en considerant la courbe d’´equation
(x
z
)n
+(y
z
)n
= 1 avec n > 2 et remarquer que cette courbe ne passe par aucun point `a coordonn´ee
rationnelle non nulle.
16
1.4.3 le triangle de rˆeve
Il s’agit de trouver un triangle rectangle dont les cot´es ob´eissent au triplet pytagoricien et
l’aire est celle d’un carr´e. Autrement, dit r´esoudre ce syst`eme dans N :
x2
+ y2
= z2
et
xy
2
= t2
avec x, y, z, t ∈ N
En fait ce triangle n’existe pas et s’explique par la transcendance de π.
Par ailleurs, il existe d’autres ´equations diophantiennes telles que l’´equation de Pell, de Cata-
lan...etc.
17
Chapitre 2
R´esolution des syst`emes lin´eaires et
fonctions num´eriques
2.1 R´esolution des syst`emes lin´eaires
Historiquemnt parlant, l’alg`ebre lin´eaire naˆıt de l’´etude des syst`emes lin´eaires. Abord´ee en
1678 par Leibniz , la r´esolution des syst`emes lin´eaires `a 2 ou 3 inconnues revient `a Mac Laurin en
1748 et compl´et´ee dans le cas g´en´eral par Cramer en 1754. La notation matricielle fut adopt´ee
premi`erement par Gauss et se formalisa par Cayley et Grassman. Lorsqu’on revient `a l’exemple
concret donn´e dans le cas des chasseurs du Mali on retrouve le syst`eme suivant :
4x + 2y = 54, x= nombre de lions
x + y = 19, y= nombre d’aigles
Il existe plusieurs m´ethodes pour la r´esolution des syst`emes lin´eaires parmi lesquelles, on peut
citer : la m´ethode de Cramer , m´ethode de Gauss, m´ethode de Crout, de Cholesky...etc. La
m´ethode de Cramer, non applicable que si det = 0, est lourde d’application puisqu’il faut
plus de 3 millions d’ann´ees pour r´esoudre un syst`eme de moins de 30 inconnues avec une
vitesse d’´ex´ecution de plus 3 millions d’op´erations par s´econde alors qu’avec celle de Gauss,
sans condition, il nous faut seulement moins de 3 s´econdes avec la mˆeme hypoth`ese. Les autres
m´ethodes ´etant des d´eriv´ees de celle de Gauss, alors le choix de la m´ethode de Gauss pour les
´etudes ult´erieures est justifi´e.
2.1.1 M´ethode de Gauss
Soit le syst`eme suivant :
(S)
n
k=1
aikxik = bi; 1 ≤ i ≤ m.
Dans cette expression, m r´epresente le nombre d’´equations et n le nombre d’inconnues.
En posant
A = (aij)1≤j≤n
1≤i≤m ; B = (bi)1≤i≤m et X = (xi)1≤i≤n.
On obtient cette forme compacte :
AX = B.
18
Quitte `a permuter les lignes, on peut supposer que ∀ i aii = 0. Par les op´erations
´el´ementaires (permutation des lignes ou colonnes - addition des lignes ou des colonnes- multi-
plication par un scalaire non nul des lignes ), on peut ramener le syst`eme `a la forme suivante :
(S)
n
k=i
aikxik = bi; 1 ≤ i ≤ m.
L’ensemble solution de ce dernier syst`eme varie selon le nombre d’´equations et d’inconnues
dans le syst`eme . Nous distinguons trois cas qui sont : l’´egalit´e entre le nombre d’´equations et
d’inconnues, le nombre d’´equations d´epasse celui d’inconnues ou vice-versa.
2.1.2 L’´egalit´e entre le nombre d’inconnues et d’´equations
Dans ce premier cas m = n l’unicit´e de la solution est rassur´ee mais on ne peut rien dire
de l’existence. Par la d´ecomposition de Gauss, la solution si elle existe, se d´eduit par r´emont´ee.
Le syst`eme apr`es Gauss se pr´esente comme suit.
(S)
n
k=i
aikxik = bi; 1 ≤ i ≤ n.
Exemple 4 : Soit le syst`eme :
(M) =
4x + 2y = 54, x nombre de lions ;
x + y = 19, y nombre d’aigles.
Le syst`eme admet le couple (8 lions ,11 aigles ) comme solution.
2.1.3 Plus d’´equations que d’inconnues
Lorsque le nombre d’´equation d´epasse le nombre d’inconnues ,les m−n ´equations s’appellent
les ´equations auxiliaires. Apr`es la m´ethode de Gauss on se ram`ene `a :



p
k=i aikxik = bi 1 ≤ i ≤ p
bp+1 = 0
bp+2 = 0
· · ·
bm = 0
S’il existe j ∈ {p + 1, p + 2, · · · , m} tel que bj = 0, le syst`eme n’admet pas de solution.
On suppose maintenant que ∀j ∈ {p + 1, p + 2, · · · , m} bj = 0.
Dans ce cas si p = n alors le syst`eme devient le premier cas, donc si la solution existe elle est
unique.
Dans le dernier cas si p < n les xp+1, xp+2, · · · , xn sont des variables auxiliaires et libres ainsi
le syst`eme admet une infinit´e de solutions.
2.1.4 Plus d’inconnues que d’´equations
Les n − m inconnues s’appellent des inconnues auxiliaires et se comportent comme des
param`etres . La solution est alors selon les valeurs prises par ces variables libres.
19
Exemple 5 : Dans R3
le syst`eme
x + y + 2z = 4
x − y = 2
admet comme solution le triplet (3 − λ, 1 − λ, λ; λ ∈ R).
Les applications sont multiples surtout dans la t´el´ecommunication la m´et´eo...etc. Bien que
dans la vie tout n’est pas lin´eaire, la r´esolution de beaucoup de syst`emes non lin´eaires peut se
ramener `a celle des syst`emes lin´eaires. Nous y verrons dans la partie num´erique.
2.1.5 Diff´erence l’homme-machine sur le syst`eme Ax=b
Jusqu’`a pr´esent nous avons consid´er´e l’arithm´etique exacte effectu´ee `a la main. Mais ´etant
donn´e que la plupart de ces r´esolutions s’effectuent sur la machine et que la r´epr´esentation
machine est differente de celle de homme, il nous sera utile d’analyser le comportement de la
machine. Pour mieux visualiser la diff´erence main-machine regardons cet exemple.
Exemple 6 : Soit le syst`eme :
0.0003 3.0000
1.0000 1.0000
x1
x2
= −
2.0001
1.0000
Par la main la solution est (1
3
, 2
3
)T
. Par la machine la solution est (0, 0.667)t
. Ces deux solutions
sont bien diff´erentes.
En faite l’arithm´etique flottante, effectu´ee `a la machine provoque in´evitablement des petites
modifications de chaque terme dans la d´ecomposition de Gauss. Il est alors possible que ces
erreurs aient d’importantes r´epercussions sur la solution, par cons´equent le r´esultat machine
sera ´eloign´e de la soluton exacte.
2.1.6 Limiter les d´egats
Le probl`eme vient au fait qu’on a divis´e par un pivot presque nul. La solution `a cela, consiste
`a permuter les lignes pour avoir le plus grand pivot( mˆeme si le pivot n’est pas nul). Ainsi faite
la nouvelle solution est (0.3334, 0.6666)t
, proche de la r´ealit´e.
La deuxi`eme alternative consiste `a diviser chaque ligne du syst`eme lin´eaire par le plus grand
´el´ement de la ligne correspondante de la matrice sans tenir compte des ´el´ements du vecteur b.
2.1.7 Le conditionnement d’une matrice
L’exemple suivant montre que certaines matrices sont tr`es sensibles aux erreurs dˆues g´en´eralement
`a la r´epr´esentation de ses coefficients sur la machine.
Exemple 7 : Soit le syst`eme :
1 3
1.1 2
x1
x2
= −
10
10.4
La solution est (4, 3)t
et si on remplace 1.1 par 1.05 la solution est (8, 1)t
. Nous allons essayer
de mesurer cette sensibilit´e.
20
D´efinition 21 : L’application
L :Mn(R) −→ R+
A −→ L(A) = A
est dite norme matricielle si :
A = 0 ⇐⇒ A = 0.
λA = |λ| A .
A + B ≤ A + B .
AB ≤ A B .
Soit A une matrice carr´e d’ordre n les applications suivantes sont des normes matricielles :
A 1 = max1≤j≤n
n
i=1
|aij| A j = max1≤i≤n
n
j=1
|aij|
D´efinition 22 : Le conditionnement d’une matrice ( not´e cond A) est d´efini par
condA = A A−1
.
Par AB ≤ A B et cond(I) = 1, le conditionnement est toujours sup´erieur `a 1. Une ma-
trice M est dite mal conditionn´ee si cond M est tr`es ´eloign´e de 1.
La matrice identit´e est une matrice bien conditionn´ee.
La matrice de Hilbert d’ordre n est un exemple de matrice mal condition´ee : H(n) = (h(i, j))1≤i,j≤n
avec (h(i, j) = 1
i+j−1
.
Pour n=6, cond(H(6)) = 1, 4951.107
(calcul ´effectu´e sur Matlab).
Th´eor`eme 2.1.1 : Soit le syst`eme Ax = b avec b = 0, on note ¯x la solution approch´ee, x la
solution exacte r = b − A¯x, le vecteur r´esidu et e = x − ¯x . Alors :
1
condA
r
b
≤
e
x
≤ condA
r
b
2.1.8 Interpr´etation du th´eor`eme
Si cond(A) est proche de 1, si le r´eel r est aussi petit, l’erreur relative approximative,
coinc´ee entre deux petites valeurs ne peut qu’ˆetre petite.
Par contre si cond(A) est grand l’erreur relative se trouve quelque part entre 0 et un nombre
relativement grand.
Un mauvais algorithme aussi peut conduire `a un r´esultat erron´e.
Th´eor`eme 2.1.2 : Soit le syst`eme Ax = b, E une perturbation du syst`eme initial(due par
exemple aux erreurs de r´epr´esentation des coefficients de A sur la machinele syst`eme Ax = b
d´evient (A + E)x = b. Alors :
x − ¯x
¯x
≤ condA
E
A
Le terme x−¯x
¯x
est une approximation de l’erreur relative.
21
Si cond(A) est petite, une petite perturbation sur A entraˆınera une autre sur la solution x.
Par contre si cond A est grand, une petite perturbation sur A peut resulter en une tr`es grande
perturbation sur la solution du syst`eme.
2.1.9 Les M´ethodes it´eratives
La r´esolution num´erique des grands syst`emes lin´eaires peut parfois n´ecessiter l’emploi de
m´ethodes autres que les m´ethodes directes. Ces m´ethodes rapides sont des m´ethodes it´eratives.
Cependant avec les m´ethodes it´eratives contrairement `a celle de Gauss, le succ`es n’est pas
toujours au rendez vous.
Nous pr´esenterons rapidement la m´ethode de Jacobi, de Gauss-Seidel et de relaxation.
2.1.10 M´ethode de Jacobi, Gauss-Seidel et de Relaxation
Soit le syst`eme Ax = b, avec A = (aij)1≤i,j≤n. Quitter `a permuter les lignes on peut supposer
aii = 0 ∀ i. Posons M = (mij)1≤i,j≤n avec mij = 0 si i = j et mii = aii puis N = (nij)1≤i,j≤n
avec nij = −aij et nii = 0. Alors le syst`eme d´evient (M − N)x = b.
Par suite x = M−1
Nx + M−1
b.
Ce qui nous donne `a la (k+1)i`eme it´eration :
xk+1
i =
1
aii
[bi −
n
j=i,j=1
aijxk
j ].
Dans cette expression pour le calcul de xk+1
i , on peut remplacer les composantes xk
1 , xk
2, , · · · , xk
i−1
par xk+1
1 , xk+1
2 , · · · , xk+1
i−1 (d´ej`a calcul´es et constituent une plus bonne approximation ).
On obtient ainsi la m´ethode de Gauss :
xk+1
i =
1
aii
[bi −
i−1
j=1
aijxk+1
j +
n
j=i+1
aijxk
j ].
En ins´erant un facteur w non nul (wAx = b) pour mieux contrˆoler la vitesse et la convergence
on obtient la m´ethode de relaxation :
xk+1
i = xk
i +
w
aii
[bi −
i−1
j=1
aijxk+1
j +
n
j=i+1
aijxk
j ]
2.1.11 Convergence
1. Si la matrice A est `a diagonale strictement dominante ( |aij| < |aii| pour j = i) la
m´ethode de Jacobi et de Gauss-Seidel converge.
2. Si M est sym´etrique d´efinie positive la m´ethode de Gauss-Seidel converge.
Si la matrice 2M-A est d´efinie positive, Jacobi converge.
La m´ethode de relaxation converge toujours pour w ∈ [0, 2].
Lorsque w ∈ [1, 2], on parle de sur-relaxation utilis´ee pour acc´el´erer la convergence.
Lorsque w ∈ [0, 1], on l’appelle sous-relaxation utilis´ee pour converger les suites divergentes.
22
Exemple 8 (tir´e dans le contrˆole 1 d’anlyse num´erique) Soit
A =


2 1 1
1 2 1
1 1 2

 et b =


4
4
4


En r´esolvant it´erativement avec x0 = (0, 0, 0). Avec la m´ethode de Jacobi le r´esultat alterne
entre le vecteur ( 0,0,0) et (2,2,2), donc diverge. Avec Gauss il converge .
2.2 Les Formes lin´eaires
: Soit E un K-espace vectoriel. On appelle forme lin´eaire, toute application lin´eaire de E
vers K. u :E −→ K lin´eaire.
2.2.1 Les hyperplans
Soit E un K-espace vectoriel, on caract´erise les hyperplans par la proposition suivante :
Proposition 5 : Un sous espace vectoriel H de E est dit hyperplan si et seulement si il existe
une forme lin´eaire de E vers K de noyau H.
Dans R2
les formes lin´eaires sont :
f :R2
−→ R
(x, y) −→ f(x, y) = ax + by.
Leur noyau est une droite confondue `a un hyperplan.
Les espaces suivants sont des hyperplans :
H = {M ∈ Mn(R); trace(M) = 0}.
H = {P ∈ K[X], P(0) = 0} .
Les solutions des ´equations de la forme n
i=0 aixi = bi sont les hyperplans de dimension n − 1.
Pour n = 3, les hyperplans sont des plans d’´equation : ax + by + cz − d = 0.
Pour n = 2 , les hyperplans sont des droites d’´equation ax + by = c.
2.2.2 Formes quadratiques
La notion de forme quadratique apparaˆıt avec l’´etude des coniques de Fermat. Vers 1700
Euler mena leur ´etude.
D´efinition 23 On appelle forme quadratique toute application de la forme :
q :E −→ R
x −→ q(x) = f(x, x)
o`u f est une application bilin´eaire.
23
Autrement dit une forme quadratique est la diagonale de l’application bilin´eaire associ´ee.
: Soit q : E −→ R, une forme quadratique, un vecteur x ∈ E est dit isotrope pour q si
q(x) = 0.
On appelle le cˆone isotrope pour q not´e Cq l’ensemble :
Cq = { x ∈ E; q(x) = 0}.
Cet ensemble est un cˆone convexe.
On dira que la forme quadratique q est d´efinie positive si pour tout x ∈ E, q(x) > 0 et q(x) =
0 =⇒ x = 0. : Elles interviennent dans la recherche des extr´emums.
Exemple 9 Les applications suivantes sont des formes quadratiques :
q :Mn(R) −→ R
A −→ det(A)
q :Mn(R) −→ R
A −→ tr(t
AA)
2.3 Les Fonctions num´eriques
Pour d´esigner des grandeurs g´eom´etriques d´ependant d’un autre(par exemple la temp´erature
d´epend du lieu), Gottfried Wilhelm Leibniz(1646-1716) utilisa le terme fonction en 1692 pour la
premi`ere fois . Aussi naˆıt le concept de deriv´ee chez Newton alors que Leibniz utilsa la notation
df
dx
pour la d´esigner. Alors qu’on pensait que toute fonction ´etait ´egale `a sa s´erie de, Taylor
Cauchy apporta un contre-exemple : x −→ exp(− 1
x2 )
2.3.1 Th´eor`eme des valeurs interm´ediaires
Enonc´e par Bernhard Bolzano, ce th´eor`eme est `a la base de la m´ethode de dichotomie que
nous ´evoquerons dans la partie num´erique.
Th´eor`eme 2.3.1 : Soientt f : D −→ R continue a et b ∈ D tel que f(a)f(b) ≤ 0.
Alors il existe c ∈ [a, b] tels que f(c) = 0.
Ce th´eor`eme, moins d’hypoth`ese est tr`es utile. Il permet mˆeme de trouver les z´eros d’une
fonction par dichotomie et nous justifie la pr´esence d’au moins d’une racine r´eelle dans la
r´esolution des polynˆomes de degr´e impair. Soit P un polynˆome de degr´e impair on a :
( lim
x→+∞
P(x)).( lim
x→−∞
P(x)) < 0.
Alors il existe a, b ∈ R tel que P(a)P(b) < 0.
En particulier pour les polynˆomes de degr´e 3 il y a toujours une racine r´eelle.
2.3.2 Th´eor`eme de Rolle 1652-1749
Enonc´e dans le cadre des polynˆomes ,le th´eor`eme de Rolle est incontournable dans la
construction de l’analyse et nous pr´ecise la relation entre les racines d’un polynˆome et celle
de sa deriv´ee.
Th´eor`eme 2.3.2 : Soit f : [a, b] −→ R continue sur [a, b] et d´erivable sur ]a, b[ tel que f(a) =
f(b).
Alors il existe c ∈]a, b[ tel que f (c) = 0.
24
Preuve 4 : Si f est constante ,c’est ´evident. Sinon , il exite x ∈]a, b[ tel que f(x) = f(a) par
exemple f(a) < f(x). La fonction f continue sur le compact [a, b] est donc born´ee alors il existe
c ∈ [a, b] tel que f(c) = sups∈[a,b](f(s) or f(a) = f(b) < f(x) < f(c) alors c ∈]a, b[ et f(c) un
extremum de f d’o`u f (c) = 0.
2.3.3 Le th´eor`eme des points fixes
Le th´eor`eme des points fixes est un outil topologique tr`es utilis´e qui permet de r´esoudre
beaucoup d’´equations de la forme f(x) = 0 et d’assurer souvent l’unicit´e du z´ero de cette
´equation. Pour r´esoudre une telle ´equation, il suffit de montrer l’existence d’un point fixe de
l’application g(x) = f(x) − x. En effet f(x) = 0 ⇐⇒ x − f(x) = x ⇐⇒ g(x) = x avec
g(x) = x − f(x). Il est issu de Banach et poss`ede plusieurs versions telles que celle de Brower.
Th´eor`eme 2.3.3 : Soit E un espace m´etrique complet f : E −→ E une application telle que :
∃k ∈]0, 1[ ∀(x, y) ∈ E , d(f(x), f(y)) ≤ kd(x, y).
Alors, il existe un unique a ∈ E tel que f(a) = a.
D’une mani`ere g´en´erale, la version du th´eor`eme de Brower permet d’assurer l’existence d’un
point fixe dans un compact convexe pour k ∈]0, 1].
Th´eor`eme 2.3.4 Soit K un espace compact convexe d’un espace vectoriel norm´e f : K −→ K
une application continue tel que
∀ (x, y) ∈ K f(x) − f(y) ≤ x − y
Alors f admet au moins un pint fixe.
Preuve 5 Soit a ∈ K. on d´efinit une suite de fonction
fn : K −→ K x −→
1
n
a + (1 −
1
n
)f(x).
De la relation
fn(x) − fn(y) = (1 −
1
n
) f(x) − f(y) ≤ (1 −
1
n
) x − y .
fn est (1 − 1
n
) contractante.Comme K est complet alors le th´eor`eme du point fixe assure
l’existence de xn tel que fn(xn) = xn. La suite xn prenant ses valeurs dans un compact admet
alors une sous -suite convergente xϕ(n) dont la limite appartient `a K. L’in´egalit´e :
f(x) − fn(xn) = f(x) − fn(x) + fn(xn) − fn(x) ≤
1
n
( a + f(x) ) + x − xn .
montre que fϕ(n)(xϕ(n)) converge vers f(x). En passant `a la limite dans l’´egalit´e fϕ(n)(xϕ(n)) =
xϕ(n) on obtient f(x) = x.
Il existe d’autres th´eor`emes tel que le th´eor`eme des fonctions implicites mais qui r´esolvent le
probl`eme dans d’autres contextes qui entrent dans d’autre domaines tel qu’analyse fonctionnelle.
25
2.4 Les extremums et formes standards
Maximiser la satisfaction et minimiser les d´epenses est un probl`eme fr´equent dans la vie
quotidienne dont la r´esolution se traduit par la recherche du maximum ou du minimum d’une
fonction f(x), cela passe souvent par la r´esolution de f (x) = 0 ou de f(x) = 0.
Pour mieux visualiser regardons ce syst`eme.



Maximiser ou Minimiser f(x, y, z) = 0,
g1(x, y, z) ≤ 0,
g2(x, y, z) ≥ 0,
g3(x, y, z) ≤ 0, x ≥ 0; y ≥ 0; z ≤ 0,
Cette r´esolution passe par la forme stantard



f(x, y, z) = 0,
g1(x, y, z) = 0,
g2(x, y, z) = 0,
g3(x, y, z) = 0, x ≥ 0; y ≥ 0; z ≥ 0,
Qui n’est autre qu’une forme de F(X) = 0.
2.4.1 Extremum simple
D´efinition 24 : Point critique.
Soient U un ouvert de Rp
, f une application de U vers R et a ∈ U.
On dit que a est un point critique si f (a) = 0.
Proposition 6 : Soit a un point critique et Q la forme quadratique d´efinie par :
Q(h) =
i,j
hihj
∂2
f(a)
∂xixj
.
Alors si la forme quadratique est d´efinie positive f admet un minimum en f(a).
R´eciproquement si f admet un minimum en a, la forme quadratique est positive .
Mais si la forme quadratique est seulement positive, on ne peut pas conclure comme le prouve
l’exemple classique f(x) = x3
. Son application est tr`es vaste dans la vie courante surtout si l’on
veut d´eterminer la temp´erature maximale d’un lieu, le gain maximal d’une entreprise, le coˆut
minimal d’un projet. Il intervient surtout aussi dans l’optimisation.
Un cas particulier int´eressant en dimension 2 : Soient f : R2
−→ R de classe C2
et A sa matrice
hessienne associ´ee. Alors A est d´efinie par :
A = (
∂2
f(a)
∂xixj
)1≤i,j≤2
Par le th´eor`eme de Schawrtz A est sym´etrique r´eelle donc diagonalisable, soit λ1 et λ2 les
deux valeurs propres.
Notons
r =
∂2
f(a)
∂x2
; t =
∂2
f(a)
∂y2
; s =
∂2
f(a)
∂xy
; A =
r s
s t
26
Supposons detA > 0 ; detA = rt − s2
= λ1.λ2 > 0 .(1) et trace(A) = λ1 + λ2 = r + t (2).
Par (1) et (2) on a : (λ1 et λ2) et (r et t) sont de mˆeme signe.
On conclut par le tableau suivant : Si rt − s2
> 0 et r < 0 : maximum
au point f(a).
Si rt − s2
> et r > 0 : minimum au point f(a).
Si rt − s2
< 0 : pas d’extremum au point f(a).
Si rt − s2
= 0 : on ne peut rien conclure au point f(a).
2.4.2 Extremum li´e
Proposition 7 : Soient toujours U un ouvert de R2
et f, g1, g2 · · · gr r+1 applications de U
dans R de classe C1
. Posons
Γ = {x ∈ U, g1(x) = g2(x) = · · · gr(x) = 0}.
Alors :
Si f/Γ admet un extremum relatif en a et si les fonctions lin´eaires dg1(a), ..., dgr(a) sont
lin´eairement ind´ependantes alors il existe λ1, λ2 · · · λr scalaires appel´es multiplicateurs de La-
grange tel que :
dfa =
r
1
λkdgk(a).
C’est un cas particulier des conditions de KKT. Son application est tr`es importante surtout en
programmation non lin´eaire.
Exemple 10 : Soit σ(x, y, z) une fonction r´epr´esentant la temp´erature de Oukaidem(r´egion de
Marrakech). Il s’agit de d´eterminer le maximum de σ (la temp´erature maximale) dans le rayon
de 200 m et d’altitude 100 m. Ici on a :
Γ = {(x, y, z) ∈ R3
; x2
+ y2
= 200 et z = 100}
Exemple 11 : D´eterminer parmi les parall´el´epip`edes en maintenant le volume constant celle
qui a la plus petite surface.
f(x, y, z) = 2xy + 2xz + 2yz et Γ = {(x, y, z) ∈ U tel que xyz = c, c ∈ R}
Par la proposition pr´ec´edente on a :
x + z
xy
=
x + y
xz
=
y + z
yz
=⇒ x = y = z
Donc le cube est le parall´elipip`ede recherch´e de volume x3
et de surface 6x2
.
27
Chapitre 3
R´esolution num´erique des ´equations et
syst`emes non lin´eaires
Nous venons d’´etudier les ´equations de la forme f(x) = 0 avec f un polynˆome de degr´e infe-
rieur ou ´egal `a quatre ou un syst`eme lin´eaire. La r´esolution de ces deux probl`emes malgr´e leur
domaine d’application trop restreint ; demande aussi souvent un temps de calcul tr`es ´enorme :un
de leur d´efaut. Mais naturellement, nous sommes confront´es `a un probl`eme lorsqu’il s’agit de
r´esoudre l’´equation au-del`a de ces deux cas, mˆeme dans les cas les plus simples que polynˆomiaux
tel que : exp(−x) − x = 0.
Il sera alors plus important de r´esoudre le probl`eme rapidement mˆeme s’il s’agit de fa¸con ap-
proximative. D’o`u la n´ecessit´e et l’utilit´e d’une m´ethode donnant des solutions approximatives
mais de fa¸con rapide :Les m´ethodes num´eriques. Il reste toutefois `a signaler que l’efficacit´e
d’une m´ethode d´epend de ses propri´et´es topologiques(convergence, pr´ecision...)que de sa faci-
lit´e d’utilisation et son comportement sur la machine.
D´efinition 25 1. Une suite xn convergente vers α est dite d’ordre p si : ∃C > 0 tel que
xk+1−α
xk−α p < C `a partir d’un certain rang.
Si p = 1, la convergence est lin´eaire et si p = 2 la convergence est dite quadratique.
2. Soit x un nombre r´eel et ¯x une valeur approch´ee de x.
L’erreur absolue est donn´ee par : ∆x = |x − ¯x|.
L’erreur relative est donn´ee par : Er(x) = |x−¯x|
|x|
= ∆x
x
.
3. Une valeur a v´erifiant f(a) = 0 est app´el´ee racine ou z´ero de f.
Elle est dite racine simple si f (a) = 0 Elle est dite multiple d’ordre m si :
f(a) = f (a) = f (a) = · · · fm
(a) = 0 et fm+1
(a) = 0.
4.On appelle l’it´eration maximale qu’on notera itmax, le plus grand nombre d’it´erations qu’on
se fixe, `a ne pas d´epasser, au-del`a duquel la m´ethode est dite divergente.
3.1 Les fonctions r´eelles
Nous avons plusieurs m´ethodes telles que la m´ethode de dichotomie ( du Grec dikhoto-
mia : action de partager en deux), la m´ethode de Newton et sa d´eriv´ee(m´ethode de s´ecante),
la m´ethode du point fixe. Nous d´evelopperons la premi`ere, vue sa simplicit´e et son concept
´el´ementaire et la deuxi`eme m´ethode, vue son efficacit´e, et son utilisation dans la r´esolution des
syst`emes non lin´eaires. Nous supposerons la fonction continˆument differentiable autant qu’il
faut.
28
3.1.1 M´ethode de dichotomie ou de bissection
La m´ethode de bissection r´epose sur une id´ee toute simple :le th´eor`eme des valeurs in-
term´ediaires.
3.1.2 Principe
Soient f une fonction r´eelle continue et [x1, x2] un intervalle dans R tel que f(x1)f(x2) < 0.
Par le th´eor`eme des valeurs interm´ediaires, on sait qu’il existe a ∈ [x1, x2] tel que f(a) = 0.
Dans le but de s’approcher `a a, posons xm = x1+x2
2
alors n´ecessairement on a : f(x1)(f(xm) < 0
ou f(xm)f(x2) < 0. Ainsi, il suffit de prendre l’un des deux intervalles [x1, xm] ou [xm, x2]
dans lequel il y’a un changement de signes, et ainsi de suite. Par le mˆeme processus nous
nous approchons `a la solution recherch´ee en contrˆolant l’erreur. Ceci nous am`ene `a l’algorithme
suivant.
Algorithme 1 : il se pr´esente ainsi :
1.Etant donn´e x1, x2 deux r´eels tels que f(x1)f(x2) < 0 ; un crit`ere d’arrˆet ε, un nombre
maximal d’it´erations itmax.
2. Poser xm = x1+x2
2
.
3.Si |x1−x2|
|2xm|
< ε.
– Convergence atteinte.
– Ecrire la racine xm et f(xm).
– Arrˆet.
4. Si f(x1)f(xm) < 0; x2 = xm.
5. Si f(x2)f(xm) < 0; x1 = xm.
6. Si le nombre maximal d’it´erations itmax est atteint.
– Convergence non atteinte en itmax it´erations.
– Arrˆet.
7. Retour `a l’´etape 3.
La m´ethode de dichotomie converge toujours mais lentement. Pour cette raison, on l’utilise pour
initier les m´ethodes rapides. La m´ethode de dichotomie `a l’avantage de connaˆıtre au pr´ealable
le nombre d’it´erations n´ecessaires `a la convergence. En effet soit L = |x1 −x2|, apr`es n it´erations
la longueur de l’intervalle vaut : L
2n . Ainsi on obtient une id´ee sur n : L
2n < ∆x =⇒ n >
ln( L
∆x
)
ln2
.
Les d´efauts de la m´ethode de dichotomie :
La premi`ere situation critique est celle o`u f est tangente `a l’axe de x. La deuxi`eme situation
est celle o`u il y a un nombre pair de racines dans l’intervalle initial. Dans ces deux cas, il n’ y
a pas changement de signe d’o`u son imperfection.
3.1.3 M´ethode de Newton
La m´ethode de Newton est l’une des m´ethodes la plus utilis´ee et se trouve `a la base de
plusieurs m´ethodes.
29
3.1.4 Principe
Supposons f’ non nulle en x0.
A partir d’une valeur initiale x0 de la solution, quelle quantit´e faut -il ajouter `a x0 pour annuler
la fonction f(x) i.e 0 = f(x0 + δx) ? Cette quantit´e δx s’appelle la correction.
Par le d´eveloppement de Taylor autour de x = x0 on a :
0 = f(x0 + δx) = f(x0 + f (x0)δx +
f (x0)
2!
(δx)2
+
f (x0)
3!
(δx)3
+ ...
En n´egligeant les termes d’ordre sup´erieur ou ´egal `a 2 en δx on obtient :
0 f(x0) + f (x0)δx
On peut alors isoler la correction cherch´ee δx = − f(x0)
f (x0)
. Puisqu’on a n´eglig´e les termes d’ordre
sup´erieur ou ´egal `a 2 dans le d´eveloppement de Taylor, la correction δx n’est pas exacte. Par
le mˆeme processus, on pose x1 = x0 + δx en cherchant `a le corriger x1 d’une autre correction
δx de la mˆeme mani`ere que pr´ec´edemment.
3.1.5 Interpr´etation g´eom´etrique
La figure ci- dessous permet de donner une interpr´etation g´eom´etrique assez simple de la
m´ethode de Newton. Sur cette figure, on a r´epr´esent´e la fonction f(x) , la valeur initiale x0 et
le point de la courbe (x0, f(x0)). La droite tangente `a la courbe au point x0 est de pente f (x0)
et a pour ´equation :
y = f(x0) + f (x0)(x − x0)
qui correspond au d´eveloppement de Taylor d’ordre 1 autour de x0. Cette droite coupe l’axe
des x en y = 0. Alors x1 = x0 − f(x0)
f (x0)
devient la nouvelle valeur approch´ee de la solution. On
refait le mˆeme raisonnement `a partir du point (x1, f(x1). Et ainsi de suite. D’o`u la figure.
Par le principe et le graphe, on obtient l’algorithme suivant.
Algorithme 2 :
30
1. Etant donner un crit`ere d’arrˆet, un nombre maximal d’it´erations, une valeur initiale de la
solution x0.
2. Effectuer : xn+1 = xn − f(xn
f (xn)
.
3. Si |xn+1−xn|
|xn+1|
< ε.
– Convergence atteinte en xn+1.
– Ecrire la solution xn+1.
– Arrˆet.
4. Si le nombre maximal d’it´erations itmax est atteint.
– Convergence non atteinte en itmax it´erations.
– Arrˆet.
5. Retour `a l’´etape 2.
3.1.6 Analyse de la convergence
Dans l’algorithme pr´ec´edent, on a consid´er´e un x0 quelconque, mais il faut toute fois signaler
qu’un bon choix de la valeur initiale x0 est n´ecessaire `a la convergence. Par cons´equent il nous
sera tr`es utile d’´enoncer ce th´eor`eme afin de nous donner une id´ee sur la valeur initiale de la
solution.
Th´eor`eme 3.1.1 : Si f est de classe C1
, et poss`ede une racine a simple et s´epar´ee dans l’in-
tervalle [a, b], alors il existe un intervalle I ⊂ [a, b] et contenant x tel que : ∀ x0 ∈ I la m´ethode
de Newton converge.
Si de plus f est de classe C2
la m´ethode est d’ordre 2 on a :
lim
n→∞
xn+1 − a
(xn − a)2
= −
f (a)
f (a)
Nous sommes rassur´es de la convergence de la m´ethode de Newton avec ce choix de x0. Mais
cette convergence est-elle rapide ?
Th´eor`eme 3.1.2 : Supposons que f est de classe C1
sur un intervalle I = [x − r, x + r] tel que
f (x) = 0 , ∀ x ∈ I. Soit M = max |f(x)|
|f (x)|
et h = min(r, 2
M
). Alors
x0 ∈ [x − h, x + h] |xn − ¯x| ≤
2
M
(
M
2
|x0 − ¯x|)2n
.
Ceci prouve que la m´ethode est quadratique. Dans l’algorithme pr´ec´edent, on a suppos´e les
racines simples, on est convaincu qu’il n’est pas ´evident d’avoir toujours que des racines simples.
On peut toujours se ramener, au cas o`u les racines sont simples. En effet, il suffit de transformer
le probl`eme en un probl`eme ´equivalent ayant les mˆemes racines mais de multiplicit´e 1. Dans ce
but, on consid`ere
u(x) =
f(x)
f (x)
=
(x − a)m
h(x)
mh(x) + (x − a)mh (x)
.
Puisque h(a) = 0, alors u(a) = 0, par d´erivation on a u (a) = 1
m
= 0. On peut maintenant
appliquer l’algorithme de la m´ethode de Newton sans se soucier si la d´eriv´ee s’annule ou pas.
Le calcul de la d´eriv´ee pose souvent probl`eme, on peut l’´eviter par l’approximation :
f (xn) =
f(xn) − f(xn−1)
xn − xn−1
.
On obtient par cette approximation la m´ethode de S´ecante.
31
Exemple 12 :La fonction f(x) = exp(−x) − x = 0.
xn+1 = xn −
exp(−xn) − xn
− exp(−xn) − 1
Voici le tableau `a la cinqui`eme it´eration :
n xn en
en
en−1
0 0.0000000 0.567110+0
1 0.5000000 0.671410−1
0.118310+0
2 0.5663110 0.832310−3
0.123910−1
3 0.5671437 0.125010−6
0.150110−3
4 0.5671433 0.409710−9
On remarque ici la rapidit´e de la convergence et sa quadrature.
3.2 R´esolution des syst`emes non lin´eaires
Les syst`emes lin´eaires ne constituent pas plus que 30% des syst`emes qu’on rencontre dans
dans la pratique. En pratique, les ph´enom`enes non lin´eaires sont extrˆemement fr´equents. Dans
cette section nous examinerons comment transformer un syst`eme non lin´eaire en un syst`eme
lin´eaire auquel cas on peut appliquer la m´ethode de Gauss. Au fait le probl`eme consiste `a
trouver le ou les vecteur ¯x = [x1, x2, · · · , xn]T
v´erifiant les n ´equations non lin´eaires suivantes :



f1(x1, x2, · · · , xn) = 0
f2(x1, x2, · · · , xn) = 0
· · · · · ·
fn(x1, x2, · · · , xn) = 0
Contrairement aux syst`emes lin´eaires, il n’existe pas de condition qui peut assurer l’unicit´e de
la solution. Les m´ethodes de r´esolution des syst`emes non lin´eaires sont nombreuses mais nous
nous limiterons `a exposer la plus utilis´ee soit la m´ethode de Newton. Nous commencerons par
un syst`eme de deux ´equations et la g´en´eralisation au cas n d´ecoulera facilement. Consid´erons
le syst`eme :
f1(x1, x2) = 0
f2(x1, x2) = 0
Soit (x0
1, x0
2) une approximation initiale de la solution, le but est de d´eterminer la correction
(δx1, δx2) de telle sorte que :
0 = f1(x0
1 + δx1, x0
2 + δx2)
0 = f2(x0
1 + δx1, x0
2 + δx2)
En n´egligeant les termes d’ordre sup´erieur ou ´egal `a 2 en (δx1, δx2) dans le d´eveloppement
de Taylor en deux variables au point (x0
1, x0
2) on obtient le syst`eme suivant :
∂f1(x0
1,x0
2)
∂x1
δx1 +
∂f1(x0
1,x0
2)
∂x2
δx2 = −f1(x1, x2),
∂f2(x0
1,x0
2)
∂x1
δx1 +
∂f2(x0
1,x0
2)
∂x2
δx2 = −f2(x1, x2),
32
En notant J(x0
1, x0
2) la matrice jacobienne de f au point (x0
1, x0
2), δx = (δx1, δx2) le vecteur
correction cherch´e et R(x0
1, x0
2) = (f1(x1, x2), f1(x1, x2))T
on obtient :
J(x0
1, x0
2)δx = −R(x0
1, x0
2).
On peut r´esoudre par exemple ce syst`eme lin´eaire en appliquant la m´ethode de Gauss. On refait
la mˆeme op´eration avec :
x1
1 =, x0
1 + δx1, x1
2 = x0
2 + δx2
x1
1 =, x0
1 + δx1 ;
x1
2 = x0
2 + δx2 .
En g´en´eralisant au cas n on, obtient l’algorithme suivant.
Algorithme 3 :
1. Etant donn´e ε, itmax, le vecteur initial, x0
= ([x0
1, x0
2, · · · , x0
n]T
.
2. R´esoudre J(xi
)δxi = −R(xi
).
3. Si R(xi
) ≤ ε et δxi
δxi+1
≤ ε.
– Convergence atteinte.
– Ecrire la solution xi+1
.
– Arrˆet.
4. Si le nombre maximal d’it´erations itmax est atteint.
– Convergence non atteinte en itmax it´erations.
– Arrˆet.
5. Retour `a 2.
Exemple 13
f1(x, y) = exp(x) − y = 0.
f2(x, y) = x2
+ y2
− 16 = 0.
J(x,y)=
exp(x) −1
2x 2y
Graphiquement :
33
Le graphe nous indique qu’une solution est au voisinage du vecteur (2.8, 2.8). donc on prend
x0
0 = (2.8; 2.8) A l’it´eration 1 on a :
exp(2.8) −1
2(2.8) 2(2.8)
δx1
δx2
= −
exp(2.8) − 2.8
2(2.8)2
+ 2(2.8)2
Ainsi, on obtient le tableau suivant `a l’it´eration 5 :
n δx R x
1 (0.77890 ; 0.83604) (13.645 ; -0.3200 ) (2.024 ; 3.63604)
2 ( -0.5048 ;0.10106 ) (3.9106 ; 1.3056 ) (1.5163 ; 3.7371)
3 ( 0.17208 ;0.34355 ) (0.81824 ; 0.2650 ) (1.3442 ; 3.7715)
4 (0.0161616 ;0.0163847 ) (0.063617 ; 0.031086 ) (1.3280 ; 3.7731)
5 (9,03 e-5 ; 9.25e-6) (0.348866e-3 ; 0.16946e-3) (1.3281 ; 3.7731)
La convergence de la m´ethode de Newton d´epend crucialement de l’approximation initiale du
vecteur x0 de la solution.
Un mauvais choix r´esultera `a un algorithme divergent.
La convergence est quadratique et cet caract`ere se perd si la matrice n’est pas inversible.
Il existe plusieurs variantes de la M´ethode de Newton qui peuvent ´eviter le calcul de la d´eriv´ee./.
34
Conclusion
Sachant que la r´esolution des probl`emes math´ematiques aboutit en g´eneral `a la naissance
d’autres nouveaux concepts et notions math´ematiques. La communaut´e math´ematique doit ac-
tiver ses recherches pour les r´esolutions analytiques non seulement pour r´esoudre des ´equations
d’ordre quelconque mais aussi pour la contribution de cette recherche en math´ematique notam-
ment la naissance d’autres concepts comme fut n´ee la notion du groupe avec Evariste Galois (`a
la recherche des m´ethodes du cinqui`eme degr´e ) et la naissance des ideaux et anneaux par Emmy
no´ether Hilbert...etc (dans la recherche des solutions de l’´equation du Fermat). Les m´ethodes
num´eriques avec l’´evolution exponentielle de la technologie peuvent combler la demande de
l’homme pr´ess´e pour la r´esolution des probl`emes math´ematiques auquels il est confront´e.
35
Chapitre 4
R´eference Bibliographique
36
Bibliographie
[1] Vodney Donev , Dictionnaire de Math´ematique, Mouscou
[2] FORTIN Andr´e, Analyse num´erique pour l’ing´enieur,Edit :Ecole polytechnique de
Montr´eal-1995 .
[3] GOURDON Xavier Tome d’Anlyse et d’alg`ebre Ellipse,1994 .
[4] LEMBARKI Alami, Analyse num´erique 1-2 D´epartement de Math´ematique -FSSM ,Mar-
rakech 2005
[5] Alg`ebre 2 -SMA D´epartement de Math´ematique -FSSM,Marrakech ;2005
[6] Peruzo Bordas Encyclopedie -Math´ematique- ,Bordas ;1970.
Department of Mathematics, University Cadi Ayyad, Faculty of Sciences Semlalia
P.O. Box : 2390, Marrakesh, Morocco. http ://www.ucam.ac.ma.
SIDIBE Ali Broma ; jahbromo@yahoo.fr ; http ://www.jahbromo.tk
37

Resolution de F(X) = 0 SIDIBE Ali

  • 1.
  • 2.
    RESOLUTION ANALYTIQUE ET NUMERIQUEDE F(X)=0 SIDIBE Ali-Broma Marrakech, le 25 Juin 2007
  • 3.
  • 4.
    REMERCIEMENTS Cette modeste oeuvren’a pas pu ˆetre r´ealis´ee sans la participation directe ou indirecte de nom- breuses bonnes volont´es. A mes parents qui m’ont inculqu´e les valeurs morales et fondamentales de la vie. Mes vifs et sinc`eres remerciements s’addressent `a : A Mr MANSOURI Abdelatif pour l’interˆet qu’il a accord´e `a ce th`eme, son amour du travail bien fait, sa disponibilt´e et l’excellente qualit´e de son encadrement. Qu’il trouve en ceci la preuve de ma plus profonde gratitude envers lui et sa famille. A Monsieur MAKKI Naciri et Monsieur Idriss BOUZIANE pour leur appui consid´erable `a mon parcour acad´emique.Qu’ils trouvent en ceci la preuve de ma plus haute consid´eration. A Monsieur El-Hadj Ait DADS pour ses pr´ecieux conseils constructifs `a la fin de de chaque cours. A l’ensemble du corps professoral du D´epartement de Math´ematiques pour l’excellente qualit´e de leur enseignement.Qu’ils trouvent `a travers ceci le signe de ma plus profonde reconnaissance. Enfin je remercie tous mes amis qui de loin ou de pr`es ont contribu´e `a la r´ealisation de ce projet notamment mon ami SIDI ZAKARI Ibrahim pour son appui technique et mon voi- sin HOUSSOU D Landry P. pour ses pr´ecieux conseils `a la communaut´e malienne et mes camarades de classe. D´edi´e `a Mr MODIBO KEITA, Premier Pr´esident de la R´epublique du Mali, et `a Tch´edioukou Broma SIDIBE 2
  • 5.
    Table des mati`eres AVANT-PROPOS4 1 R´esolution des ´equations polynˆomiales et diophantiennes 6 1.1 R´esolution alg´ebrique des ´equations polynˆomiales . . . . . . . . . . . . . . . . . 7 1.1.1 Les polynˆomes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.1.2 Qu’est-ce que r´esoudre un polynˆome ? . . . . . . . . . . . . . . . . . . . . 7 1.1.3 L’existence, nombre et nature des racines . . . . . . . . . . . . . . . . . . 7 1.1.4 R´esolution par radicaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.1.5 Groupe de Galois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.1.6 Relation entre les coefficients d’un polynˆome et ses racines . . . . . . . . 10 1.1.7 Les ´equations du 1er degr´e et du 2`eme degr´e . . . . . . . . . . . . . . . 11 1.1.8 Les ´equations du 3`eme degr´e . . . . . . . . . . . . . . . . . . . . . . . . 11 1.1.9 La m´ethode de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2 Les ´equations du 4`eme degr´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.1 Les ´equations bicarr´ees . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.2 M´ethode de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.3 Les ´equations du 5`eme degr´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.4 La r´esolution des ´equations diophantiennes . . . . . . . . . . . . . . . . . . . . . 15 1.4.1 Le triplet pythagoricien . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4.2 Equation de Fermat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4.3 le triangle de rˆeve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2 R´esolution des syst`emes lin´eaires et fonctions num´eriques 18 2.1 R´esolution des syst`emes lin´eaires . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.1.1 M´ethode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.1.2 L’´egalit´e entre le nombre d’inconnues et d’´equations . . . . . . . . . . . . 19 2.1.3 Plus d’´equations que d’inconnues . . . . . . . . . . . . . . . . . . . . . . 19 2.1.4 Plus d’inconnues que d’´equations . . . . . . . . . . . . . . . . . . . . . . 19 2.1.5 Diff´erence l’homme-machine sur le syst`eme Ax=b . . . . . . . . . . . . . 20 2.1.6 Limiter les d´egats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.1.7 Le conditionnement d’une matrice . . . . . . . . . . . . . . . . . . . . . 20 2.1.8 Interpr´etation du th´eor`eme . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.1.9 Les M´ethodes it´eratives . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.1.10 M´ethode de Jacobi, Gauss-Seidel et de Relaxation . . . . . . . . . . . . 22 2.1.11 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.2 Les Formes lin´eaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.2.1 Les hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.2.2 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3
  • 6.
    2.3 Les Fonctionsnum´eriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.3.1 Th´eor`eme des valeurs interm´ediaires . . . . . . . . . . . . . . . . . . . . 24 2.3.2 Th´eor`eme de Rolle 1652-1749 . . . . . . . . . . . . . . . . . . . . . . . . 24 2.3.3 Le th´eor`eme des points fixes . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.4 Les extremums et formes standards . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.4.1 Extremum simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.4.2 Extremum li´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3 R´esolution num´erique des ´equations et syst`emes non lin´eaires 28 3.1 Les fonctions r´eelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.1.1 M´ethode de dichotomie ou de bissection . . . . . . . . . . . . . . . . . . 29 3.1.2 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.1.3 M´ethode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.1.4 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.1.5 Interpr´etation g´eom´etrique . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.1.6 Analyse de la convergence . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.2 R´esolution des syst`emes non lin´eaires . . . . . . . . . . . . . . . . . . . . . . . . 32 4 R´eference Bibliographique 36 4
  • 7.
    AVANT-PROPOS L’histoire de lar´esolution de F(X) = 0 o`u F,X de natures quelconques se confond avec celle des Math´ematiques. Dans le but de r´epondre `a ses probl`emes ou se sentir `a l’aise l’homme s’attaqua `a de nombreux probl`emes dont la r´esolution par une interpr´etation math´ematique se ram`ene `a r´esoudre F(X) = 0. Les Sages les plus r´eput´es dans l’histoire de chaque peuple ´etaient ceux qui trouvaient les solu- tions des devinettes dont leur r´esolution se r´esume `a une ´equation math´ematique. L’histoire de chaque peuple est confront´ee `a un probl`eme mathematique de genre du th`eme. Par exemple il ´etait grav´e sur une tablette de Babylon l’expression : ”A 11 fois la surface de mon carr´e, j ’ajoute 7 fois le cˆot´e pour obtenir 25 4 ” qui se traduit aujourd’hui par : 11x2 + 7x = 25 4 . Aussi l’histoire math´ematique italienne a ´et´e confront´ee `a ce probl`eme : ”Quel est l’arˆete in- connu d’un cube dont le volume ajout´e `a cinq fois l’arˆete donne 378. Ainsi pour r´epondre `a ce probl`eme un nombre remarquable de savants italiens dont Nicolo Fontana, Jerome Cardano, ludicio Ferrari, Paolo Rufini travaill`erent dans ce domaine. De mˆeme qu’au sud du Mali une devinette `a parcouru des si`ecles : ”Trouver le nombre de lions et d’aˆıgles qu’un chasseur pourrait tuer sachant qu’il a ramen´e cinquante quatre pattes et dix-neuf tˆetes”. A ceux-ci on peut ajouter d’autres probl`emes dans la vie courante tel que trouver un triangle de mˆeme aire qu’un carr´e, maximiser les b´en´efices d’une entreprise ou minimiser les coˆuts d’un projet. La r´esolution de tous ces probl`emes se ram`ene ou passe par la r´esolution de F(X) = 0. Les cours traditionnels de Math´ematiques nous enseignent des th´eories et des m´ethodes qui per- mettent de r´esoudre de fa¸con analytique un certain nombre de probl`emes de la forme F(X) = 0. Face au probl`eme de temps et d’efficacit´e, on est app´el´e `a faire recours `a d’autres m´ethodes qui peuvent tout r´esoudre rapidement :Les m´ethodes num´eriques. Les m´ethodes num´eriques contrai- rement aux m´ethodes analytiques, sans restriction, ne r´esolvent pas exactement les probl`emes mais fournissent rapidement leurs solutions approximatives. 5
  • 8.
    Chapitre 1 R´esolution des´equations polynˆomiales et diophantiennes Introduction : La r´esolution de l’´equation F(X) = 0 demande d’abord la connaissance de la nature de F, de X et de l’ensemble dans lequel on travaille. Suivant la nature de F et de X, l’´equation admet ou non une solution. Pour la d´etermination des ´eventuelles solutions existantes, des m´ethodes de r´esolution appropri´ees s’appliquent. Nous distinguerons les cas o`u F est un polynˆome, un syst`eme lin´eaire, une fonction `a une ou plusieurs variables, un op´erateur ( le Laplacien, le gradient)...etc. Il existe d’autres natures de F mais nous nous restreignons `a ces trois premiers cas cit´es. La nature de X est ´etroitement li´ee `a celle de F et se pr´esente sous la forme d’un inconnu complexe dans le cas polynˆomial, d’un vecteur dans le cas des syst`emes lin´eaires, d’un entier dans celui des ´equations diophantiennes comme dans le grand th´eor`eme de Fermat. Avant de rentrer dans le vif du sujet, nous rappelerons quelques notions de structures alg´ebriques qui seront cit´ees dans ce chapitre. D´efinition 1 1. Soit E un ensemble non vide. On appelle loi de composition interne(qu’on abr`ege par Lci), notons ⊗, toute application de E X E dans E. L :EXE −→ E (x, y) −→ x ⊗ y 2.On appelle groupe, un ensemble G muni d’une loi de composition interne ∗ telle que : – ∗ est associative : ∀x, y, z ∈ G x ∗ (y ∗ z) = (x ∗ y) ∗ z – ∗ admet un ´el´ement neutre e (e ∗ x = x ∗ e = x) – Tout ´el´ement admet un sym´etrique : ∀x ∈ G, ∃y ∈ G tel que x ∗ y = y ∗x = e Un groupe (G, ∗) est dit commutatif ou ab´elien (du nom d’Abel ) si :∀ x, y ∈ G, x ∗ y = y ∗ x. D´efinition 2 : On appelle anneau ,un ensemble A muni de deux lois de composition interne ∗, ⊕ not´e (A, ∗, ⊕) tel que : – (A, ∗) est un groupe ab´elien. – ⊕ est associative. – ⊕ est distributive par rapport `a ∗. Un anneau est commutatif si ⊕ l’est et unitaire si ⊕ poss`ede un ´el´ement neutre. D´efinition 3 : Enfin on appelle corps tout ensemble (A, ∗, ⊕) tel que : 6
  • 9.
    i (A, ∗,⊕) est un anneau. ii (A − {0}, ∗) est un groupe. Il revient `a dire qu’un corps est un anneau dans lequel tout ´el´ement non nul est inversible dans A Un corps est dit commutatif si la loi ⊕ est commutative. Dans N, l’addition + est une Lci mais la soustraction n’est pas une Lci car la soustration de deux entiers n’est pas n´ecessairement dans N. 1 L’ensemble (Z, +) est un groupe et (Z, +, .) est un anneau. 2 Les ensembles (Q, +, .) (R, +, .) (C, +, .) sont des corps commutatifs de caracteristique 0. 3 L’ensemble M = {M ∈ Mn(R) ; det M = 0} muni de + et . est un corps non commutatif. 4 L’ensemble Z/pZ (p premier) est un corps fini de caract´eristique p. 1.1 R´esolution alg´ebrique des ´equations polynˆomiales 1.1.1 Les polynˆomes La r´esolution des ´equations polynˆomiales a beaucoup contribu´e `a l’´evolution de l’alg`ebre. D´efinition 4 Soit K un corps ou anneau. Un polynˆome de degr´e n dans K[X] (n un entier) est une somme alg´ebrique de monˆomes et se pr´esente sous la forme : P(X) = anXn + an−1Xn−1 + · · · · · · + a1X + a0 avec an = 0, a0, a1, · · · , an ∈ K. 1.1.2 Qu’est-ce que r´esoudre un polynˆome ? D´efinition 5 : Soit P un polyˆome dans K[X]. r´esoudre l’´equation P(x) = 0, dans le corps ou anneau K c’est exprimer ses ´eventuelles racines en fonction de ses coefficients an , an−1, · · · a1 , a0 dans K. Propri´et´e : Soit P(x) = anxn + an−1xn−1 + · · · · · · + a1x + a0 = 0. En posant z = x − an−1 nan on se ram`ene `a : P(z) = anzn + an−2zn−2 + · · · · · · + a1z + a0 = 0. Cette translation nous sera tr`es utile dans la suite. 1.1.3 L’existence, nombre et nature des racines Les deux th´eor`emes suivants permettent de nous assurer au pr´ealable l’existence et le nombre des racines d’une ´equation polynˆomiale. Th´eor`eme 1.1.1 Le corps des complexes C est alg´ebriquement clos. C’est-`a-dire tout polynˆome `a coefficients dans le corps des complexes C peut ˆetre d´ecompos´e en produits de facteurs du 1er degr´e. Th´eor`eme 1.1.2 Tout polynˆome de degr´e n dans le corps des complexes C admet exactement n racines complexes distinctes ou non. 7
  • 10.
    Ce th´eor`eme a´et´e ´enonc´e par Albert Girard, la d´emonstration a ´et´e commenc´ee par Jean le Rond D’Alembert et ach´ev´ee par Gauss. Pour les ´equations `a coefficients r´eels, R´en´e Descarte proposa une id´ee sur les signes des ´eventuelles racines. Le nombre de racines positives de P(x) = 0 est ´egal, au plus, au nombre de variations de signes de P(x) ou la diff´erence de ces deux nombres est impaire. L’´equation x3 − 2x2 − 2 = 0 a deux variations de signe donc poss`ede au plus deux racines positives. On pourrait croire que les deux pr´ec´edents th´eor`emes ach`event l’´etude des polynˆomes mais un probl`eme persiste :quelle m´ethode faut-il employer pour trouver les n racines d’un polynˆome de degr´e n avec n quel- conque dans N ?La r´esolution des ´equations du 1er et 2`eme degr´e laisse pr´esager l’exitence d’une m´ethode g´en´erale. Cependant on saura dans ce qui va suivre que seules les ´equations de degr´e 1, 2, 3 et 4 admettent une m´ethode de r´esolution g´en´erale : R´esolution par radicaux. Aujourd’hui au-del`a de quatre, il n’existe pas ”encore” une m´ethode capable de r´esoudre toutes les ´equations de degr´e n avec n ≥ 5. Ainsi, rassur´es de l’existence des racines de tout polynˆome de tout degr´e, nous allons main- tenant envisager l’obtention d’une m´ethode g´en´erale, nous permettant de trouver ces racines. L’unique m´ethode naturelle que nous connaissons aujourd’hui est la r´esolution par radicaux que nous exposerons ci-dessous. 1.1.4 R´esolution par radicaux Dans tout ce qui suit K sera consid´er´e comme un corps commutatif de caract´eristique 0. D´efinition 6 : Un ´el´ement a de K est dit alg´ebrique s’il existe un polynˆome P ∈ K[X] tel que P(a) = 0 (a est alors dit racine de P). Dans le cas contraire, on dit qu’il est transcendant. Le r´eel √ 2 est alg´ebrique car il annule le polynˆome X2 − 2. Il a aussi ´et´e d´emontr´e que π et e sont transcendants dans Q. C’est-`a-dire il n’existe pas de polynˆome `a coefficients dans Q qui s’annule en π ou e. D´efinition 7 : On appelle corps de d´ecomposition de P le corps des racines de P c’est-`a- dire : E = { x ∈ K tel que P(x) = 0}. Le corps E = Q(− √ 2 , √ 2) est le corps de d´ecomposition du polynˆome P(X) = X2 − 2. D´efinition 8 : Une extension est dite alg´ebrique si tous ses ´el´ements le sont. Le corps suivant est une extension alg´ebrique de Q : Q( √ 2) = {a + b √ 2; a, b ∈ Q}. D´efinition 9 : On appelle polynˆome minimal de a dans K, l’unique polynˆome unitaire irr´eductible de K[X] d´efini par : M(a) = 0; ∀P ∈ K[X], P(a) = 0 =⇒ M|P Le polynˆome P(X) = X2 − 2 dans Q est irr´eductible (par le crit`ere d’Eseinstein), unitaire et verifie P( √ 2) = 0 donc c’est le polynˆome minimal de √ 2 D´efinition 10 : Un polynˆome est dit s´eparable dans un corps K si toutes ses racines dans une clˆoture alg´ebrique de K sont toutes simples. 8
  • 11.
    Le polynˆome P(X)= X2 − 2 est s´eparable dans Q car ses racines dans C sont simples. D´efinition 11 : Un ´el´ement a est dit s´eparable si son polynˆome minimal est s´eparable. L’irrationnel √ 2 est s´eparable. D´efinition 12 : Une extension est s´eparable si tous ses ´el´ements le sont. Le corps E = Q( √ 2, − √ 2) le corps des racines de P,est s´eparable. D´efinition 13 : Une extension E est normale sur K si : – E est alg´ebrique. – Tout polynˆome irr´eductible de K[X] admettant une racine dans E se d´ecompose en un produit de facteurs du 1er degr´e. D´efinition 14 : Enfin une extension galoisienne est une extension normale et s´eparable. Le corps des racines d’un polynˆome est une extension galoisienne. 1.1.5 Groupe de Galois La th´eorie du groupe r´el`eve d’un domaine math´ematique dans lequel on formalise le concept de sym´etrie. D´efinition 15 : Soit E une extension galoisienne sur K. On appelle groupe de Galois de E sur K qu’on note Gal(E/K) le groupe des automorphismes de E laissant invariants les ´el´ements de K. Autrement dit : Gal(E/K) = {σ : E −→ E, automorphisme; ∀ x ∈ K, σ(x) = x}. D´efinition 16 : Un groupe de Galois est r´esoluble lorsqu’il existe une suite finie σ0, σ1, · · · , σn sous groupes de G tels que : σ0 ⊂ σ1 ⊂ σ2 ⊂ · · · ⊂ σn = G o`u ∀ i = 0, 1, 2, · · · , n − 1 , σi est un sous groupe distingu´e dans σi+1 et σi+1/σi est ab´elien. Tout groupe ab´elien en particulier les groupes de permutation S1 S2, S3 et S4 sont r´esolubles. D´efinition 17 : Soient P ∈ K[X], un polynˆome et E son corps de racines.On appelle groupe de Galois de P le groupe de Galois de E sur K. Nous allons avec la proposition suivante caract´eriser les groupes de Galois avec les groupes de permutation dont nous savons beaucoup de leurs propri´et´es Proposition 1 : Soit E = K(x1, x2, · · · xn). Alors le groupe de Galois de E sur K est isomorphe `a Sn. Preuve 1 Soit ϕ l’application de Gal(E/K) sur Sn d´efinie par : ϕ(σ) = π avec σ(xi) = xπ(i) et 1 ≤ i ≤ n. Par construction ϕ est un homomorphisme de groupe surjectif, kerϕ = {σ ∈ gal(E/K), ϕ(σ) = IdE = π} = {σ ∈ gal(E/K); ∀i σ(xi) = xi} = {id} =⇒ ϕ est injectif. D’o`u le r´esultat. 9
  • 12.
    D´efinition 18 -SoitE et F deux corps commutatifs. On appelle radical de F dans E un ´el´ement a de E tel qu’il existe une puissance de a dans E. -On dit qu’un ´el´ement a de E s’exprime par radicaux de K si et seulement si il existe une suite Si tel que : - S0 est une suite de K. - Si i ∈ {1, 2, · · · p − 1} alors il exite une suite de combinaisons lin´eaires `a coefficients dans K de radicaux de la suite Si−1. -Dans K, a est une combinaison lin´eaire `a coefficients ´el´ements de la suite Sp−1. -On dit qu’un polynˆome est r´esoluble par radicaux si et seulement si toutes ses racines s’ex- priment par radicaux de K. Il s’agit maintenant de determiner le lien entre les polynomes et leur groupe galoisienne.Autrement dit avec le corps de ses racines. Th´eor`eme 1.1.3 (Abel-Ruffini) : Un polynˆome est r´esoluble par radicaux si et seulement si son groupe de galois l’est. Proposition 2 Les polynˆomes de degr´e n avec n ≤ 4 sont r´esolubles par radicaux. Preuve 2 Pour n = 1, 2 c’est ´evident . Faisons pour n = 3, soit Q un polynˆome irr´eductible : Q(x) = a3X3 + a2X2 + a1X + a0. Quitte `a faire la translation ´enonc´ee dans la propri´et´e pr´ec´edente, on peut se ramener `a la forme : P(x) = X3 + pX − q. Notons x1 , x2 et x3 les trois racines de P et E son corps des racines. Le polynˆome P est irr´eductible unitaire et v´erifie P(x1) = 0 alors P est le polynˆome minimal de x1. Comme E contient x1 alors 3=degr´e(P) divise [E : K]. D’apr`es la proposition pr´ec´edente , E est isomorphe `a un sous groupe de S3 donc [E : K] ∈ {3, 6}. Si [E : K] = 3 =⇒ E isomorphe `a A3 donc r´esoluble (car A3 est ab´elien ). Sinon [E : K] = 6 alors isomorphe `a S3. Comme S3 contient A3 ab´elien et S3/A3 ab´elien ( ne contient que deux ´el´ements), donc S3 est r´esoluble et par isomorphisme E est r´esoluble. D’o`u par le th´eor`eme d’Abel Ruffini les polynˆomes de degr´e 3 sont r´esolubles par radicaux. De mˆeme pour les polynˆomes de degr´e quatre. 1.1.6 Relation entre les coefficients d’un polynˆome et ses racines Soient Sn le groupe des permutations de 1 `a n et K un corps commutatif. D´efinition 19 : Un polynˆome P ∈ K[X1, X2, · · · Xn] est dit sym´etrique si ∀σ ∈ Sn P(Xσ(1), Xσ(2) · · · Xσ(n)) = P(X1, X2, · · · Xn). On appelle polynˆome sym´etrique ´el´ementaire les polynˆomes not´es σi et d´efinis par : σ1(X1, X2, · · · Xn) = X1 + X2 + · · · + Xn ; σp(X1, X2, · · · Xn) = i1<i2···ip Xi1 · · · Xip σn(X1, X2, · · · Xn) = X1X2 · · · Xn. 10
  • 13.
    Proposition 3 :Soit P un polynˆome de la forme : P = Xn + a1Xn−1 + · · · + aiXi + · · · + an−1X + an ∈ K[X] scind´e sur K et (u1, u1, · · · un) ses racines . Alors on a : (−1)i ai = σi(u1, u1, · · · un) Nous sommes maintenant munis d’une m´ethode de r´esolution des ´equations polynomiales : r´esolution par radicaux qui est capable de r´esoudre toutes ´equations en polynˆomes de degr´e n avec n ≤ 4. 1.1.7 Les ´equations du 1er degr´e et du 2`eme degr´e L’un des plus anciens patrimoines de l’histoire math´ematique, la m´ethode de r´esolution des ´equations du s´econd degr´e a ´et´e d´ecouverte par les summ´eriens et babyloniens il y’a plus 5000 ans, par Diophante, par les Hindous et finalement par les Arabes au XI`eme si`ecle. Dans son livre ”Abr´eg´e du calcul par restauration et comparaison” (al jabr-wal muquabla), Al-khararizm d´ecrit les six ´equations canoniques du s´econd degr´e ainsi que les m´ethodes pour s’y ramener. D’o`u la naissance de l’algorithme et de l’alg`ebre . (E2) aX2 + bX + c = 0; a = 0. Discriminant Nature des racines Forme des racines b2 − 4ac > 0 x1 et x2 r´eelles x1 = −b+ √ b2−4ac 2a ; x2 = −b− √ b2−4ac 2a b2 − 4ac = 0 x1 et x2 r´eelles x2 = x1 = −b 2a b2 − 4ac < 0 z1 et z2 complexes et conjugu´es z1 = z2 = −b+i √ b2−4ac 2a Exemple 1 : L’exemple babylonnien. Soit : 11x2 + 7x − 25 4 = 0 . En appliquant directement ce qui pr´ec`ede on a : ∆ = b2 − 4ac = 324 , x1 = −7+ √ 324 22 = 11 et x2 = −7− √ 324 22 (`a r´ejeter). Le cˆot´e d’un tel carr´e est 11. 1.1.8 Les ´equations du 3`eme degr´e La m´ethode de r´esolution des ´equations du 3`eme degr´e a ´et´e premi`erement obtenue au XVI`eme si`ecle par Scipion Del Ferro. Vingt trois ans apr`es, Nicolo Fontana dit Tartaglia la d´ecouvrit et l’utilisa en gagnant le grand concours de Math´ematique en 1535. En 1545 dans son livre ” Ars Magna”( le grand art) Jeromeo Cardano, apr`es l’avoir obtenue aupr`es de Tartaglia , la publia . En 1771 Lagrange, se basant sur les relations entre les racines d’un polynˆome et ses coefficients, obtient une autre m´ethode qui porte son nom. D`es lors, il existe plusieurs m´ethodes de r´esolution parmi lesquelles on peut citer la m´ethode de Descartes, de B´ezout, de Sotta...etc. Nous choisirons la m´ethode de Lagrange grˆace `a ses concepts sur les groupes de Galois. 11
  • 14.
    1.1.9 La m´ethodede Lagrange Soit l’´equation (E3) a3x3 + a2x2 + a1x + a0 = 0. Quitte `a faire une translation, on se ram`ene `a : x3 + px + q = 0. Notons x1 , x2 , x3 les trois racines de E3. Si on trouve un polynˆome P en trois variables ( X, Y , Z ) qui ne prend que deux valeurs A et B par toutes permutations effectu´ees sur (X, Y , Z) on saura, grˆace `a ce qui pr´ec`ede, trouver un polynˆome de degr´e 2 qui s’annule aux deux valeurs prises par P en ( X , Y , Z) ; on est ainsi ram´en´e au cas du deuxi`eme degr´e ( d´ej`a r´esolu). Soit x1 , x2 , x3 les trois racines de x3 + px + q = 0. Le polynˆome P(X, Y, Z) = X + jY + j2 Z (o`u j est la racine 3`eme de l’unit´e) ne prend au point (x1 , x2 , x3) que deux valeurs A et B par toutes les permutations effectu´ees sur les x1 , x2 , x3 qui sont : A = (x1 + jx2 + j2 x3)3 ; B = (x1 + jx3 + j2 x2)3 . Compte tenu du fait que : σ1 = x1 + x2 + x3 = 0; σ2 = x1x2 + x1x3 + x2x3 = p, ; et σ3 = x1x2x3 = −q. On a alors : A + B = −27p; AB = −27p3 . Ainsi A et B sont les racines de l’´equation : Z2 + 27qZ − 27p3 = 0. Les nombres A et B ´etant connus (maintenant), en choisissant une racine cubique u de A et v de B de fa¸con que uv = −3p, on se ram`ene au :    x1 + x2 + x3 = 0 x1 + jx2 + j2 x3 = u x1 + jx3 + j2 x2 = v =⇒    x1 = 1 3 (u + v) x2 = 1 3 (j2 u + jv) x3 = 1 3 (ju + j2 v) La nature des racines se conclut par le tableau suivant : ∆ = 27(4p3 + 27q2 ); w = 3 −q + i √ ∆ 2 ; u = 3 −q − √ ∆ 2 ; v = 3 −q + i √ ∆ 2 . Discriminant Nature des racines Formes des racines ∆ < 0 1 racine r´eelle ;1 racine double r´eelle x1 = 3q p ; x2 = x3 = −3q 2p ∆ = 0 3 racines r´eelles xi = ji w + jiw; i ∈ {0, 1, 2} ∆ > 0 1 racine r´eelle ; 2 racines complexes xi = ji u + jiv; i ∈ {0, 1, 2} Exemple 2 : La recherche des racines ´evidentes r´esoud g´en´eralement beaucoup d’´equations du 3`eme degr´e de la mani`ere qu’on pourrait voir facilement les racines de : x3 + 2x2 − x − 2 = 0; (x1 = −1; x2 = 1; x3 = 2). 12
  • 15.
    Ces techniques s’arrˆetentl`a o`u les racines ne sont plus ´evidentes. Exemple 3 : Naissance des nombres complexes Soit (E) x3 − 15x2 − 4 = 0. Par la recherche des racines ´evidentes on trouve x1 = 4 et pourtant par la m´ethode de Cardan on a : x1 = 3 2 + √ −121 + 3 2 − √ −121. Parmi les racines, x = 4 n’ y figure pas et pourtant la m´ethode est vraie.Mais c’est le terme√ −121 qui pose probl`eme.Bombelli franchit la barre des r´eels ,en proposant : u3 = 2+ √ −121 = 2+11 √ −1 et v3 = 2−11 √ −1 et s’apercoit que (2+ √ −1)3 = 2+2 √ −121 = 2 + 11 √ −1 = 2 + 11i alors x = u + v = 4. Par cons´equent le nombre i tel que i2 = −1 est n´e ( nombre sophistiqu´e) que Gauss baptisa le nombre complexe ou imaginaire. 1.2 Les ´equations du 4`eme degr´e 1.2.1 Les ´equations bicarr´ees Ce sont les ´equations de degr´e quatre, paires ( les monˆomes de degr´e impairs n’y figurent pas) pouvant se mettre sous la forme : ax4 + bx2 + d = 0. Par la parit´e si x est racine alors −x est aussi racine. En posant Z = x2 on se ram`ene aux ´equations du s´econd degr´e( d´ej`a r´esolues). x4 − x2 − 2 = 0 (1). Posons z = x2 alors (1) devient z2 − z − 2 = 0 dont les racines sont z1 = 2; z2 = −1. Par extraction les racines de (1) sont : x1 = √ 2; x2 = − √ 2; x3 = −i; x4 = i. 1.2.2 M´ethode de Lagrange En 1540 Ferrari, se basant sur la m´ethode de son maˆıtre Cardan, mˆıt au point la formule de la r´esolution du 4`eme degr´e. Par ailleurs il existe la m´ethode de Lagrange, de Sotta et de B´ezout. Pour la mˆeme raison que la pr´ec´edente, nous d´evelopperons la m´ethode de Lagrange. E4 a4x4 + a3x3 + a2x2 + a1x + a0 = 0. En posant x = z − a3 4a4 on se ram`ene `a : z4 + az2 + bz + c = 0. Soit x1, x2, x3 et x4 les quatre racines de cette derni`ere. Le polynˆome P(X, Y, Z, Z) = XZ + Y T ne prend que trois valeurs par toute permutation effectu´ee sur x1, x2, x3, x4 qui sont : A = x1x2 + x3x4; B = x1x3 + x2x4 ; C = x1x4 + x2x3. Et on a : σ1(x1, x2, x3, x4) = 0 ; σ2(x1, x2, x3, x4) = a; σ3(x1, x2, x3, x4) = b ; σ4(x1, x2, x3, x4) = c. 13
  • 16.
    On a alors: A + B + C = σ2; AB + AC + BC = σ1σ2 − 4σ4 = −4c; ABC = b2 − 4ac. Les nombres A, B et C sont obtenus comme racines de r3 − ar2 − 4cr − b2 + 4ac = 0. Cette ´equation est du troisi`eme degr´e que l’on sait r´esoudre. En notant u, v et w ces trois racines, on aura alors le syst`eme suivant : S =    x1 + x2 + x3 + x4 = 0 x1x2 + x3x4 = u x1x3 + x2x4 = v x1x4 + x2x3 = w ⇐⇒    x1 + x2 + x3 + x4 = 0 (1) (x1 + x2)(x3 + x4) = v + w (2) (x1 + x4)(x2 + x4) = u + v (3) (x1 + x3)(x2 + x4) = u + w (4) A l’aide de (1) et (2) on a : (I) x1 + x2 = ρ1 et x3 + x4 = −ρ1 avec ρ1 = √ −u − w. A l’aide de (1) et(3) on a : (II) x1 + x4 = ρ2 et x2 + x4 = −ρ2 avec ρ2 = √ −u − v. A l’aide de (2) et (3) on a : (III) x1 + x3 = ρ3 et x2 + x4 = −ρ3 avec ρ3 = √ −v − w. Pour qu’il y’ait ´equivalence entre ( I,II et III) et le syst`eme (S) il faut et il suffit que ρ1 , ρ2 ρ3 soient choisis de fa¸con que : ρ1ρ2ρ3 = −b sachant que : (x1 + x2)(x1 + x3)(x1 + x4) = x1(x1 + x2 + x3 + x4) + σ3 = −b Maintenant on voit que les racines sont :    x1 = 1 2 (ρ1 + ρ2 + ρ3) x2 = 1 2 (ρ1 − ρ2 − ρ3) x3 = 1 2 (−ρ1 − ρ2 + ρ3) x4 = 1 2 (−ρ1 + ρ2 − ρ3) Cependant, pour n ≥ 5, nous n’avons pas de m´ethodes universelles pour tous les polynˆomes de degr´e n. Nous allons montrer que la r´esolution par radicaux n’est pas g´en´erale pour tout polynˆome. 1.3 Les ´equations du 5`eme degr´e En 1799 Paolo Ruffini affirma que les ´equations du 5`eme degr´e en polynˆomes n’´etaient pas toutes r´esolubles, une proposition r´ej´et´ee par les math´ematiciens de l’´epoque. En1824 Abel donna une preuve compl`ete mais sans concepts. Finalement, Galois balaya le doute par la notion et le concept des groupes de Galois en fournissant une condition n´ecessaire et suffisante de la non-r´esolubilit´e des ´equations de degr´e n avec n ≥ 5 . Soit l’´equation : P(x) = a5x5 + a4x4 + a3x3 + a2x2 + a1x + a0 = 0. 14
  • 17.
    Et soient x1,x2, x3, x4 et x5 ses cinq racines et E le corps des racines de P. On d´efinit son groupe de Galois par : Gal(E/K) = {σ : E −→ E, ∀ i σ(xi) = xj, 1 ≤ i, j ≤ 5}. Pour montrer que le groupe de Galois n’est pas r´esoluble, par isomorphisme il suffit de montrer que S5 n’est pas r´esoluble. Comme dans le cas de degr´e inf´erieur ou ´egal `a quatre, on a trouv´e un polynˆome en (X, Y, Z) ou un polynˆome en (X, Y, , Z, T, W) qui ne prend respecti- vement que 2 ou 3 valeurs. Il s’agit alors de prouver qu’il n’ existe pas un polynˆome en cinq ind´etermin´ees ( X, Y, Z, T, W) qui prend 4 ou 3 valeurs par toute permutation effectu´ee sur X, Y, Z, T et W. Proposition 4 : Le groupe de permutation S5 n’est pas r´esoluble. Lemme 1.3.1 : Pour n ≥ 3 , A5 est engendr´e par les cycles de longueur 3. Preuve 3 Alors montrons que S5 n’est pas r´esoluble avec ce lemme. Soit H un sous groupe de S5 tel que [S5 : H] ≤ 4 Montrons que H contient tous les cycles de longueur 5. Soit λ un cycle de longueur 5, ∀ i ∈ {0, 2, 3, 4, 5} card(λi H) = card(H). Comme card(H) ≤ 4 alors les sous groupes H , λH , λ2 H , λ3 H , λ4 H , λ5 H ne peuvent pas ˆetre disjoints car ils prennent leur cardinal dans {1, 2, 3, 4} donc il existe i = j 0 ≤ i < j ≤ 4 tel que λi H λj H = φ =⇒ λj−i ∈ H ∈ or 1 < j − i < 5 donc λj−i engendre le cycle < λ > d’ordre 5 premier. Comme H contient tous les cycles d’ordre 5 alors par la relation : (i, j, k) = (k, j, i, a1, a2) = (i, k, j, a2, a1) ∈ H. Donc H contient les cycles d’ordre 3 qui engendrent A5. Donc A5 ⊂ H. A5 ⊂ H =⇒ card(S5) 2 = card(A5) < card(H). Or card(S5) = card(H).card(S5 : H) < 2card(H) donc [S5 : H] ∈ {1, 2} (card(S5) = 5! donc fini). Enfin Card(H)card(S5 : H) < 2cardH d’o`u [S5 : H] ∈ {1, 2}. Ainsi il n’existe pas de sous groupe H de S5 tel que [S5 : H] ∈ {3, 4} ce qui implique que Gal(E/K) n’est pas r´esoluble. De mˆeme pour les polynˆomes de degr´e sup´erieur `a 5. 1.4 La r´esolution des ´equations diophantiennes D´efinition 20 : Une ´equation diophantienne est une ´equation de la forme : P(x1, x2, · · · xn) = 0 avec P un polynˆome `a coefficients dans Z et dont la solution est cherch´ee dans Z. Les cas de telles ´equations r´esolubles sont rares, leur r´esolution demande aussi souvent un outil math´ematique tr`es moderne. 15
  • 18.
    1.4.1 Le tripletpythagoricien Probl`eme 1 : Il s’agit de r´esoudre dans Z l’´equation : x2 + y2 = z2 . Elle a ´et´e ´etudi´ee et r´esolue par Diophante. En supposant z = 0 et en divisant l’´egalit´e par z2 on aura : ( x z )2 + ( y z )2 = 1. La recherche des solutions de cette derni`ere revient `a retrouver les coordonn´ees rationnelles du cercle unit´e. Solution 1 : On suppose que x, y et z sont tous non nuls. Quitte `a diviser par le (pgcd(x, y, z))2 on peut se ramener au cas o`u x, y et z sont premiers entre eux. -Etudions la parit´e de x,y et z. Soit q un nombre impair. Alors q2 = (2n + 1)2 = 4n2 + 4n + 1 =⇒ pour tout q impair q ≡ 1[4].Alors si x et y sont impairs z2 = x2 + y2 ≡ 2[4] et z pair =⇒ z2 ≡ 0[4]. Contradiction. Alors supposons x pair et y impair. Etant donn´e que x et z sont premiers entre eux, x pair =⇒ z impair. Par conclusion x est pair, y et z sont impairs. Et z et y impairs =⇒ les entiers z − y et z + y sont pairs (z−y 2 a donc un sens dans Z). x2 = z2 − y2 ⇐⇒ ( x 2 )2 = ( z − y 2 )2 ( z + y 2 )2 . les nombres (z−y 2 )et (z+y 2 ) sont des carr´es entiers sinon la d´ecomposition de x 2 entraˆınera l’exis- tence d’un nombre premier p tel que p|(z+y 2 ) et p|(z+y 2 ) ce qui implique que p|(z+y 2 )+(z+y 2 ) = z et p|(z+y 2 ) − (z+y 2 ) = y, absurde (pgcd(z, y) = 1). Finalement il existe (m, n) ∈ Z tel que z−y 2 = n2 et (z+y 2 ) = m2 . Alors le triplet (x,y,z )sont :    x = (2kmn), k ∈ N y = k(m2 − n2 ), m ∈ N z = k(m2 + n2 ), n ∈ N, n < m ou    x = k(m2 − n2 ), k ∈ N y = (2kmn), m ∈ N z = k(m2 + n2 ), n ∈ N, n < m La pr´esence du facteur entier k s’explique par le fait que l’´equation est homog`ene : si le triplet (x, y, z) est solution =⇒ ∀n ∈ N(nx, ny, nz) est aussi solution. 1.4.2 Equation de Fermat Th´eor`eme 1.4.1 : Pour n ≥ 3 il n’existe pas d’entiers strictement positifs x, y et z v´erifiant l’´equation : xn + yn = zn , Pour n = 1, on a tout entier de la droite x + y = z avec z param`etre. Pour n = 2, elle devient l’´equation pythagoricienne d´ej`a d´emontr´ee. Le cas n < 100 a ´et´e d´emontr´e par Ernst Kummer. Cette ´equation propos´ee par Fermat en 1637 a inspir´e de nombreuses g´en´erations de math´ematiciens notammant Euler, David Hil- bert, Mme Emmy No´ether. La recherche des solutions de cette ´egalit´e a beaucoup contribu´e `a l’´evolution des Math´ematiques. En 1995, le th´eor`eme a ´et´e d´emontr´e par Andrew Whiles. Gra- phiquemment, on peut ´egalement comprendre ce th´eor`eme en considerant la courbe d’´equation (x z )n +(y z )n = 1 avec n > 2 et remarquer que cette courbe ne passe par aucun point `a coordonn´ee rationnelle non nulle. 16
  • 19.
    1.4.3 le trianglede rˆeve Il s’agit de trouver un triangle rectangle dont les cot´es ob´eissent au triplet pytagoricien et l’aire est celle d’un carr´e. Autrement, dit r´esoudre ce syst`eme dans N : x2 + y2 = z2 et xy 2 = t2 avec x, y, z, t ∈ N En fait ce triangle n’existe pas et s’explique par la transcendance de π. Par ailleurs, il existe d’autres ´equations diophantiennes telles que l’´equation de Pell, de Cata- lan...etc. 17
  • 20.
    Chapitre 2 R´esolution dessyst`emes lin´eaires et fonctions num´eriques 2.1 R´esolution des syst`emes lin´eaires Historiquemnt parlant, l’alg`ebre lin´eaire naˆıt de l’´etude des syst`emes lin´eaires. Abord´ee en 1678 par Leibniz , la r´esolution des syst`emes lin´eaires `a 2 ou 3 inconnues revient `a Mac Laurin en 1748 et compl´et´ee dans le cas g´en´eral par Cramer en 1754. La notation matricielle fut adopt´ee premi`erement par Gauss et se formalisa par Cayley et Grassman. Lorsqu’on revient `a l’exemple concret donn´e dans le cas des chasseurs du Mali on retrouve le syst`eme suivant : 4x + 2y = 54, x= nombre de lions x + y = 19, y= nombre d’aigles Il existe plusieurs m´ethodes pour la r´esolution des syst`emes lin´eaires parmi lesquelles, on peut citer : la m´ethode de Cramer , m´ethode de Gauss, m´ethode de Crout, de Cholesky...etc. La m´ethode de Cramer, non applicable que si det = 0, est lourde d’application puisqu’il faut plus de 3 millions d’ann´ees pour r´esoudre un syst`eme de moins de 30 inconnues avec une vitesse d’´ex´ecution de plus 3 millions d’op´erations par s´econde alors qu’avec celle de Gauss, sans condition, il nous faut seulement moins de 3 s´econdes avec la mˆeme hypoth`ese. Les autres m´ethodes ´etant des d´eriv´ees de celle de Gauss, alors le choix de la m´ethode de Gauss pour les ´etudes ult´erieures est justifi´e. 2.1.1 M´ethode de Gauss Soit le syst`eme suivant : (S) n k=1 aikxik = bi; 1 ≤ i ≤ m. Dans cette expression, m r´epresente le nombre d’´equations et n le nombre d’inconnues. En posant A = (aij)1≤j≤n 1≤i≤m ; B = (bi)1≤i≤m et X = (xi)1≤i≤n. On obtient cette forme compacte : AX = B. 18
  • 21.
    Quitte `a permuterles lignes, on peut supposer que ∀ i aii = 0. Par les op´erations ´el´ementaires (permutation des lignes ou colonnes - addition des lignes ou des colonnes- multi- plication par un scalaire non nul des lignes ), on peut ramener le syst`eme `a la forme suivante : (S) n k=i aikxik = bi; 1 ≤ i ≤ m. L’ensemble solution de ce dernier syst`eme varie selon le nombre d’´equations et d’inconnues dans le syst`eme . Nous distinguons trois cas qui sont : l’´egalit´e entre le nombre d’´equations et d’inconnues, le nombre d’´equations d´epasse celui d’inconnues ou vice-versa. 2.1.2 L’´egalit´e entre le nombre d’inconnues et d’´equations Dans ce premier cas m = n l’unicit´e de la solution est rassur´ee mais on ne peut rien dire de l’existence. Par la d´ecomposition de Gauss, la solution si elle existe, se d´eduit par r´emont´ee. Le syst`eme apr`es Gauss se pr´esente comme suit. (S) n k=i aikxik = bi; 1 ≤ i ≤ n. Exemple 4 : Soit le syst`eme : (M) = 4x + 2y = 54, x nombre de lions ; x + y = 19, y nombre d’aigles. Le syst`eme admet le couple (8 lions ,11 aigles ) comme solution. 2.1.3 Plus d’´equations que d’inconnues Lorsque le nombre d’´equation d´epasse le nombre d’inconnues ,les m−n ´equations s’appellent les ´equations auxiliaires. Apr`es la m´ethode de Gauss on se ram`ene `a :    p k=i aikxik = bi 1 ≤ i ≤ p bp+1 = 0 bp+2 = 0 · · · bm = 0 S’il existe j ∈ {p + 1, p + 2, · · · , m} tel que bj = 0, le syst`eme n’admet pas de solution. On suppose maintenant que ∀j ∈ {p + 1, p + 2, · · · , m} bj = 0. Dans ce cas si p = n alors le syst`eme devient le premier cas, donc si la solution existe elle est unique. Dans le dernier cas si p < n les xp+1, xp+2, · · · , xn sont des variables auxiliaires et libres ainsi le syst`eme admet une infinit´e de solutions. 2.1.4 Plus d’inconnues que d’´equations Les n − m inconnues s’appellent des inconnues auxiliaires et se comportent comme des param`etres . La solution est alors selon les valeurs prises par ces variables libres. 19
  • 22.
    Exemple 5 :Dans R3 le syst`eme x + y + 2z = 4 x − y = 2 admet comme solution le triplet (3 − λ, 1 − λ, λ; λ ∈ R). Les applications sont multiples surtout dans la t´el´ecommunication la m´et´eo...etc. Bien que dans la vie tout n’est pas lin´eaire, la r´esolution de beaucoup de syst`emes non lin´eaires peut se ramener `a celle des syst`emes lin´eaires. Nous y verrons dans la partie num´erique. 2.1.5 Diff´erence l’homme-machine sur le syst`eme Ax=b Jusqu’`a pr´esent nous avons consid´er´e l’arithm´etique exacte effectu´ee `a la main. Mais ´etant donn´e que la plupart de ces r´esolutions s’effectuent sur la machine et que la r´epr´esentation machine est differente de celle de homme, il nous sera utile d’analyser le comportement de la machine. Pour mieux visualiser la diff´erence main-machine regardons cet exemple. Exemple 6 : Soit le syst`eme : 0.0003 3.0000 1.0000 1.0000 x1 x2 = − 2.0001 1.0000 Par la main la solution est (1 3 , 2 3 )T . Par la machine la solution est (0, 0.667)t . Ces deux solutions sont bien diff´erentes. En faite l’arithm´etique flottante, effectu´ee `a la machine provoque in´evitablement des petites modifications de chaque terme dans la d´ecomposition de Gauss. Il est alors possible que ces erreurs aient d’importantes r´epercussions sur la solution, par cons´equent le r´esultat machine sera ´eloign´e de la soluton exacte. 2.1.6 Limiter les d´egats Le probl`eme vient au fait qu’on a divis´e par un pivot presque nul. La solution `a cela, consiste `a permuter les lignes pour avoir le plus grand pivot( mˆeme si le pivot n’est pas nul). Ainsi faite la nouvelle solution est (0.3334, 0.6666)t , proche de la r´ealit´e. La deuxi`eme alternative consiste `a diviser chaque ligne du syst`eme lin´eaire par le plus grand ´el´ement de la ligne correspondante de la matrice sans tenir compte des ´el´ements du vecteur b. 2.1.7 Le conditionnement d’une matrice L’exemple suivant montre que certaines matrices sont tr`es sensibles aux erreurs dˆues g´en´eralement `a la r´epr´esentation de ses coefficients sur la machine. Exemple 7 : Soit le syst`eme : 1 3 1.1 2 x1 x2 = − 10 10.4 La solution est (4, 3)t et si on remplace 1.1 par 1.05 la solution est (8, 1)t . Nous allons essayer de mesurer cette sensibilit´e. 20
  • 23.
    D´efinition 21 :L’application L :Mn(R) −→ R+ A −→ L(A) = A est dite norme matricielle si : A = 0 ⇐⇒ A = 0. λA = |λ| A . A + B ≤ A + B . AB ≤ A B . Soit A une matrice carr´e d’ordre n les applications suivantes sont des normes matricielles : A 1 = max1≤j≤n n i=1 |aij| A j = max1≤i≤n n j=1 |aij| D´efinition 22 : Le conditionnement d’une matrice ( not´e cond A) est d´efini par condA = A A−1 . Par AB ≤ A B et cond(I) = 1, le conditionnement est toujours sup´erieur `a 1. Une ma- trice M est dite mal conditionn´ee si cond M est tr`es ´eloign´e de 1. La matrice identit´e est une matrice bien conditionn´ee. La matrice de Hilbert d’ordre n est un exemple de matrice mal condition´ee : H(n) = (h(i, j))1≤i,j≤n avec (h(i, j) = 1 i+j−1 . Pour n=6, cond(H(6)) = 1, 4951.107 (calcul ´effectu´e sur Matlab). Th´eor`eme 2.1.1 : Soit le syst`eme Ax = b avec b = 0, on note ¯x la solution approch´ee, x la solution exacte r = b − A¯x, le vecteur r´esidu et e = x − ¯x . Alors : 1 condA r b ≤ e x ≤ condA r b 2.1.8 Interpr´etation du th´eor`eme Si cond(A) est proche de 1, si le r´eel r est aussi petit, l’erreur relative approximative, coinc´ee entre deux petites valeurs ne peut qu’ˆetre petite. Par contre si cond(A) est grand l’erreur relative se trouve quelque part entre 0 et un nombre relativement grand. Un mauvais algorithme aussi peut conduire `a un r´esultat erron´e. Th´eor`eme 2.1.2 : Soit le syst`eme Ax = b, E une perturbation du syst`eme initial(due par exemple aux erreurs de r´epr´esentation des coefficients de A sur la machinele syst`eme Ax = b d´evient (A + E)x = b. Alors : x − ¯x ¯x ≤ condA E A Le terme x−¯x ¯x est une approximation de l’erreur relative. 21
  • 24.
    Si cond(A) estpetite, une petite perturbation sur A entraˆınera une autre sur la solution x. Par contre si cond A est grand, une petite perturbation sur A peut resulter en une tr`es grande perturbation sur la solution du syst`eme. 2.1.9 Les M´ethodes it´eratives La r´esolution num´erique des grands syst`emes lin´eaires peut parfois n´ecessiter l’emploi de m´ethodes autres que les m´ethodes directes. Ces m´ethodes rapides sont des m´ethodes it´eratives. Cependant avec les m´ethodes it´eratives contrairement `a celle de Gauss, le succ`es n’est pas toujours au rendez vous. Nous pr´esenterons rapidement la m´ethode de Jacobi, de Gauss-Seidel et de relaxation. 2.1.10 M´ethode de Jacobi, Gauss-Seidel et de Relaxation Soit le syst`eme Ax = b, avec A = (aij)1≤i,j≤n. Quitter `a permuter les lignes on peut supposer aii = 0 ∀ i. Posons M = (mij)1≤i,j≤n avec mij = 0 si i = j et mii = aii puis N = (nij)1≤i,j≤n avec nij = −aij et nii = 0. Alors le syst`eme d´evient (M − N)x = b. Par suite x = M−1 Nx + M−1 b. Ce qui nous donne `a la (k+1)i`eme it´eration : xk+1 i = 1 aii [bi − n j=i,j=1 aijxk j ]. Dans cette expression pour le calcul de xk+1 i , on peut remplacer les composantes xk 1 , xk 2, , · · · , xk i−1 par xk+1 1 , xk+1 2 , · · · , xk+1 i−1 (d´ej`a calcul´es et constituent une plus bonne approximation ). On obtient ainsi la m´ethode de Gauss : xk+1 i = 1 aii [bi − i−1 j=1 aijxk+1 j + n j=i+1 aijxk j ]. En ins´erant un facteur w non nul (wAx = b) pour mieux contrˆoler la vitesse et la convergence on obtient la m´ethode de relaxation : xk+1 i = xk i + w aii [bi − i−1 j=1 aijxk+1 j + n j=i+1 aijxk j ] 2.1.11 Convergence 1. Si la matrice A est `a diagonale strictement dominante ( |aij| < |aii| pour j = i) la m´ethode de Jacobi et de Gauss-Seidel converge. 2. Si M est sym´etrique d´efinie positive la m´ethode de Gauss-Seidel converge. Si la matrice 2M-A est d´efinie positive, Jacobi converge. La m´ethode de relaxation converge toujours pour w ∈ [0, 2]. Lorsque w ∈ [1, 2], on parle de sur-relaxation utilis´ee pour acc´el´erer la convergence. Lorsque w ∈ [0, 1], on l’appelle sous-relaxation utilis´ee pour converger les suites divergentes. 22
  • 25.
    Exemple 8 (tir´edans le contrˆole 1 d’anlyse num´erique) Soit A =   2 1 1 1 2 1 1 1 2   et b =   4 4 4   En r´esolvant it´erativement avec x0 = (0, 0, 0). Avec la m´ethode de Jacobi le r´esultat alterne entre le vecteur ( 0,0,0) et (2,2,2), donc diverge. Avec Gauss il converge . 2.2 Les Formes lin´eaires : Soit E un K-espace vectoriel. On appelle forme lin´eaire, toute application lin´eaire de E vers K. u :E −→ K lin´eaire. 2.2.1 Les hyperplans Soit E un K-espace vectoriel, on caract´erise les hyperplans par la proposition suivante : Proposition 5 : Un sous espace vectoriel H de E est dit hyperplan si et seulement si il existe une forme lin´eaire de E vers K de noyau H. Dans R2 les formes lin´eaires sont : f :R2 −→ R (x, y) −→ f(x, y) = ax + by. Leur noyau est une droite confondue `a un hyperplan. Les espaces suivants sont des hyperplans : H = {M ∈ Mn(R); trace(M) = 0}. H = {P ∈ K[X], P(0) = 0} . Les solutions des ´equations de la forme n i=0 aixi = bi sont les hyperplans de dimension n − 1. Pour n = 3, les hyperplans sont des plans d’´equation : ax + by + cz − d = 0. Pour n = 2 , les hyperplans sont des droites d’´equation ax + by = c. 2.2.2 Formes quadratiques La notion de forme quadratique apparaˆıt avec l’´etude des coniques de Fermat. Vers 1700 Euler mena leur ´etude. D´efinition 23 On appelle forme quadratique toute application de la forme : q :E −→ R x −→ q(x) = f(x, x) o`u f est une application bilin´eaire. 23
  • 26.
    Autrement dit uneforme quadratique est la diagonale de l’application bilin´eaire associ´ee. : Soit q : E −→ R, une forme quadratique, un vecteur x ∈ E est dit isotrope pour q si q(x) = 0. On appelle le cˆone isotrope pour q not´e Cq l’ensemble : Cq = { x ∈ E; q(x) = 0}. Cet ensemble est un cˆone convexe. On dira que la forme quadratique q est d´efinie positive si pour tout x ∈ E, q(x) > 0 et q(x) = 0 =⇒ x = 0. : Elles interviennent dans la recherche des extr´emums. Exemple 9 Les applications suivantes sont des formes quadratiques : q :Mn(R) −→ R A −→ det(A) q :Mn(R) −→ R A −→ tr(t AA) 2.3 Les Fonctions num´eriques Pour d´esigner des grandeurs g´eom´etriques d´ependant d’un autre(par exemple la temp´erature d´epend du lieu), Gottfried Wilhelm Leibniz(1646-1716) utilisa le terme fonction en 1692 pour la premi`ere fois . Aussi naˆıt le concept de deriv´ee chez Newton alors que Leibniz utilsa la notation df dx pour la d´esigner. Alors qu’on pensait que toute fonction ´etait ´egale `a sa s´erie de, Taylor Cauchy apporta un contre-exemple : x −→ exp(− 1 x2 ) 2.3.1 Th´eor`eme des valeurs interm´ediaires Enonc´e par Bernhard Bolzano, ce th´eor`eme est `a la base de la m´ethode de dichotomie que nous ´evoquerons dans la partie num´erique. Th´eor`eme 2.3.1 : Soientt f : D −→ R continue a et b ∈ D tel que f(a)f(b) ≤ 0. Alors il existe c ∈ [a, b] tels que f(c) = 0. Ce th´eor`eme, moins d’hypoth`ese est tr`es utile. Il permet mˆeme de trouver les z´eros d’une fonction par dichotomie et nous justifie la pr´esence d’au moins d’une racine r´eelle dans la r´esolution des polynˆomes de degr´e impair. Soit P un polynˆome de degr´e impair on a : ( lim x→+∞ P(x)).( lim x→−∞ P(x)) < 0. Alors il existe a, b ∈ R tel que P(a)P(b) < 0. En particulier pour les polynˆomes de degr´e 3 il y a toujours une racine r´eelle. 2.3.2 Th´eor`eme de Rolle 1652-1749 Enonc´e dans le cadre des polynˆomes ,le th´eor`eme de Rolle est incontournable dans la construction de l’analyse et nous pr´ecise la relation entre les racines d’un polynˆome et celle de sa deriv´ee. Th´eor`eme 2.3.2 : Soit f : [a, b] −→ R continue sur [a, b] et d´erivable sur ]a, b[ tel que f(a) = f(b). Alors il existe c ∈]a, b[ tel que f (c) = 0. 24
  • 27.
    Preuve 4 :Si f est constante ,c’est ´evident. Sinon , il exite x ∈]a, b[ tel que f(x) = f(a) par exemple f(a) < f(x). La fonction f continue sur le compact [a, b] est donc born´ee alors il existe c ∈ [a, b] tel que f(c) = sups∈[a,b](f(s) or f(a) = f(b) < f(x) < f(c) alors c ∈]a, b[ et f(c) un extremum de f d’o`u f (c) = 0. 2.3.3 Le th´eor`eme des points fixes Le th´eor`eme des points fixes est un outil topologique tr`es utilis´e qui permet de r´esoudre beaucoup d’´equations de la forme f(x) = 0 et d’assurer souvent l’unicit´e du z´ero de cette ´equation. Pour r´esoudre une telle ´equation, il suffit de montrer l’existence d’un point fixe de l’application g(x) = f(x) − x. En effet f(x) = 0 ⇐⇒ x − f(x) = x ⇐⇒ g(x) = x avec g(x) = x − f(x). Il est issu de Banach et poss`ede plusieurs versions telles que celle de Brower. Th´eor`eme 2.3.3 : Soit E un espace m´etrique complet f : E −→ E une application telle que : ∃k ∈]0, 1[ ∀(x, y) ∈ E , d(f(x), f(y)) ≤ kd(x, y). Alors, il existe un unique a ∈ E tel que f(a) = a. D’une mani`ere g´en´erale, la version du th´eor`eme de Brower permet d’assurer l’existence d’un point fixe dans un compact convexe pour k ∈]0, 1]. Th´eor`eme 2.3.4 Soit K un espace compact convexe d’un espace vectoriel norm´e f : K −→ K une application continue tel que ∀ (x, y) ∈ K f(x) − f(y) ≤ x − y Alors f admet au moins un pint fixe. Preuve 5 Soit a ∈ K. on d´efinit une suite de fonction fn : K −→ K x −→ 1 n a + (1 − 1 n )f(x). De la relation fn(x) − fn(y) = (1 − 1 n ) f(x) − f(y) ≤ (1 − 1 n ) x − y . fn est (1 − 1 n ) contractante.Comme K est complet alors le th´eor`eme du point fixe assure l’existence de xn tel que fn(xn) = xn. La suite xn prenant ses valeurs dans un compact admet alors une sous -suite convergente xϕ(n) dont la limite appartient `a K. L’in´egalit´e : f(x) − fn(xn) = f(x) − fn(x) + fn(xn) − fn(x) ≤ 1 n ( a + f(x) ) + x − xn . montre que fϕ(n)(xϕ(n)) converge vers f(x). En passant `a la limite dans l’´egalit´e fϕ(n)(xϕ(n)) = xϕ(n) on obtient f(x) = x. Il existe d’autres th´eor`emes tel que le th´eor`eme des fonctions implicites mais qui r´esolvent le probl`eme dans d’autres contextes qui entrent dans d’autre domaines tel qu’analyse fonctionnelle. 25
  • 28.
    2.4 Les extremumset formes standards Maximiser la satisfaction et minimiser les d´epenses est un probl`eme fr´equent dans la vie quotidienne dont la r´esolution se traduit par la recherche du maximum ou du minimum d’une fonction f(x), cela passe souvent par la r´esolution de f (x) = 0 ou de f(x) = 0. Pour mieux visualiser regardons ce syst`eme.    Maximiser ou Minimiser f(x, y, z) = 0, g1(x, y, z) ≤ 0, g2(x, y, z) ≥ 0, g3(x, y, z) ≤ 0, x ≥ 0; y ≥ 0; z ≤ 0, Cette r´esolution passe par la forme stantard    f(x, y, z) = 0, g1(x, y, z) = 0, g2(x, y, z) = 0, g3(x, y, z) = 0, x ≥ 0; y ≥ 0; z ≥ 0, Qui n’est autre qu’une forme de F(X) = 0. 2.4.1 Extremum simple D´efinition 24 : Point critique. Soient U un ouvert de Rp , f une application de U vers R et a ∈ U. On dit que a est un point critique si f (a) = 0. Proposition 6 : Soit a un point critique et Q la forme quadratique d´efinie par : Q(h) = i,j hihj ∂2 f(a) ∂xixj . Alors si la forme quadratique est d´efinie positive f admet un minimum en f(a). R´eciproquement si f admet un minimum en a, la forme quadratique est positive . Mais si la forme quadratique est seulement positive, on ne peut pas conclure comme le prouve l’exemple classique f(x) = x3 . Son application est tr`es vaste dans la vie courante surtout si l’on veut d´eterminer la temp´erature maximale d’un lieu, le gain maximal d’une entreprise, le coˆut minimal d’un projet. Il intervient surtout aussi dans l’optimisation. Un cas particulier int´eressant en dimension 2 : Soient f : R2 −→ R de classe C2 et A sa matrice hessienne associ´ee. Alors A est d´efinie par : A = ( ∂2 f(a) ∂xixj )1≤i,j≤2 Par le th´eor`eme de Schawrtz A est sym´etrique r´eelle donc diagonalisable, soit λ1 et λ2 les deux valeurs propres. Notons r = ∂2 f(a) ∂x2 ; t = ∂2 f(a) ∂y2 ; s = ∂2 f(a) ∂xy ; A = r s s t 26
  • 29.
    Supposons detA >0 ; detA = rt − s2 = λ1.λ2 > 0 .(1) et trace(A) = λ1 + λ2 = r + t (2). Par (1) et (2) on a : (λ1 et λ2) et (r et t) sont de mˆeme signe. On conclut par le tableau suivant : Si rt − s2 > 0 et r < 0 : maximum au point f(a). Si rt − s2 > et r > 0 : minimum au point f(a). Si rt − s2 < 0 : pas d’extremum au point f(a). Si rt − s2 = 0 : on ne peut rien conclure au point f(a). 2.4.2 Extremum li´e Proposition 7 : Soient toujours U un ouvert de R2 et f, g1, g2 · · · gr r+1 applications de U dans R de classe C1 . Posons Γ = {x ∈ U, g1(x) = g2(x) = · · · gr(x) = 0}. Alors : Si f/Γ admet un extremum relatif en a et si les fonctions lin´eaires dg1(a), ..., dgr(a) sont lin´eairement ind´ependantes alors il existe λ1, λ2 · · · λr scalaires appel´es multiplicateurs de La- grange tel que : dfa = r 1 λkdgk(a). C’est un cas particulier des conditions de KKT. Son application est tr`es importante surtout en programmation non lin´eaire. Exemple 10 : Soit σ(x, y, z) une fonction r´epr´esentant la temp´erature de Oukaidem(r´egion de Marrakech). Il s’agit de d´eterminer le maximum de σ (la temp´erature maximale) dans le rayon de 200 m et d’altitude 100 m. Ici on a : Γ = {(x, y, z) ∈ R3 ; x2 + y2 = 200 et z = 100} Exemple 11 : D´eterminer parmi les parall´el´epip`edes en maintenant le volume constant celle qui a la plus petite surface. f(x, y, z) = 2xy + 2xz + 2yz et Γ = {(x, y, z) ∈ U tel que xyz = c, c ∈ R} Par la proposition pr´ec´edente on a : x + z xy = x + y xz = y + z yz =⇒ x = y = z Donc le cube est le parall´elipip`ede recherch´e de volume x3 et de surface 6x2 . 27
  • 30.
    Chapitre 3 R´esolution num´eriquedes ´equations et syst`emes non lin´eaires Nous venons d’´etudier les ´equations de la forme f(x) = 0 avec f un polynˆome de degr´e infe- rieur ou ´egal `a quatre ou un syst`eme lin´eaire. La r´esolution de ces deux probl`emes malgr´e leur domaine d’application trop restreint ; demande aussi souvent un temps de calcul tr`es ´enorme :un de leur d´efaut. Mais naturellement, nous sommes confront´es `a un probl`eme lorsqu’il s’agit de r´esoudre l’´equation au-del`a de ces deux cas, mˆeme dans les cas les plus simples que polynˆomiaux tel que : exp(−x) − x = 0. Il sera alors plus important de r´esoudre le probl`eme rapidement mˆeme s’il s’agit de fa¸con ap- proximative. D’o`u la n´ecessit´e et l’utilit´e d’une m´ethode donnant des solutions approximatives mais de fa¸con rapide :Les m´ethodes num´eriques. Il reste toutefois `a signaler que l’efficacit´e d’une m´ethode d´epend de ses propri´et´es topologiques(convergence, pr´ecision...)que de sa faci- lit´e d’utilisation et son comportement sur la machine. D´efinition 25 1. Une suite xn convergente vers α est dite d’ordre p si : ∃C > 0 tel que xk+1−α xk−α p < C `a partir d’un certain rang. Si p = 1, la convergence est lin´eaire et si p = 2 la convergence est dite quadratique. 2. Soit x un nombre r´eel et ¯x une valeur approch´ee de x. L’erreur absolue est donn´ee par : ∆x = |x − ¯x|. L’erreur relative est donn´ee par : Er(x) = |x−¯x| |x| = ∆x x . 3. Une valeur a v´erifiant f(a) = 0 est app´el´ee racine ou z´ero de f. Elle est dite racine simple si f (a) = 0 Elle est dite multiple d’ordre m si : f(a) = f (a) = f (a) = · · · fm (a) = 0 et fm+1 (a) = 0. 4.On appelle l’it´eration maximale qu’on notera itmax, le plus grand nombre d’it´erations qu’on se fixe, `a ne pas d´epasser, au-del`a duquel la m´ethode est dite divergente. 3.1 Les fonctions r´eelles Nous avons plusieurs m´ethodes telles que la m´ethode de dichotomie ( du Grec dikhoto- mia : action de partager en deux), la m´ethode de Newton et sa d´eriv´ee(m´ethode de s´ecante), la m´ethode du point fixe. Nous d´evelopperons la premi`ere, vue sa simplicit´e et son concept ´el´ementaire et la deuxi`eme m´ethode, vue son efficacit´e, et son utilisation dans la r´esolution des syst`emes non lin´eaires. Nous supposerons la fonction continˆument differentiable autant qu’il faut. 28
  • 31.
    3.1.1 M´ethode dedichotomie ou de bissection La m´ethode de bissection r´epose sur une id´ee toute simple :le th´eor`eme des valeurs in- term´ediaires. 3.1.2 Principe Soient f une fonction r´eelle continue et [x1, x2] un intervalle dans R tel que f(x1)f(x2) < 0. Par le th´eor`eme des valeurs interm´ediaires, on sait qu’il existe a ∈ [x1, x2] tel que f(a) = 0. Dans le but de s’approcher `a a, posons xm = x1+x2 2 alors n´ecessairement on a : f(x1)(f(xm) < 0 ou f(xm)f(x2) < 0. Ainsi, il suffit de prendre l’un des deux intervalles [x1, xm] ou [xm, x2] dans lequel il y’a un changement de signes, et ainsi de suite. Par le mˆeme processus nous nous approchons `a la solution recherch´ee en contrˆolant l’erreur. Ceci nous am`ene `a l’algorithme suivant. Algorithme 1 : il se pr´esente ainsi : 1.Etant donn´e x1, x2 deux r´eels tels que f(x1)f(x2) < 0 ; un crit`ere d’arrˆet ε, un nombre maximal d’it´erations itmax. 2. Poser xm = x1+x2 2 . 3.Si |x1−x2| |2xm| < ε. – Convergence atteinte. – Ecrire la racine xm et f(xm). – Arrˆet. 4. Si f(x1)f(xm) < 0; x2 = xm. 5. Si f(x2)f(xm) < 0; x1 = xm. 6. Si le nombre maximal d’it´erations itmax est atteint. – Convergence non atteinte en itmax it´erations. – Arrˆet. 7. Retour `a l’´etape 3. La m´ethode de dichotomie converge toujours mais lentement. Pour cette raison, on l’utilise pour initier les m´ethodes rapides. La m´ethode de dichotomie `a l’avantage de connaˆıtre au pr´ealable le nombre d’it´erations n´ecessaires `a la convergence. En effet soit L = |x1 −x2|, apr`es n it´erations la longueur de l’intervalle vaut : L 2n . Ainsi on obtient une id´ee sur n : L 2n < ∆x =⇒ n > ln( L ∆x ) ln2 . Les d´efauts de la m´ethode de dichotomie : La premi`ere situation critique est celle o`u f est tangente `a l’axe de x. La deuxi`eme situation est celle o`u il y a un nombre pair de racines dans l’intervalle initial. Dans ces deux cas, il n’ y a pas changement de signe d’o`u son imperfection. 3.1.3 M´ethode de Newton La m´ethode de Newton est l’une des m´ethodes la plus utilis´ee et se trouve `a la base de plusieurs m´ethodes. 29
  • 32.
    3.1.4 Principe Supposons f’non nulle en x0. A partir d’une valeur initiale x0 de la solution, quelle quantit´e faut -il ajouter `a x0 pour annuler la fonction f(x) i.e 0 = f(x0 + δx) ? Cette quantit´e δx s’appelle la correction. Par le d´eveloppement de Taylor autour de x = x0 on a : 0 = f(x0 + δx) = f(x0 + f (x0)δx + f (x0) 2! (δx)2 + f (x0) 3! (δx)3 + ... En n´egligeant les termes d’ordre sup´erieur ou ´egal `a 2 en δx on obtient : 0 f(x0) + f (x0)δx On peut alors isoler la correction cherch´ee δx = − f(x0) f (x0) . Puisqu’on a n´eglig´e les termes d’ordre sup´erieur ou ´egal `a 2 dans le d´eveloppement de Taylor, la correction δx n’est pas exacte. Par le mˆeme processus, on pose x1 = x0 + δx en cherchant `a le corriger x1 d’une autre correction δx de la mˆeme mani`ere que pr´ec´edemment. 3.1.5 Interpr´etation g´eom´etrique La figure ci- dessous permet de donner une interpr´etation g´eom´etrique assez simple de la m´ethode de Newton. Sur cette figure, on a r´epr´esent´e la fonction f(x) , la valeur initiale x0 et le point de la courbe (x0, f(x0)). La droite tangente `a la courbe au point x0 est de pente f (x0) et a pour ´equation : y = f(x0) + f (x0)(x − x0) qui correspond au d´eveloppement de Taylor d’ordre 1 autour de x0. Cette droite coupe l’axe des x en y = 0. Alors x1 = x0 − f(x0) f (x0) devient la nouvelle valeur approch´ee de la solution. On refait le mˆeme raisonnement `a partir du point (x1, f(x1). Et ainsi de suite. D’o`u la figure. Par le principe et le graphe, on obtient l’algorithme suivant. Algorithme 2 : 30
  • 33.
    1. Etant donnerun crit`ere d’arrˆet, un nombre maximal d’it´erations, une valeur initiale de la solution x0. 2. Effectuer : xn+1 = xn − f(xn f (xn) . 3. Si |xn+1−xn| |xn+1| < ε. – Convergence atteinte en xn+1. – Ecrire la solution xn+1. – Arrˆet. 4. Si le nombre maximal d’it´erations itmax est atteint. – Convergence non atteinte en itmax it´erations. – Arrˆet. 5. Retour `a l’´etape 2. 3.1.6 Analyse de la convergence Dans l’algorithme pr´ec´edent, on a consid´er´e un x0 quelconque, mais il faut toute fois signaler qu’un bon choix de la valeur initiale x0 est n´ecessaire `a la convergence. Par cons´equent il nous sera tr`es utile d’´enoncer ce th´eor`eme afin de nous donner une id´ee sur la valeur initiale de la solution. Th´eor`eme 3.1.1 : Si f est de classe C1 , et poss`ede une racine a simple et s´epar´ee dans l’in- tervalle [a, b], alors il existe un intervalle I ⊂ [a, b] et contenant x tel que : ∀ x0 ∈ I la m´ethode de Newton converge. Si de plus f est de classe C2 la m´ethode est d’ordre 2 on a : lim n→∞ xn+1 − a (xn − a)2 = − f (a) f (a) Nous sommes rassur´es de la convergence de la m´ethode de Newton avec ce choix de x0. Mais cette convergence est-elle rapide ? Th´eor`eme 3.1.2 : Supposons que f est de classe C1 sur un intervalle I = [x − r, x + r] tel que f (x) = 0 , ∀ x ∈ I. Soit M = max |f(x)| |f (x)| et h = min(r, 2 M ). Alors x0 ∈ [x − h, x + h] |xn − ¯x| ≤ 2 M ( M 2 |x0 − ¯x|)2n . Ceci prouve que la m´ethode est quadratique. Dans l’algorithme pr´ec´edent, on a suppos´e les racines simples, on est convaincu qu’il n’est pas ´evident d’avoir toujours que des racines simples. On peut toujours se ramener, au cas o`u les racines sont simples. En effet, il suffit de transformer le probl`eme en un probl`eme ´equivalent ayant les mˆemes racines mais de multiplicit´e 1. Dans ce but, on consid`ere u(x) = f(x) f (x) = (x − a)m h(x) mh(x) + (x − a)mh (x) . Puisque h(a) = 0, alors u(a) = 0, par d´erivation on a u (a) = 1 m = 0. On peut maintenant appliquer l’algorithme de la m´ethode de Newton sans se soucier si la d´eriv´ee s’annule ou pas. Le calcul de la d´eriv´ee pose souvent probl`eme, on peut l’´eviter par l’approximation : f (xn) = f(xn) − f(xn−1) xn − xn−1 . On obtient par cette approximation la m´ethode de S´ecante. 31
  • 34.
    Exemple 12 :Lafonction f(x) = exp(−x) − x = 0. xn+1 = xn − exp(−xn) − xn − exp(−xn) − 1 Voici le tableau `a la cinqui`eme it´eration : n xn en en en−1 0 0.0000000 0.567110+0 1 0.5000000 0.671410−1 0.118310+0 2 0.5663110 0.832310−3 0.123910−1 3 0.5671437 0.125010−6 0.150110−3 4 0.5671433 0.409710−9 On remarque ici la rapidit´e de la convergence et sa quadrature. 3.2 R´esolution des syst`emes non lin´eaires Les syst`emes lin´eaires ne constituent pas plus que 30% des syst`emes qu’on rencontre dans dans la pratique. En pratique, les ph´enom`enes non lin´eaires sont extrˆemement fr´equents. Dans cette section nous examinerons comment transformer un syst`eme non lin´eaire en un syst`eme lin´eaire auquel cas on peut appliquer la m´ethode de Gauss. Au fait le probl`eme consiste `a trouver le ou les vecteur ¯x = [x1, x2, · · · , xn]T v´erifiant les n ´equations non lin´eaires suivantes :    f1(x1, x2, · · · , xn) = 0 f2(x1, x2, · · · , xn) = 0 · · · · · · fn(x1, x2, · · · , xn) = 0 Contrairement aux syst`emes lin´eaires, il n’existe pas de condition qui peut assurer l’unicit´e de la solution. Les m´ethodes de r´esolution des syst`emes non lin´eaires sont nombreuses mais nous nous limiterons `a exposer la plus utilis´ee soit la m´ethode de Newton. Nous commencerons par un syst`eme de deux ´equations et la g´en´eralisation au cas n d´ecoulera facilement. Consid´erons le syst`eme : f1(x1, x2) = 0 f2(x1, x2) = 0 Soit (x0 1, x0 2) une approximation initiale de la solution, le but est de d´eterminer la correction (δx1, δx2) de telle sorte que : 0 = f1(x0 1 + δx1, x0 2 + δx2) 0 = f2(x0 1 + δx1, x0 2 + δx2) En n´egligeant les termes d’ordre sup´erieur ou ´egal `a 2 en (δx1, δx2) dans le d´eveloppement de Taylor en deux variables au point (x0 1, x0 2) on obtient le syst`eme suivant : ∂f1(x0 1,x0 2) ∂x1 δx1 + ∂f1(x0 1,x0 2) ∂x2 δx2 = −f1(x1, x2), ∂f2(x0 1,x0 2) ∂x1 δx1 + ∂f2(x0 1,x0 2) ∂x2 δx2 = −f2(x1, x2), 32
  • 35.
    En notant J(x0 1,x0 2) la matrice jacobienne de f au point (x0 1, x0 2), δx = (δx1, δx2) le vecteur correction cherch´e et R(x0 1, x0 2) = (f1(x1, x2), f1(x1, x2))T on obtient : J(x0 1, x0 2)δx = −R(x0 1, x0 2). On peut r´esoudre par exemple ce syst`eme lin´eaire en appliquant la m´ethode de Gauss. On refait la mˆeme op´eration avec : x1 1 =, x0 1 + δx1, x1 2 = x0 2 + δx2 x1 1 =, x0 1 + δx1 ; x1 2 = x0 2 + δx2 . En g´en´eralisant au cas n on, obtient l’algorithme suivant. Algorithme 3 : 1. Etant donn´e ε, itmax, le vecteur initial, x0 = ([x0 1, x0 2, · · · , x0 n]T . 2. R´esoudre J(xi )δxi = −R(xi ). 3. Si R(xi ) ≤ ε et δxi δxi+1 ≤ ε. – Convergence atteinte. – Ecrire la solution xi+1 . – Arrˆet. 4. Si le nombre maximal d’it´erations itmax est atteint. – Convergence non atteinte en itmax it´erations. – Arrˆet. 5. Retour `a 2. Exemple 13 f1(x, y) = exp(x) − y = 0. f2(x, y) = x2 + y2 − 16 = 0. J(x,y)= exp(x) −1 2x 2y Graphiquement : 33
  • 36.
    Le graphe nousindique qu’une solution est au voisinage du vecteur (2.8, 2.8). donc on prend x0 0 = (2.8; 2.8) A l’it´eration 1 on a : exp(2.8) −1 2(2.8) 2(2.8) δx1 δx2 = − exp(2.8) − 2.8 2(2.8)2 + 2(2.8)2 Ainsi, on obtient le tableau suivant `a l’it´eration 5 : n δx R x 1 (0.77890 ; 0.83604) (13.645 ; -0.3200 ) (2.024 ; 3.63604) 2 ( -0.5048 ;0.10106 ) (3.9106 ; 1.3056 ) (1.5163 ; 3.7371) 3 ( 0.17208 ;0.34355 ) (0.81824 ; 0.2650 ) (1.3442 ; 3.7715) 4 (0.0161616 ;0.0163847 ) (0.063617 ; 0.031086 ) (1.3280 ; 3.7731) 5 (9,03 e-5 ; 9.25e-6) (0.348866e-3 ; 0.16946e-3) (1.3281 ; 3.7731) La convergence de la m´ethode de Newton d´epend crucialement de l’approximation initiale du vecteur x0 de la solution. Un mauvais choix r´esultera `a un algorithme divergent. La convergence est quadratique et cet caract`ere se perd si la matrice n’est pas inversible. Il existe plusieurs variantes de la M´ethode de Newton qui peuvent ´eviter le calcul de la d´eriv´ee./. 34
  • 37.
    Conclusion Sachant que lar´esolution des probl`emes math´ematiques aboutit en g´eneral `a la naissance d’autres nouveaux concepts et notions math´ematiques. La communaut´e math´ematique doit ac- tiver ses recherches pour les r´esolutions analytiques non seulement pour r´esoudre des ´equations d’ordre quelconque mais aussi pour la contribution de cette recherche en math´ematique notam- ment la naissance d’autres concepts comme fut n´ee la notion du groupe avec Evariste Galois (`a la recherche des m´ethodes du cinqui`eme degr´e ) et la naissance des ideaux et anneaux par Emmy no´ether Hilbert...etc (dans la recherche des solutions de l’´equation du Fermat). Les m´ethodes num´eriques avec l’´evolution exponentielle de la technologie peuvent combler la demande de l’homme pr´ess´e pour la r´esolution des probl`emes math´ematiques auquels il est confront´e. 35
  • 38.
  • 39.
    Bibliographie [1] Vodney Donev, Dictionnaire de Math´ematique, Mouscou [2] FORTIN Andr´e, Analyse num´erique pour l’ing´enieur,Edit :Ecole polytechnique de Montr´eal-1995 . [3] GOURDON Xavier Tome d’Anlyse et d’alg`ebre Ellipse,1994 . [4] LEMBARKI Alami, Analyse num´erique 1-2 D´epartement de Math´ematique -FSSM ,Mar- rakech 2005 [5] Alg`ebre 2 -SMA D´epartement de Math´ematique -FSSM,Marrakech ;2005 [6] Peruzo Bordas Encyclopedie -Math´ematique- ,Bordas ;1970. Department of Mathematics, University Cadi Ayyad, Faculty of Sciences Semlalia P.O. Box : 2390, Marrakesh, Morocco. http ://www.ucam.ac.ma. SIDIBE Ali Broma ; jahbromo@yahoo.fr ; http ://www.jahbromo.tk 37