4. REMERCIEMENTS
Cette modeste oeuvre n’a pas pu ˆetre r´ealis´ee sans la participation directe ou indirecte de nom-
breuses bonnes volont´es.
A mes parents qui m’ont inculqu´e les valeurs morales et fondamentales de la vie.
Mes vifs et sinc`eres remerciements s’addressent `a :
A Mr MANSOURI Abdelatif pour l’interˆet qu’il a accord´e `a ce th`eme, son amour du
travail bien fait, sa disponibilt´e et l’excellente qualit´e de son encadrement. Qu’il trouve en ceci
la preuve de ma plus profonde gratitude envers lui et sa famille.
A Monsieur MAKKI Naciri et Monsieur Idriss BOUZIANE pour leur appui consid´erable
`a mon parcour acad´emique.Qu’ils trouvent en ceci la preuve de ma plus haute consid´eration.
A Monsieur El-Hadj Ait DADS pour ses pr´ecieux conseils constructifs `a la fin de de chaque
cours.
A l’ensemble du corps professoral du D´epartement de Math´ematiques pour l’excellente qualit´e
de leur enseignement.Qu’ils trouvent `a travers ceci le signe de ma plus profonde reconnaissance.
Enfin je remercie tous mes amis qui de loin ou de pr`es ont contribu´e `a la r´ealisation de ce
projet notamment mon ami SIDI ZAKARI Ibrahim pour son appui technique et mon voi-
sin HOUSSOU D Landry P. pour ses pr´ecieux conseils `a la communaut´e malienne et mes
camarades de classe.
D´edi´e `a Mr MODIBO KEITA, Premier Pr´esident de la R´epublique du Mali, et `a
Tch´edioukou Broma SIDIBE
2
7. AVANT-PROPOS
L’histoire de la r´esolution de F(X) = 0 o`u F,X de natures quelconques se confond avec
celle des Math´ematiques. Dans le but de r´epondre `a ses probl`emes ou se sentir `a l’aise l’homme
s’attaqua `a de nombreux probl`emes dont la r´esolution par une interpr´etation math´ematique se
ram`ene `a r´esoudre F(X) = 0.
Les Sages les plus r´eput´es dans l’histoire de chaque peuple ´etaient ceux qui trouvaient les solu-
tions des devinettes dont leur r´esolution se r´esume `a une ´equation math´ematique.
L’histoire de chaque peuple est confront´ee `a un probl`eme mathematique de genre du th`eme.
Par exemple il ´etait grav´e sur une tablette de Babylon l’expression : ”A 11 fois la surface de mon
carr´e, j ’ajoute 7 fois le cˆot´e pour obtenir 25
4
” qui se traduit aujourd’hui par : 11x2
+ 7x = 25
4
.
Aussi l’histoire math´ematique italienne a ´et´e confront´ee `a ce probl`eme : ”Quel est l’arˆete in-
connu d’un cube dont le volume ajout´e `a cinq fois l’arˆete donne 378. Ainsi pour r´epondre `a ce
probl`eme un nombre remarquable de savants italiens dont Nicolo Fontana, Jerome Cardano,
ludicio Ferrari, Paolo Rufini travaill`erent dans ce domaine.
De mˆeme qu’au sud du Mali une devinette `a parcouru des si`ecles : ”Trouver le nombre de
lions et d’aˆıgles qu’un chasseur pourrait tuer sachant qu’il a ramen´e cinquante quatre pattes et
dix-neuf tˆetes”.
A ceux-ci on peut ajouter d’autres probl`emes dans la vie courante tel que trouver un triangle
de mˆeme aire qu’un carr´e, maximiser les b´en´efices d’une entreprise ou minimiser les coˆuts d’un
projet.
La r´esolution de tous ces probl`emes se ram`ene ou passe par la r´esolution de F(X) = 0.
Les cours traditionnels de Math´ematiques nous enseignent des th´eories et des m´ethodes qui per-
mettent de r´esoudre de fa¸con analytique un certain nombre de probl`emes de la forme F(X) = 0.
Face au probl`eme de temps et d’efficacit´e, on est app´el´e `a faire recours `a d’autres m´ethodes qui
peuvent tout r´esoudre rapidement :Les m´ethodes num´eriques. Les m´ethodes num´eriques contrai-
rement aux m´ethodes analytiques, sans restriction, ne r´esolvent pas exactement les probl`emes
mais fournissent rapidement leurs solutions approximatives.
5
8. Chapitre 1
R´esolution des ´equations polynˆomiales
et diophantiennes
Introduction : La r´esolution de l’´equation F(X) = 0 demande d’abord la connaissance
de la nature de F, de X et de l’ensemble dans lequel on travaille. Suivant la nature de F et
de X, l’´equation admet ou non une solution. Pour la d´etermination des ´eventuelles solutions
existantes, des m´ethodes de r´esolution appropri´ees s’appliquent. Nous distinguerons les cas o`u
F est un polynˆome, un syst`eme lin´eaire, une fonction `a une ou plusieurs variables, un op´erateur
( le Laplacien, le gradient)...etc. Il existe d’autres natures de F mais nous nous restreignons `a
ces trois premiers cas cit´es. La nature de X est ´etroitement li´ee `a celle de F et se pr´esente sous
la forme d’un inconnu complexe dans le cas polynˆomial, d’un vecteur dans le cas des syst`emes
lin´eaires, d’un entier dans celui des ´equations diophantiennes comme dans le grand th´eor`eme
de Fermat.
Avant de rentrer dans le vif du sujet, nous rappelerons quelques notions de structures alg´ebriques
qui seront cit´ees dans ce chapitre.
D´efinition 1 1. Soit E un ensemble non vide. On appelle loi de composition interne(qu’on
abr`ege par Lci), notons ⊗, toute application de E X E dans E.
L :EXE −→ E
(x, y) −→ x ⊗ y
2.On appelle groupe, un ensemble G muni d’une loi de composition interne ∗ telle que :
– ∗ est associative : ∀x, y, z ∈ G x ∗ (y ∗ z) = (x ∗ y) ∗ z
– ∗ admet un ´el´ement neutre e (e ∗ x = x ∗ e = x)
– Tout ´el´ement admet un sym´etrique : ∀x ∈ G, ∃y ∈ G tel que x ∗ y = y ∗x = e
Un groupe (G, ∗) est dit commutatif ou ab´elien (du nom d’Abel ) si :∀ x, y ∈ G, x ∗ y = y ∗ x.
D´efinition 2 : On appelle anneau ,un ensemble A muni de deux lois de composition interne
∗, ⊕ not´e (A, ∗, ⊕) tel que :
– (A, ∗) est un groupe ab´elien.
– ⊕ est associative.
– ⊕ est distributive par rapport `a ∗.
Un anneau est commutatif si ⊕ l’est et unitaire si ⊕ poss`ede un ´el´ement neutre.
D´efinition 3 : Enfin on appelle corps tout ensemble (A, ∗, ⊕) tel que :
6
9. i (A, ∗, ⊕) est un anneau.
ii (A − {0}, ∗) est un groupe.
Il revient `a dire qu’un corps est un anneau dans lequel tout ´el´ement non nul est inversible dans
A
Un corps est dit commutatif si la loi ⊕ est commutative. Dans N, l’addition + est une Lci mais
la soustraction n’est pas une Lci car la soustration de deux entiers n’est pas n´ecessairement
dans N.
1 L’ensemble (Z, +) est un groupe et (Z, +, .) est un anneau.
2 Les ensembles (Q, +, .) (R, +, .) (C, +, .) sont des corps commutatifs de caracteristique 0.
3 L’ensemble M = {M ∈ Mn(R) ; det M = 0} muni de + et . est un corps non commutatif.
4 L’ensemble Z/pZ (p premier) est un corps fini de caract´eristique p.
1.1 R´esolution alg´ebrique des ´equations polynˆomiales
1.1.1 Les polynˆomes
La r´esolution des ´equations polynˆomiales a beaucoup contribu´e `a l’´evolution de l’alg`ebre.
D´efinition 4 Soit K un corps ou anneau. Un polynˆome de degr´e n dans K[X] (n un entier)
est une somme alg´ebrique de monˆomes et se pr´esente sous la forme :
P(X) = anXn
+ an−1Xn−1
+ · · · · · · + a1X + a0 avec an = 0, a0, a1, · · · , an ∈ K.
1.1.2 Qu’est-ce que r´esoudre un polynˆome ?
D´efinition 5 : Soit P un polyˆome dans K[X]. r´esoudre l’´equation P(x) = 0, dans le corps ou
anneau K c’est exprimer ses ´eventuelles racines en fonction de ses coefficients an , an−1, · · · a1 , a0
dans K.
Propri´et´e : Soit
P(x) = anxn
+ an−1xn−1
+ · · · · · · + a1x + a0 = 0.
En posant z = x − an−1
nan
on se ram`ene `a :
P(z) = anzn
+ an−2zn−2
+ · · · · · · + a1z + a0 = 0.
Cette translation nous sera tr`es utile dans la suite.
1.1.3 L’existence, nombre et nature des racines
Les deux th´eor`emes suivants permettent de nous assurer au pr´ealable l’existence et le nombre
des racines d’une ´equation polynˆomiale.
Th´eor`eme 1.1.1 Le corps des complexes C est alg´ebriquement clos.
C’est-`a-dire tout polynˆome `a coefficients dans le corps des complexes C peut ˆetre d´ecompos´e
en produits de facteurs du 1er degr´e.
Th´eor`eme 1.1.2 Tout polynˆome de degr´e n dans le corps des complexes C admet exactement
n racines complexes distinctes ou non.
7
10. Ce th´eor`eme a ´et´e ´enonc´e par Albert Girard, la d´emonstration a ´et´e commenc´ee par Jean le
Rond D’Alembert et ach´ev´ee par Gauss.
Pour les ´equations `a coefficients r´eels, R´en´e Descarte proposa une id´ee sur les signes des
´eventuelles racines.
Le nombre de racines positives de P(x) = 0 est ´egal, au plus, au nombre de variations de
signes de P(x) ou la diff´erence de ces deux nombres est impaire. L’´equation x3
− 2x2
− 2 = 0 a
deux variations de signe donc poss`ede au plus deux racines positives. On pourrait croire que les
deux pr´ec´edents th´eor`emes ach`event l’´etude des polynˆomes mais un probl`eme persiste :quelle
m´ethode faut-il employer pour trouver les n racines d’un polynˆome de degr´e n avec n quel-
conque dans N ?La r´esolution des ´equations du 1er et 2`eme degr´e laisse pr´esager l’exitence
d’une m´ethode g´en´erale. Cependant on saura dans ce qui va suivre que seules les ´equations
de degr´e 1, 2, 3 et 4 admettent une m´ethode de r´esolution g´en´erale : R´esolution par radicaux.
Aujourd’hui au-del`a de quatre, il n’existe pas ”encore” une m´ethode capable de r´esoudre toutes
les ´equations de degr´e n avec n ≥ 5.
Ainsi, rassur´es de l’existence des racines de tout polynˆome de tout degr´e, nous allons main-
tenant envisager l’obtention d’une m´ethode g´en´erale, nous permettant de trouver ces racines.
L’unique m´ethode naturelle que nous connaissons aujourd’hui est la r´esolution par radicaux
que nous exposerons ci-dessous.
1.1.4 R´esolution par radicaux
Dans tout ce qui suit K sera consid´er´e comme un corps commutatif de caract´eristique 0.
D´efinition 6 : Un ´el´ement a de K est dit alg´ebrique s’il existe un polynˆome P ∈ K[X] tel que
P(a) = 0 (a est alors dit racine de P). Dans le cas contraire, on dit qu’il est transcendant.
Le r´eel
√
2 est alg´ebrique car il annule le polynˆome X2
− 2. Il a aussi ´et´e d´emontr´e que π
et e sont transcendants dans Q. C’est-`a-dire il n’existe pas de polynˆome `a coefficients dans Q
qui s’annule en π ou e.
D´efinition 7 : On appelle corps de d´ecomposition de P le corps des racines de P c’est-`a- dire :
E = { x ∈ K tel que P(x) = 0}.
Le corps E = Q(−
√
2 ,
√
2) est le corps de d´ecomposition du polynˆome P(X) = X2
− 2.
D´efinition 8 : Une extension est dite alg´ebrique si tous ses ´el´ements le sont.
Le corps suivant est une extension alg´ebrique de Q :
Q(
√
2) = {a + b
√
2; a, b ∈ Q}.
D´efinition 9 : On appelle polynˆome minimal de a dans K, l’unique polynˆome unitaire irr´eductible
de K[X] d´efini par :
M(a) = 0; ∀P ∈ K[X], P(a) = 0 =⇒ M|P
Le polynˆome P(X) = X2
− 2 dans Q est irr´eductible (par le crit`ere d’Eseinstein), unitaire
et verifie P(
√
2) = 0 donc c’est le polynˆome minimal de
√
2
D´efinition 10 : Un polynˆome est dit s´eparable dans un corps K si toutes ses racines dans une
clˆoture alg´ebrique de K sont toutes simples.
8
11. Le polynˆome P(X) = X2
− 2 est s´eparable dans Q car ses racines dans C sont simples.
D´efinition 11 : Un ´el´ement a est dit s´eparable si son polynˆome minimal est s´eparable.
L’irrationnel
√
2 est s´eparable.
D´efinition 12 : Une extension est s´eparable si tous ses ´el´ements le sont.
Le corps E = Q(
√
2, −
√
2) le corps des racines de P,est s´eparable.
D´efinition 13 : Une extension E est normale sur K si :
– E est alg´ebrique.
– Tout polynˆome irr´eductible de K[X] admettant une racine dans E se d´ecompose en un
produit de facteurs du 1er degr´e.
D´efinition 14 : Enfin une extension galoisienne est une extension normale et s´eparable.
Le corps des racines d’un polynˆome est une extension galoisienne.
1.1.5 Groupe de Galois
La th´eorie du groupe r´el`eve d’un domaine math´ematique dans lequel on formalise le concept
de sym´etrie.
D´efinition 15 : Soit E une extension galoisienne sur K. On appelle groupe de Galois de E sur
K qu’on note Gal(E/K) le groupe des automorphismes de E laissant invariants les ´el´ements
de K.
Autrement dit :
Gal(E/K) = {σ : E −→ E, automorphisme; ∀ x ∈ K, σ(x) = x}.
D´efinition 16 : Un groupe de Galois est r´esoluble lorsqu’il existe une suite finie σ0, σ1, · · · , σn
sous groupes de G tels que : σ0 ⊂ σ1 ⊂ σ2 ⊂ · · · ⊂ σn = G o`u ∀ i = 0, 1, 2, · · · , n − 1 , σi
est un sous groupe distingu´e dans σi+1 et σi+1/σi est ab´elien.
Tout groupe ab´elien en particulier les groupes de permutation S1 S2, S3 et S4 sont r´esolubles.
D´efinition 17 : Soient P ∈ K[X], un polynˆome et E son corps de racines.On appelle groupe
de Galois de P le groupe de Galois de E sur K.
Nous allons avec la proposition suivante caract´eriser les groupes de Galois avec les groupes de
permutation dont nous savons beaucoup de leurs propri´et´es
Proposition 1 : Soit E = K(x1, x2, · · · xn). Alors le groupe de Galois de E sur K est isomorphe
`a Sn.
Preuve 1 Soit ϕ l’application de Gal(E/K) sur Sn d´efinie par : ϕ(σ) = π avec σ(xi) =
xπ(i) et 1 ≤ i ≤ n.
Par construction ϕ est un homomorphisme de groupe surjectif,
kerϕ = {σ ∈ gal(E/K), ϕ(σ) = IdE = π} = {σ ∈ gal(E/K); ∀i σ(xi) = xi} = {id} =⇒ ϕ est injectif.
D’o`u le r´esultat.
9
12. D´efinition 18 -Soit E et F deux corps commutatifs. On appelle radical de F dans E un ´el´ement
a de E tel qu’il existe une puissance de a dans E.
-On dit qu’un ´el´ement a de E s’exprime par radicaux de K si et seulement si il existe une suite
Si tel que :
- S0 est une suite de K.
- Si i ∈ {1, 2, · · · p − 1} alors il exite une suite de combinaisons lin´eaires `a coefficients dans K
de radicaux de la suite Si−1.
-Dans K, a est une combinaison lin´eaire `a coefficients ´el´ements de la suite Sp−1.
-On dit qu’un polynˆome est r´esoluble par radicaux si et seulement si toutes ses racines s’ex-
priment par radicaux de K.
Il s’agit maintenant de determiner le lien entre les polynomes et leur groupe galoisienne.Autrement
dit avec le corps de ses racines.
Th´eor`eme 1.1.3 (Abel-Ruffini) : Un polynˆome est r´esoluble par radicaux si et seulement si
son groupe de galois l’est.
Proposition 2 Les polynˆomes de degr´e n avec n ≤ 4 sont r´esolubles par radicaux.
Preuve 2 Pour n = 1, 2 c’est ´evident .
Faisons pour n = 3, soit Q un polynˆome irr´eductible :
Q(x) = a3X3
+ a2X2
+ a1X + a0.
Quitte `a faire la translation ´enonc´ee dans la propri´et´e pr´ec´edente, on peut se ramener `a la
forme :
P(x) = X3
+ pX − q.
Notons x1 , x2 et x3 les trois racines de P et E son corps des racines.
Le polynˆome P est irr´eductible unitaire et v´erifie P(x1) = 0 alors P est le polynˆome minimal de
x1. Comme E contient x1 alors 3=degr´e(P) divise [E : K]. D’apr`es la proposition pr´ec´edente ,
E est isomorphe `a un sous groupe de S3 donc [E : K] ∈ {3, 6}.
Si [E : K] = 3 =⇒ E isomorphe `a A3 donc r´esoluble (car A3 est ab´elien ).
Sinon [E : K] = 6 alors isomorphe `a S3. Comme S3 contient A3 ab´elien et S3/A3 ab´elien ( ne
contient que deux ´el´ements), donc S3 est r´esoluble et par isomorphisme E est r´esoluble. D’o`u
par le th´eor`eme d’Abel Ruffini les polynˆomes de degr´e 3 sont r´esolubles par radicaux.
De mˆeme pour les polynˆomes de degr´e quatre.
1.1.6 Relation entre les coefficients d’un polynˆome et ses racines
Soient Sn le groupe des permutations de 1 `a n et K un corps commutatif.
D´efinition 19 : Un polynˆome P ∈ K[X1, X2, · · · Xn] est dit sym´etrique si
∀σ ∈ Sn P(Xσ(1), Xσ(2) · · · Xσ(n)) = P(X1, X2, · · · Xn).
On appelle polynˆome sym´etrique ´el´ementaire les polynˆomes not´es σi et d´efinis par :
σ1(X1, X2, · · · Xn) = X1 + X2 + · · · + Xn ; σp(X1, X2, · · · Xn) = i1<i2···ip
Xi1 · · · Xip
σn(X1, X2, · · · Xn) = X1X2 · · · Xn.
10
13. Proposition 3 : Soit P un polynˆome de la forme : P = Xn
+ a1Xn−1
+ · · · + aiXi
+ · · · +
an−1X + an ∈ K[X] scind´e sur K et (u1, u1, · · · un) ses racines .
Alors on a :
(−1)i
ai = σi(u1, u1, · · · un)
Nous sommes maintenant munis d’une m´ethode de r´esolution des ´equations polynomiales :
r´esolution par radicaux qui est capable de r´esoudre toutes ´equations en polynˆomes de degr´e n
avec n ≤ 4.
1.1.7 Les ´equations du 1er degr´e et du 2`eme degr´e
L’un des plus anciens patrimoines de l’histoire math´ematique, la m´ethode de r´esolution des
´equations du s´econd degr´e a ´et´e d´ecouverte par les summ´eriens et babyloniens il y’a plus 5000
ans, par Diophante, par les Hindous et finalement par les Arabes au XI`eme si`ecle. Dans son
livre ”Abr´eg´e du calcul par restauration et comparaison” (al jabr-wal muquabla), Al-khararizm
d´ecrit les six ´equations canoniques du s´econd degr´e ainsi que les m´ethodes pour s’y ramener.
D’o`u la naissance de l’algorithme et de l’alg`ebre .
(E2) aX2
+ bX + c = 0; a = 0.
Discriminant Nature des racines Forme des racines
b2
− 4ac > 0 x1 et x2 r´eelles x1 = −b+
√
b2−4ac
2a
; x2 = −b−
√
b2−4ac
2a
b2
− 4ac = 0 x1 et x2 r´eelles x2 = x1 = −b
2a
b2
− 4ac < 0 z1 et z2 complexes et conjugu´es z1 = z2 = −b+i
√
b2−4ac
2a
Exemple 1 : L’exemple babylonnien. Soit : 11x2
+ 7x − 25
4
= 0 .
En appliquant directement ce qui pr´ec`ede on a : ∆ = b2
− 4ac = 324 , x1 = −7+
√
324
22
= 11
et x2 = −7−
√
324
22
(`a r´ejeter). Le cˆot´e d’un tel carr´e est 11.
1.1.8 Les ´equations du 3`eme degr´e
La m´ethode de r´esolution des ´equations du 3`eme degr´e a ´et´e premi`erement obtenue au
XVI`eme si`ecle par Scipion Del Ferro. Vingt trois ans apr`es, Nicolo Fontana dit Tartaglia la
d´ecouvrit et l’utilisa en gagnant le grand concours de Math´ematique en 1535. En 1545 dans son
livre ” Ars Magna”( le grand art) Jeromeo Cardano, apr`es l’avoir obtenue aupr`es de Tartaglia ,
la publia . En 1771 Lagrange, se basant sur les relations entre les racines d’un polynˆome et ses
coefficients, obtient une autre m´ethode qui porte son nom. D`es lors, il existe plusieurs m´ethodes
de r´esolution parmi lesquelles on peut citer la m´ethode de Descartes, de B´ezout, de Sotta...etc.
Nous choisirons la m´ethode de Lagrange grˆace `a ses concepts sur les groupes de Galois.
11
14. 1.1.9 La m´ethode de Lagrange
Soit l’´equation
(E3) a3x3
+ a2x2
+ a1x + a0 = 0.
Quitte `a faire une translation, on se ram`ene `a : x3
+ px + q = 0.
Notons x1 , x2 , x3 les trois racines de E3. Si on trouve un polynˆome P en trois variables ( X, Y , Z
) qui ne prend que deux valeurs A et B par toutes permutations effectu´ees sur (X, Y , Z) on
saura, grˆace `a ce qui pr´ec`ede, trouver un polynˆome de degr´e 2 qui s’annule aux deux valeurs
prises par P en ( X , Y , Z) ; on est ainsi ram´en´e au cas du deuxi`eme degr´e ( d´ej`a r´esolu).
Soit x1 , x2 , x3 les trois racines de x3
+ px + q = 0.
Le polynˆome P(X, Y, Z) = X + jY + j2
Z (o`u j est la racine 3`eme de l’unit´e) ne prend au point
(x1 , x2 , x3) que deux valeurs A et B par toutes les permutations effectu´ees sur les x1 , x2 , x3
qui sont :
A = (x1 + jx2 + j2
x3)3
; B = (x1 + jx3 + j2
x2)3
.
Compte tenu du fait que :
σ1 = x1 + x2 + x3 = 0; σ2 = x1x2 + x1x3 + x2x3 = p, ; et σ3 = x1x2x3 = −q.
On a alors :
A + B = −27p; AB = −27p3
.
Ainsi A et B sont les racines de l’´equation :
Z2
+ 27qZ − 27p3
= 0.
Les nombres A et B ´etant connus (maintenant), en choisissant une racine cubique u de A et v
de B de fa¸con que uv = −3p, on se ram`ene au :
x1 + x2 + x3 = 0
x1 + jx2 + j2
x3 = u
x1 + jx3 + j2
x2 = v
=⇒
x1 = 1
3
(u + v)
x2 = 1
3
(j2
u + jv)
x3 = 1
3
(ju + j2
v)
La nature des racines se conclut par le tableau suivant :
∆ = 27(4p3
+ 27q2
); w =
3
−q + i
√
∆
2
; u =
3
−q −
√
∆
2
; v =
3
−q + i
√
∆
2
.
Discriminant Nature des racines Formes des racines
∆ < 0 1 racine r´eelle ;1 racine double r´eelle x1 = 3q
p
; x2 = x3 = −3q
2p
∆ = 0 3 racines r´eelles xi = ji
w + jiw; i ∈ {0, 1, 2}
∆ > 0 1 racine r´eelle ; 2 racines complexes xi = ji
u + jiv; i ∈ {0, 1, 2}
Exemple 2 : La recherche des racines ´evidentes r´esoud g´en´eralement beaucoup d’´equations du
3`eme degr´e de la mani`ere qu’on pourrait voir facilement les racines de :
x3
+ 2x2
− x − 2 = 0; (x1 = −1; x2 = 1; x3 = 2).
12
15. Ces techniques s’arrˆetent l`a o`u les racines ne sont plus ´evidentes.
Exemple 3 : Naissance des nombres complexes Soit (E)
x3
− 15x2
− 4 = 0.
Par la recherche des racines ´evidentes on trouve x1 = 4 et pourtant par la m´ethode de Cardan
on a :
x1 = 3
2 +
√
−121 + 3
2 −
√
−121.
Parmi les racines, x = 4 n’ y figure pas et pourtant la m´ethode est vraie.Mais c’est le terme√
−121 qui pose probl`eme.Bombelli franchit la barre des r´eels ,en proposant :
u3
= 2+
√
−121 = 2+11
√
−1 et v3
= 2−11
√
−1 et s’apercoit que (2+
√
−1)3
= 2+2
√
−121 =
2 + 11
√
−1 = 2 + 11i alors x = u + v = 4. Par cons´equent le nombre i tel que i2
= −1 est n´e
( nombre sophistiqu´e) que Gauss baptisa le nombre complexe ou imaginaire.
1.2 Les ´equations du 4`eme degr´e
1.2.1 Les ´equations bicarr´ees
Ce sont les ´equations de degr´e quatre, paires ( les monˆomes de degr´e impairs n’y figurent
pas) pouvant se mettre sous la forme :
ax4
+ bx2
+ d = 0.
Par la parit´e si x est racine alors −x est aussi racine. En posant Z = x2
on se ram`ene aux
´equations du s´econd degr´e( d´ej`a r´esolues).
x4
− x2
− 2 = 0 (1). Posons z = x2
alors (1) devient z2
− z − 2 = 0 dont les racines sont
z1 = 2; z2 = −1. Par extraction les racines de (1) sont :
x1 =
√
2; x2 = −
√
2; x3 = −i; x4 = i.
1.2.2 M´ethode de Lagrange
En 1540 Ferrari, se basant sur la m´ethode de son maˆıtre Cardan, mˆıt au point la formule
de la r´esolution du 4`eme degr´e. Par ailleurs il existe la m´ethode de Lagrange, de Sotta et de
B´ezout. Pour la mˆeme raison que la pr´ec´edente, nous d´evelopperons la m´ethode de Lagrange.
E4 a4x4
+ a3x3
+ a2x2
+ a1x + a0 = 0.
En posant x = z − a3
4a4
on se ram`ene `a : z4
+ az2
+ bz + c = 0. Soit x1, x2, x3 et x4 les quatre
racines de cette derni`ere.
Le polynˆome P(X, Y, Z, Z) = XZ + Y T ne prend que trois valeurs par toute permutation
effectu´ee sur x1, x2, x3, x4 qui sont :
A = x1x2 + x3x4; B = x1x3 + x2x4 ; C = x1x4 + x2x3.
Et on a :
σ1(x1, x2, x3, x4) = 0 ; σ2(x1, x2, x3, x4) = a; σ3(x1, x2, x3, x4) = b ; σ4(x1, x2, x3, x4) = c.
13
16. On a alors :
A + B + C = σ2; AB + AC + BC = σ1σ2 − 4σ4 = −4c; ABC = b2
− 4ac.
Les nombres A, B et C sont obtenus comme racines de
r3
− ar2
− 4cr − b2
+ 4ac = 0.
Cette ´equation est du troisi`eme degr´e que l’on sait r´esoudre. En notant u, v et w ces trois
racines, on aura alors le syst`eme suivant :
S =
x1 + x2 + x3 + x4 = 0
x1x2 + x3x4 = u
x1x3 + x2x4 = v
x1x4 + x2x3 = w
⇐⇒
x1 + x2 + x3 + x4 = 0 (1)
(x1 + x2)(x3 + x4) = v + w (2)
(x1 + x4)(x2 + x4) = u + v (3)
(x1 + x3)(x2 + x4) = u + w (4)
A l’aide de (1) et (2) on a :
(I) x1 + x2 = ρ1 et x3 + x4 = −ρ1 avec ρ1 =
√
−u − w.
A l’aide de (1) et(3) on a :
(II) x1 + x4 = ρ2 et x2 + x4 = −ρ2 avec ρ2 =
√
−u − v.
A l’aide de (2) et (3) on a :
(III) x1 + x3 = ρ3 et x2 + x4 = −ρ3 avec ρ3 =
√
−v − w.
Pour qu’il y’ait ´equivalence entre ( I,II et III) et le syst`eme (S) il faut et il suffit que ρ1 , ρ2 ρ3
soient choisis de fa¸con que : ρ1ρ2ρ3 = −b sachant que :
(x1 + x2)(x1 + x3)(x1 + x4) = x1(x1 + x2 + x3 + x4) + σ3 = −b
Maintenant on voit que les racines sont :
x1 = 1
2
(ρ1 + ρ2 + ρ3)
x2 = 1
2
(ρ1 − ρ2 − ρ3)
x3 = 1
2
(−ρ1 − ρ2 + ρ3)
x4 = 1
2
(−ρ1 + ρ2 − ρ3)
Cependant, pour n ≥ 5, nous n’avons pas de m´ethodes universelles pour tous les polynˆomes
de degr´e n. Nous allons montrer que la r´esolution par radicaux n’est pas g´en´erale pour tout
polynˆome.
1.3 Les ´equations du 5`eme degr´e
En 1799 Paolo Ruffini affirma que les ´equations du 5`eme degr´e en polynˆomes n’´etaient pas
toutes r´esolubles, une proposition r´ej´et´ee par les math´ematiciens de l’´epoque. En1824 Abel
donna une preuve compl`ete mais sans concepts. Finalement, Galois balaya le doute par la
notion et le concept des groupes de Galois en fournissant une condition n´ecessaire et suffisante
de la non-r´esolubilit´e des ´equations de degr´e n avec n ≥ 5 . Soit l’´equation :
P(x) = a5x5
+ a4x4
+ a3x3
+ a2x2
+ a1x + a0 = 0.
14
17. Et soient x1, x2, x3, x4 et x5 ses cinq racines et E le corps des racines de P.
On d´efinit son groupe de Galois par :
Gal(E/K) = {σ : E −→ E, ∀ i σ(xi) = xj, 1 ≤ i, j ≤ 5}.
Pour montrer que le groupe de Galois n’est pas r´esoluble, par isomorphisme il suffit de
montrer que S5 n’est pas r´esoluble. Comme dans le cas de degr´e inf´erieur ou ´egal `a quatre, on
a trouv´e un polynˆome en (X, Y, Z) ou un polynˆome en (X, Y, , Z, T, W) qui ne prend respecti-
vement que 2 ou 3 valeurs. Il s’agit alors de prouver qu’il n’ existe pas un polynˆome en cinq
ind´etermin´ees ( X, Y, Z, T, W) qui prend 4 ou 3 valeurs par toute permutation effectu´ee sur
X, Y, Z, T et W.
Proposition 4 : Le groupe de permutation S5 n’est pas r´esoluble.
Lemme 1.3.1 : Pour n ≥ 3 , A5 est engendr´e par les cycles de longueur 3.
Preuve 3 Alors montrons que S5 n’est pas r´esoluble avec ce lemme.
Soit H un sous groupe de S5 tel que [S5 : H] ≤ 4
Montrons que H contient tous les cycles de longueur 5.
Soit λ un cycle de longueur 5, ∀ i ∈ {0, 2, 3, 4, 5} card(λi
H) = card(H).
Comme card(H) ≤ 4 alors les sous groupes H , λH , λ2
H , λ3
H , λ4
H , λ5
H ne peuvent pas
ˆetre disjoints car ils prennent leur cardinal dans {1, 2, 3, 4} donc il existe i = j 0 ≤ i < j ≤ 4
tel que λi
H λj
H = φ =⇒ λj−i
∈ H ∈ or 1 < j − i < 5 donc λj−i
engendre le cycle < λ >
d’ordre 5 premier.
Comme H contient tous les cycles d’ordre 5 alors par la relation :
(i, j, k) = (k, j, i, a1, a2) = (i, k, j, a2, a1) ∈ H.
Donc H contient les cycles d’ordre 3 qui engendrent A5. Donc A5 ⊂ H.
A5 ⊂ H =⇒
card(S5)
2
= card(A5) < card(H).
Or card(S5) = card(H).card(S5 : H) < 2card(H) donc [S5 : H] ∈ {1, 2} (card(S5) = 5! donc
fini).
Enfin Card(H)card(S5 : H) < 2cardH d’o`u [S5 : H] ∈ {1, 2}.
Ainsi il n’existe pas de sous groupe H de S5 tel que [S5 : H] ∈ {3, 4} ce qui implique que
Gal(E/K) n’est pas r´esoluble.
De mˆeme pour les polynˆomes de degr´e sup´erieur `a 5.
1.4 La r´esolution des ´equations diophantiennes
D´efinition 20 : Une ´equation diophantienne est une ´equation de la forme :
P(x1, x2, · · · xn) = 0 avec P un polynˆome `a coefficients dans Z et dont la solution est cherch´ee
dans Z.
Les cas de telles ´equations r´esolubles sont rares, leur r´esolution demande aussi souvent un outil
math´ematique tr`es moderne.
15
18. 1.4.1 Le triplet pythagoricien
Probl`eme 1 : Il s’agit de r´esoudre dans Z l’´equation :
x2
+ y2
= z2
.
Elle a ´et´e ´etudi´ee et r´esolue par Diophante. En supposant z = 0 et en divisant l’´egalit´e par z2
on aura :
(
x
z
)2
+ (
y
z
)2
= 1.
La recherche des solutions de cette derni`ere revient `a retrouver les coordonn´ees rationnelles du
cercle unit´e.
Solution 1 : On suppose que x, y et z sont tous non nuls. Quitte `a diviser par le (pgcd(x, y, z))2
on peut se ramener au cas o`u x, y et z sont premiers entre eux.
-Etudions la parit´e de x,y et z.
Soit q un nombre impair. Alors q2
= (2n + 1)2
= 4n2
+ 4n + 1 =⇒ pour tout q impair q ≡
1[4].Alors si x et y sont impairs z2
= x2
+ y2
≡ 2[4] et z pair =⇒ z2
≡ 0[4]. Contradiction.
Alors supposons x pair et y impair. Etant donn´e que x et z sont premiers entre eux, x pair
=⇒ z impair. Par conclusion x est pair, y et z sont impairs.
Et z et y impairs =⇒ les entiers z − y et z + y sont pairs (z−y
2
a donc un sens dans Z).
x2
= z2
− y2
⇐⇒ (
x
2
)2
= (
z − y
2
)2
(
z + y
2
)2
.
les nombres (z−y
2
)et (z+y
2
) sont des carr´es entiers sinon la d´ecomposition de x
2
entraˆınera l’exis-
tence d’un nombre premier p tel que p|(z+y
2
) et p|(z+y
2
) ce qui implique que p|(z+y
2
)+(z+y
2
) = z et
p|(z+y
2
) − (z+y
2
) = y, absurde (pgcd(z, y) = 1). Finalement il existe (m, n) ∈ Z tel que z−y
2
= n2
et (z+y
2
) = m2
.
Alors le triplet (x,y,z )sont :
x = (2kmn), k ∈ N
y = k(m2
− n2
), m ∈ N
z = k(m2
+ n2
), n ∈ N, n < m
ou
x = k(m2
− n2
), k ∈ N
y = (2kmn), m ∈ N
z = k(m2
+ n2
), n ∈ N, n < m
La pr´esence du facteur entier k s’explique par le fait que l’´equation est homog`ene : si le triplet
(x, y, z) est solution =⇒ ∀n ∈ N(nx, ny, nz) est aussi solution.
1.4.2 Equation de Fermat
Th´eor`eme 1.4.1 : Pour n ≥ 3 il n’existe pas d’entiers strictement positifs x, y et z v´erifiant
l’´equation :
xn
+ yn
= zn
,
Pour n = 1, on a tout entier de la droite x + y = z avec z param`etre.
Pour n = 2, elle devient l’´equation pythagoricienne d´ej`a d´emontr´ee.
Le cas n < 100 a ´et´e d´emontr´e par Ernst Kummer. Cette ´equation propos´ee par Fermat en
1637 a inspir´e de nombreuses g´en´erations de math´ematiciens notammant Euler, David Hil-
bert, Mme Emmy No´ether. La recherche des solutions de cette ´egalit´e a beaucoup contribu´e `a
l’´evolution des Math´ematiques. En 1995, le th´eor`eme a ´et´e d´emontr´e par Andrew Whiles. Gra-
phiquemment, on peut ´egalement comprendre ce th´eor`eme en considerant la courbe d’´equation
(x
z
)n
+(y
z
)n
= 1 avec n > 2 et remarquer que cette courbe ne passe par aucun point `a coordonn´ee
rationnelle non nulle.
16
19. 1.4.3 le triangle de rˆeve
Il s’agit de trouver un triangle rectangle dont les cot´es ob´eissent au triplet pytagoricien et
l’aire est celle d’un carr´e. Autrement, dit r´esoudre ce syst`eme dans N :
x2
+ y2
= z2
et
xy
2
= t2
avec x, y, z, t ∈ N
En fait ce triangle n’existe pas et s’explique par la transcendance de π.
Par ailleurs, il existe d’autres ´equations diophantiennes telles que l’´equation de Pell, de Cata-
lan...etc.
17
20. Chapitre 2
R´esolution des syst`emes lin´eaires et
fonctions num´eriques
2.1 R´esolution des syst`emes lin´eaires
Historiquemnt parlant, l’alg`ebre lin´eaire naˆıt de l’´etude des syst`emes lin´eaires. Abord´ee en
1678 par Leibniz , la r´esolution des syst`emes lin´eaires `a 2 ou 3 inconnues revient `a Mac Laurin en
1748 et compl´et´ee dans le cas g´en´eral par Cramer en 1754. La notation matricielle fut adopt´ee
premi`erement par Gauss et se formalisa par Cayley et Grassman. Lorsqu’on revient `a l’exemple
concret donn´e dans le cas des chasseurs du Mali on retrouve le syst`eme suivant :
4x + 2y = 54, x= nombre de lions
x + y = 19, y= nombre d’aigles
Il existe plusieurs m´ethodes pour la r´esolution des syst`emes lin´eaires parmi lesquelles, on peut
citer : la m´ethode de Cramer , m´ethode de Gauss, m´ethode de Crout, de Cholesky...etc. La
m´ethode de Cramer, non applicable que si det = 0, est lourde d’application puisqu’il faut
plus de 3 millions d’ann´ees pour r´esoudre un syst`eme de moins de 30 inconnues avec une
vitesse d’´ex´ecution de plus 3 millions d’op´erations par s´econde alors qu’avec celle de Gauss,
sans condition, il nous faut seulement moins de 3 s´econdes avec la mˆeme hypoth`ese. Les autres
m´ethodes ´etant des d´eriv´ees de celle de Gauss, alors le choix de la m´ethode de Gauss pour les
´etudes ult´erieures est justifi´e.
2.1.1 M´ethode de Gauss
Soit le syst`eme suivant :
(S)
n
k=1
aikxik = bi; 1 ≤ i ≤ m.
Dans cette expression, m r´epresente le nombre d’´equations et n le nombre d’inconnues.
En posant
A = (aij)1≤j≤n
1≤i≤m ; B = (bi)1≤i≤m et X = (xi)1≤i≤n.
On obtient cette forme compacte :
AX = B.
18
21. Quitte `a permuter les lignes, on peut supposer que ∀ i aii = 0. Par les op´erations
´el´ementaires (permutation des lignes ou colonnes - addition des lignes ou des colonnes- multi-
plication par un scalaire non nul des lignes ), on peut ramener le syst`eme `a la forme suivante :
(S)
n
k=i
aikxik = bi; 1 ≤ i ≤ m.
L’ensemble solution de ce dernier syst`eme varie selon le nombre d’´equations et d’inconnues
dans le syst`eme . Nous distinguons trois cas qui sont : l’´egalit´e entre le nombre d’´equations et
d’inconnues, le nombre d’´equations d´epasse celui d’inconnues ou vice-versa.
2.1.2 L’´egalit´e entre le nombre d’inconnues et d’´equations
Dans ce premier cas m = n l’unicit´e de la solution est rassur´ee mais on ne peut rien dire
de l’existence. Par la d´ecomposition de Gauss, la solution si elle existe, se d´eduit par r´emont´ee.
Le syst`eme apr`es Gauss se pr´esente comme suit.
(S)
n
k=i
aikxik = bi; 1 ≤ i ≤ n.
Exemple 4 : Soit le syst`eme :
(M) =
4x + 2y = 54, x nombre de lions ;
x + y = 19, y nombre d’aigles.
Le syst`eme admet le couple (8 lions ,11 aigles ) comme solution.
2.1.3 Plus d’´equations que d’inconnues
Lorsque le nombre d’´equation d´epasse le nombre d’inconnues ,les m−n ´equations s’appellent
les ´equations auxiliaires. Apr`es la m´ethode de Gauss on se ram`ene `a :
p
k=i aikxik = bi 1 ≤ i ≤ p
bp+1 = 0
bp+2 = 0
· · ·
bm = 0
S’il existe j ∈ {p + 1, p + 2, · · · , m} tel que bj = 0, le syst`eme n’admet pas de solution.
On suppose maintenant que ∀j ∈ {p + 1, p + 2, · · · , m} bj = 0.
Dans ce cas si p = n alors le syst`eme devient le premier cas, donc si la solution existe elle est
unique.
Dans le dernier cas si p < n les xp+1, xp+2, · · · , xn sont des variables auxiliaires et libres ainsi
le syst`eme admet une infinit´e de solutions.
2.1.4 Plus d’inconnues que d’´equations
Les n − m inconnues s’appellent des inconnues auxiliaires et se comportent comme des
param`etres . La solution est alors selon les valeurs prises par ces variables libres.
19
22. Exemple 5 : Dans R3
le syst`eme
x + y + 2z = 4
x − y = 2
admet comme solution le triplet (3 − λ, 1 − λ, λ; λ ∈ R).
Les applications sont multiples surtout dans la t´el´ecommunication la m´et´eo...etc. Bien que
dans la vie tout n’est pas lin´eaire, la r´esolution de beaucoup de syst`emes non lin´eaires peut se
ramener `a celle des syst`emes lin´eaires. Nous y verrons dans la partie num´erique.
2.1.5 Diff´erence l’homme-machine sur le syst`eme Ax=b
Jusqu’`a pr´esent nous avons consid´er´e l’arithm´etique exacte effectu´ee `a la main. Mais ´etant
donn´e que la plupart de ces r´esolutions s’effectuent sur la machine et que la r´epr´esentation
machine est differente de celle de homme, il nous sera utile d’analyser le comportement de la
machine. Pour mieux visualiser la diff´erence main-machine regardons cet exemple.
Exemple 6 : Soit le syst`eme :
0.0003 3.0000
1.0000 1.0000
x1
x2
= −
2.0001
1.0000
Par la main la solution est (1
3
, 2
3
)T
. Par la machine la solution est (0, 0.667)t
. Ces deux solutions
sont bien diff´erentes.
En faite l’arithm´etique flottante, effectu´ee `a la machine provoque in´evitablement des petites
modifications de chaque terme dans la d´ecomposition de Gauss. Il est alors possible que ces
erreurs aient d’importantes r´epercussions sur la solution, par cons´equent le r´esultat machine
sera ´eloign´e de la soluton exacte.
2.1.6 Limiter les d´egats
Le probl`eme vient au fait qu’on a divis´e par un pivot presque nul. La solution `a cela, consiste
`a permuter les lignes pour avoir le plus grand pivot( mˆeme si le pivot n’est pas nul). Ainsi faite
la nouvelle solution est (0.3334, 0.6666)t
, proche de la r´ealit´e.
La deuxi`eme alternative consiste `a diviser chaque ligne du syst`eme lin´eaire par le plus grand
´el´ement de la ligne correspondante de la matrice sans tenir compte des ´el´ements du vecteur b.
2.1.7 Le conditionnement d’une matrice
L’exemple suivant montre que certaines matrices sont tr`es sensibles aux erreurs dˆues g´en´eralement
`a la r´epr´esentation de ses coefficients sur la machine.
Exemple 7 : Soit le syst`eme :
1 3
1.1 2
x1
x2
= −
10
10.4
La solution est (4, 3)t
et si on remplace 1.1 par 1.05 la solution est (8, 1)t
. Nous allons essayer
de mesurer cette sensibilit´e.
20
23. D´efinition 21 : L’application
L :Mn(R) −→ R+
A −→ L(A) = A
est dite norme matricielle si :
A = 0 ⇐⇒ A = 0.
λA = |λ| A .
A + B ≤ A + B .
AB ≤ A B .
Soit A une matrice carr´e d’ordre n les applications suivantes sont des normes matricielles :
A 1 = max1≤j≤n
n
i=1
|aij| A j = max1≤i≤n
n
j=1
|aij|
D´efinition 22 : Le conditionnement d’une matrice ( not´e cond A) est d´efini par
condA = A A−1
.
Par AB ≤ A B et cond(I) = 1, le conditionnement est toujours sup´erieur `a 1. Une ma-
trice M est dite mal conditionn´ee si cond M est tr`es ´eloign´e de 1.
La matrice identit´e est une matrice bien conditionn´ee.
La matrice de Hilbert d’ordre n est un exemple de matrice mal condition´ee : H(n) = (h(i, j))1≤i,j≤n
avec (h(i, j) = 1
i+j−1
.
Pour n=6, cond(H(6)) = 1, 4951.107
(calcul ´effectu´e sur Matlab).
Th´eor`eme 2.1.1 : Soit le syst`eme Ax = b avec b = 0, on note ¯x la solution approch´ee, x la
solution exacte r = b − A¯x, le vecteur r´esidu et e = x − ¯x . Alors :
1
condA
r
b
≤
e
x
≤ condA
r
b
2.1.8 Interpr´etation du th´eor`eme
Si cond(A) est proche de 1, si le r´eel r est aussi petit, l’erreur relative approximative,
coinc´ee entre deux petites valeurs ne peut qu’ˆetre petite.
Par contre si cond(A) est grand l’erreur relative se trouve quelque part entre 0 et un nombre
relativement grand.
Un mauvais algorithme aussi peut conduire `a un r´esultat erron´e.
Th´eor`eme 2.1.2 : Soit le syst`eme Ax = b, E une perturbation du syst`eme initial(due par
exemple aux erreurs de r´epr´esentation des coefficients de A sur la machinele syst`eme Ax = b
d´evient (A + E)x = b. Alors :
x − ¯x
¯x
≤ condA
E
A
Le terme x−¯x
¯x
est une approximation de l’erreur relative.
21
24. Si cond(A) est petite, une petite perturbation sur A entraˆınera une autre sur la solution x.
Par contre si cond A est grand, une petite perturbation sur A peut resulter en une tr`es grande
perturbation sur la solution du syst`eme.
2.1.9 Les M´ethodes it´eratives
La r´esolution num´erique des grands syst`emes lin´eaires peut parfois n´ecessiter l’emploi de
m´ethodes autres que les m´ethodes directes. Ces m´ethodes rapides sont des m´ethodes it´eratives.
Cependant avec les m´ethodes it´eratives contrairement `a celle de Gauss, le succ`es n’est pas
toujours au rendez vous.
Nous pr´esenterons rapidement la m´ethode de Jacobi, de Gauss-Seidel et de relaxation.
2.1.10 M´ethode de Jacobi, Gauss-Seidel et de Relaxation
Soit le syst`eme Ax = b, avec A = (aij)1≤i,j≤n. Quitter `a permuter les lignes on peut supposer
aii = 0 ∀ i. Posons M = (mij)1≤i,j≤n avec mij = 0 si i = j et mii = aii puis N = (nij)1≤i,j≤n
avec nij = −aij et nii = 0. Alors le syst`eme d´evient (M − N)x = b.
Par suite x = M−1
Nx + M−1
b.
Ce qui nous donne `a la (k+1)i`eme it´eration :
xk+1
i =
1
aii
[bi −
n
j=i,j=1
aijxk
j ].
Dans cette expression pour le calcul de xk+1
i , on peut remplacer les composantes xk
1 , xk
2, , · · · , xk
i−1
par xk+1
1 , xk+1
2 , · · · , xk+1
i−1 (d´ej`a calcul´es et constituent une plus bonne approximation ).
On obtient ainsi la m´ethode de Gauss :
xk+1
i =
1
aii
[bi −
i−1
j=1
aijxk+1
j +
n
j=i+1
aijxk
j ].
En ins´erant un facteur w non nul (wAx = b) pour mieux contrˆoler la vitesse et la convergence
on obtient la m´ethode de relaxation :
xk+1
i = xk
i +
w
aii
[bi −
i−1
j=1
aijxk+1
j +
n
j=i+1
aijxk
j ]
2.1.11 Convergence
1. Si la matrice A est `a diagonale strictement dominante ( |aij| < |aii| pour j = i) la
m´ethode de Jacobi et de Gauss-Seidel converge.
2. Si M est sym´etrique d´efinie positive la m´ethode de Gauss-Seidel converge.
Si la matrice 2M-A est d´efinie positive, Jacobi converge.
La m´ethode de relaxation converge toujours pour w ∈ [0, 2].
Lorsque w ∈ [1, 2], on parle de sur-relaxation utilis´ee pour acc´el´erer la convergence.
Lorsque w ∈ [0, 1], on l’appelle sous-relaxation utilis´ee pour converger les suites divergentes.
22
25. Exemple 8 (tir´e dans le contrˆole 1 d’anlyse num´erique) Soit
A =
2 1 1
1 2 1
1 1 2
et b =
4
4
4
En r´esolvant it´erativement avec x0 = (0, 0, 0). Avec la m´ethode de Jacobi le r´esultat alterne
entre le vecteur ( 0,0,0) et (2,2,2), donc diverge. Avec Gauss il converge .
2.2 Les Formes lin´eaires
: Soit E un K-espace vectoriel. On appelle forme lin´eaire, toute application lin´eaire de E
vers K. u :E −→ K lin´eaire.
2.2.1 Les hyperplans
Soit E un K-espace vectoriel, on caract´erise les hyperplans par la proposition suivante :
Proposition 5 : Un sous espace vectoriel H de E est dit hyperplan si et seulement si il existe
une forme lin´eaire de E vers K de noyau H.
Dans R2
les formes lin´eaires sont :
f :R2
−→ R
(x, y) −→ f(x, y) = ax + by.
Leur noyau est une droite confondue `a un hyperplan.
Les espaces suivants sont des hyperplans :
H = {M ∈ Mn(R); trace(M) = 0}.
H = {P ∈ K[X], P(0) = 0} .
Les solutions des ´equations de la forme n
i=0 aixi = bi sont les hyperplans de dimension n − 1.
Pour n = 3, les hyperplans sont des plans d’´equation : ax + by + cz − d = 0.
Pour n = 2 , les hyperplans sont des droites d’´equation ax + by = c.
2.2.2 Formes quadratiques
La notion de forme quadratique apparaˆıt avec l’´etude des coniques de Fermat. Vers 1700
Euler mena leur ´etude.
D´efinition 23 On appelle forme quadratique toute application de la forme :
q :E −→ R
x −→ q(x) = f(x, x)
o`u f est une application bilin´eaire.
23
26. Autrement dit une forme quadratique est la diagonale de l’application bilin´eaire associ´ee.
: Soit q : E −→ R, une forme quadratique, un vecteur x ∈ E est dit isotrope pour q si
q(x) = 0.
On appelle le cˆone isotrope pour q not´e Cq l’ensemble :
Cq = { x ∈ E; q(x) = 0}.
Cet ensemble est un cˆone convexe.
On dira que la forme quadratique q est d´efinie positive si pour tout x ∈ E, q(x) > 0 et q(x) =
0 =⇒ x = 0. : Elles interviennent dans la recherche des extr´emums.
Exemple 9 Les applications suivantes sont des formes quadratiques :
q :Mn(R) −→ R
A −→ det(A)
q :Mn(R) −→ R
A −→ tr(t
AA)
2.3 Les Fonctions num´eriques
Pour d´esigner des grandeurs g´eom´etriques d´ependant d’un autre(par exemple la temp´erature
d´epend du lieu), Gottfried Wilhelm Leibniz(1646-1716) utilisa le terme fonction en 1692 pour la
premi`ere fois . Aussi naˆıt le concept de deriv´ee chez Newton alors que Leibniz utilsa la notation
df
dx
pour la d´esigner. Alors qu’on pensait que toute fonction ´etait ´egale `a sa s´erie de, Taylor
Cauchy apporta un contre-exemple : x −→ exp(− 1
x2 )
2.3.1 Th´eor`eme des valeurs interm´ediaires
Enonc´e par Bernhard Bolzano, ce th´eor`eme est `a la base de la m´ethode de dichotomie que
nous ´evoquerons dans la partie num´erique.
Th´eor`eme 2.3.1 : Soientt f : D −→ R continue a et b ∈ D tel que f(a)f(b) ≤ 0.
Alors il existe c ∈ [a, b] tels que f(c) = 0.
Ce th´eor`eme, moins d’hypoth`ese est tr`es utile. Il permet mˆeme de trouver les z´eros d’une
fonction par dichotomie et nous justifie la pr´esence d’au moins d’une racine r´eelle dans la
r´esolution des polynˆomes de degr´e impair. Soit P un polynˆome de degr´e impair on a :
( lim
x→+∞
P(x)).( lim
x→−∞
P(x)) < 0.
Alors il existe a, b ∈ R tel que P(a)P(b) < 0.
En particulier pour les polynˆomes de degr´e 3 il y a toujours une racine r´eelle.
2.3.2 Th´eor`eme de Rolle 1652-1749
Enonc´e dans le cadre des polynˆomes ,le th´eor`eme de Rolle est incontournable dans la
construction de l’analyse et nous pr´ecise la relation entre les racines d’un polynˆome et celle
de sa deriv´ee.
Th´eor`eme 2.3.2 : Soit f : [a, b] −→ R continue sur [a, b] et d´erivable sur ]a, b[ tel que f(a) =
f(b).
Alors il existe c ∈]a, b[ tel que f (c) = 0.
24
27. Preuve 4 : Si f est constante ,c’est ´evident. Sinon , il exite x ∈]a, b[ tel que f(x) = f(a) par
exemple f(a) < f(x). La fonction f continue sur le compact [a, b] est donc born´ee alors il existe
c ∈ [a, b] tel que f(c) = sups∈[a,b](f(s) or f(a) = f(b) < f(x) < f(c) alors c ∈]a, b[ et f(c) un
extremum de f d’o`u f (c) = 0.
2.3.3 Le th´eor`eme des points fixes
Le th´eor`eme des points fixes est un outil topologique tr`es utilis´e qui permet de r´esoudre
beaucoup d’´equations de la forme f(x) = 0 et d’assurer souvent l’unicit´e du z´ero de cette
´equation. Pour r´esoudre une telle ´equation, il suffit de montrer l’existence d’un point fixe de
l’application g(x) = f(x) − x. En effet f(x) = 0 ⇐⇒ x − f(x) = x ⇐⇒ g(x) = x avec
g(x) = x − f(x). Il est issu de Banach et poss`ede plusieurs versions telles que celle de Brower.
Th´eor`eme 2.3.3 : Soit E un espace m´etrique complet f : E −→ E une application telle que :
∃k ∈]0, 1[ ∀(x, y) ∈ E , d(f(x), f(y)) ≤ kd(x, y).
Alors, il existe un unique a ∈ E tel que f(a) = a.
D’une mani`ere g´en´erale, la version du th´eor`eme de Brower permet d’assurer l’existence d’un
point fixe dans un compact convexe pour k ∈]0, 1].
Th´eor`eme 2.3.4 Soit K un espace compact convexe d’un espace vectoriel norm´e f : K −→ K
une application continue tel que
∀ (x, y) ∈ K f(x) − f(y) ≤ x − y
Alors f admet au moins un pint fixe.
Preuve 5 Soit a ∈ K. on d´efinit une suite de fonction
fn : K −→ K x −→
1
n
a + (1 −
1
n
)f(x).
De la relation
fn(x) − fn(y) = (1 −
1
n
) f(x) − f(y) ≤ (1 −
1
n
) x − y .
fn est (1 − 1
n
) contractante.Comme K est complet alors le th´eor`eme du point fixe assure
l’existence de xn tel que fn(xn) = xn. La suite xn prenant ses valeurs dans un compact admet
alors une sous -suite convergente xϕ(n) dont la limite appartient `a K. L’in´egalit´e :
f(x) − fn(xn) = f(x) − fn(x) + fn(xn) − fn(x) ≤
1
n
( a + f(x) ) + x − xn .
montre que fϕ(n)(xϕ(n)) converge vers f(x). En passant `a la limite dans l’´egalit´e fϕ(n)(xϕ(n)) =
xϕ(n) on obtient f(x) = x.
Il existe d’autres th´eor`emes tel que le th´eor`eme des fonctions implicites mais qui r´esolvent le
probl`eme dans d’autres contextes qui entrent dans d’autre domaines tel qu’analyse fonctionnelle.
25
28. 2.4 Les extremums et formes standards
Maximiser la satisfaction et minimiser les d´epenses est un probl`eme fr´equent dans la vie
quotidienne dont la r´esolution se traduit par la recherche du maximum ou du minimum d’une
fonction f(x), cela passe souvent par la r´esolution de f (x) = 0 ou de f(x) = 0.
Pour mieux visualiser regardons ce syst`eme.
Maximiser ou Minimiser f(x, y, z) = 0,
g1(x, y, z) ≤ 0,
g2(x, y, z) ≥ 0,
g3(x, y, z) ≤ 0, x ≥ 0; y ≥ 0; z ≤ 0,
Cette r´esolution passe par la forme stantard
f(x, y, z) = 0,
g1(x, y, z) = 0,
g2(x, y, z) = 0,
g3(x, y, z) = 0, x ≥ 0; y ≥ 0; z ≥ 0,
Qui n’est autre qu’une forme de F(X) = 0.
2.4.1 Extremum simple
D´efinition 24 : Point critique.
Soient U un ouvert de Rp
, f une application de U vers R et a ∈ U.
On dit que a est un point critique si f (a) = 0.
Proposition 6 : Soit a un point critique et Q la forme quadratique d´efinie par :
Q(h) =
i,j
hihj
∂2
f(a)
∂xixj
.
Alors si la forme quadratique est d´efinie positive f admet un minimum en f(a).
R´eciproquement si f admet un minimum en a, la forme quadratique est positive .
Mais si la forme quadratique est seulement positive, on ne peut pas conclure comme le prouve
l’exemple classique f(x) = x3
. Son application est tr`es vaste dans la vie courante surtout si l’on
veut d´eterminer la temp´erature maximale d’un lieu, le gain maximal d’une entreprise, le coˆut
minimal d’un projet. Il intervient surtout aussi dans l’optimisation.
Un cas particulier int´eressant en dimension 2 : Soient f : R2
−→ R de classe C2
et A sa matrice
hessienne associ´ee. Alors A est d´efinie par :
A = (
∂2
f(a)
∂xixj
)1≤i,j≤2
Par le th´eor`eme de Schawrtz A est sym´etrique r´eelle donc diagonalisable, soit λ1 et λ2 les
deux valeurs propres.
Notons
r =
∂2
f(a)
∂x2
; t =
∂2
f(a)
∂y2
; s =
∂2
f(a)
∂xy
; A =
r s
s t
26
29. Supposons detA > 0 ; detA = rt − s2
= λ1.λ2 > 0 .(1) et trace(A) = λ1 + λ2 = r + t (2).
Par (1) et (2) on a : (λ1 et λ2) et (r et t) sont de mˆeme signe.
On conclut par le tableau suivant : Si rt − s2
> 0 et r < 0 : maximum
au point f(a).
Si rt − s2
> et r > 0 : minimum au point f(a).
Si rt − s2
< 0 : pas d’extremum au point f(a).
Si rt − s2
= 0 : on ne peut rien conclure au point f(a).
2.4.2 Extremum li´e
Proposition 7 : Soient toujours U un ouvert de R2
et f, g1, g2 · · · gr r+1 applications de U
dans R de classe C1
. Posons
Γ = {x ∈ U, g1(x) = g2(x) = · · · gr(x) = 0}.
Alors :
Si f/Γ admet un extremum relatif en a et si les fonctions lin´eaires dg1(a), ..., dgr(a) sont
lin´eairement ind´ependantes alors il existe λ1, λ2 · · · λr scalaires appel´es multiplicateurs de La-
grange tel que :
dfa =
r
1
λkdgk(a).
C’est un cas particulier des conditions de KKT. Son application est tr`es importante surtout en
programmation non lin´eaire.
Exemple 10 : Soit σ(x, y, z) une fonction r´epr´esentant la temp´erature de Oukaidem(r´egion de
Marrakech). Il s’agit de d´eterminer le maximum de σ (la temp´erature maximale) dans le rayon
de 200 m et d’altitude 100 m. Ici on a :
Γ = {(x, y, z) ∈ R3
; x2
+ y2
= 200 et z = 100}
Exemple 11 : D´eterminer parmi les parall´el´epip`edes en maintenant le volume constant celle
qui a la plus petite surface.
f(x, y, z) = 2xy + 2xz + 2yz et Γ = {(x, y, z) ∈ U tel que xyz = c, c ∈ R}
Par la proposition pr´ec´edente on a :
x + z
xy
=
x + y
xz
=
y + z
yz
=⇒ x = y = z
Donc le cube est le parall´elipip`ede recherch´e de volume x3
et de surface 6x2
.
27
30. Chapitre 3
R´esolution num´erique des ´equations et
syst`emes non lin´eaires
Nous venons d’´etudier les ´equations de la forme f(x) = 0 avec f un polynˆome de degr´e infe-
rieur ou ´egal `a quatre ou un syst`eme lin´eaire. La r´esolution de ces deux probl`emes malgr´e leur
domaine d’application trop restreint ; demande aussi souvent un temps de calcul tr`es ´enorme :un
de leur d´efaut. Mais naturellement, nous sommes confront´es `a un probl`eme lorsqu’il s’agit de
r´esoudre l’´equation au-del`a de ces deux cas, mˆeme dans les cas les plus simples que polynˆomiaux
tel que : exp(−x) − x = 0.
Il sera alors plus important de r´esoudre le probl`eme rapidement mˆeme s’il s’agit de fa¸con ap-
proximative. D’o`u la n´ecessit´e et l’utilit´e d’une m´ethode donnant des solutions approximatives
mais de fa¸con rapide :Les m´ethodes num´eriques. Il reste toutefois `a signaler que l’efficacit´e
d’une m´ethode d´epend de ses propri´et´es topologiques(convergence, pr´ecision...)que de sa faci-
lit´e d’utilisation et son comportement sur la machine.
D´efinition 25 1. Une suite xn convergente vers α est dite d’ordre p si : ∃C > 0 tel que
xk+1−α
xk−α p < C `a partir d’un certain rang.
Si p = 1, la convergence est lin´eaire et si p = 2 la convergence est dite quadratique.
2. Soit x un nombre r´eel et ¯x une valeur approch´ee de x.
L’erreur absolue est donn´ee par : ∆x = |x − ¯x|.
L’erreur relative est donn´ee par : Er(x) = |x−¯x|
|x|
= ∆x
x
.
3. Une valeur a v´erifiant f(a) = 0 est app´el´ee racine ou z´ero de f.
Elle est dite racine simple si f (a) = 0 Elle est dite multiple d’ordre m si :
f(a) = f (a) = f (a) = · · · fm
(a) = 0 et fm+1
(a) = 0.
4.On appelle l’it´eration maximale qu’on notera itmax, le plus grand nombre d’it´erations qu’on
se fixe, `a ne pas d´epasser, au-del`a duquel la m´ethode est dite divergente.
3.1 Les fonctions r´eelles
Nous avons plusieurs m´ethodes telles que la m´ethode de dichotomie ( du Grec dikhoto-
mia : action de partager en deux), la m´ethode de Newton et sa d´eriv´ee(m´ethode de s´ecante),
la m´ethode du point fixe. Nous d´evelopperons la premi`ere, vue sa simplicit´e et son concept
´el´ementaire et la deuxi`eme m´ethode, vue son efficacit´e, et son utilisation dans la r´esolution des
syst`emes non lin´eaires. Nous supposerons la fonction continˆument differentiable autant qu’il
faut.
28
31. 3.1.1 M´ethode de dichotomie ou de bissection
La m´ethode de bissection r´epose sur une id´ee toute simple :le th´eor`eme des valeurs in-
term´ediaires.
3.1.2 Principe
Soient f une fonction r´eelle continue et [x1, x2] un intervalle dans R tel que f(x1)f(x2) < 0.
Par le th´eor`eme des valeurs interm´ediaires, on sait qu’il existe a ∈ [x1, x2] tel que f(a) = 0.
Dans le but de s’approcher `a a, posons xm = x1+x2
2
alors n´ecessairement on a : f(x1)(f(xm) < 0
ou f(xm)f(x2) < 0. Ainsi, il suffit de prendre l’un des deux intervalles [x1, xm] ou [xm, x2]
dans lequel il y’a un changement de signes, et ainsi de suite. Par le mˆeme processus nous
nous approchons `a la solution recherch´ee en contrˆolant l’erreur. Ceci nous am`ene `a l’algorithme
suivant.
Algorithme 1 : il se pr´esente ainsi :
1.Etant donn´e x1, x2 deux r´eels tels que f(x1)f(x2) < 0 ; un crit`ere d’arrˆet ε, un nombre
maximal d’it´erations itmax.
2. Poser xm = x1+x2
2
.
3.Si |x1−x2|
|2xm|
< ε.
– Convergence atteinte.
– Ecrire la racine xm et f(xm).
– Arrˆet.
4. Si f(x1)f(xm) < 0; x2 = xm.
5. Si f(x2)f(xm) < 0; x1 = xm.
6. Si le nombre maximal d’it´erations itmax est atteint.
– Convergence non atteinte en itmax it´erations.
– Arrˆet.
7. Retour `a l’´etape 3.
La m´ethode de dichotomie converge toujours mais lentement. Pour cette raison, on l’utilise pour
initier les m´ethodes rapides. La m´ethode de dichotomie `a l’avantage de connaˆıtre au pr´ealable
le nombre d’it´erations n´ecessaires `a la convergence. En effet soit L = |x1 −x2|, apr`es n it´erations
la longueur de l’intervalle vaut : L
2n . Ainsi on obtient une id´ee sur n : L
2n < ∆x =⇒ n >
ln( L
∆x
)
ln2
.
Les d´efauts de la m´ethode de dichotomie :
La premi`ere situation critique est celle o`u f est tangente `a l’axe de x. La deuxi`eme situation
est celle o`u il y a un nombre pair de racines dans l’intervalle initial. Dans ces deux cas, il n’ y
a pas changement de signe d’o`u son imperfection.
3.1.3 M´ethode de Newton
La m´ethode de Newton est l’une des m´ethodes la plus utilis´ee et se trouve `a la base de
plusieurs m´ethodes.
29
32. 3.1.4 Principe
Supposons f’ non nulle en x0.
A partir d’une valeur initiale x0 de la solution, quelle quantit´e faut -il ajouter `a x0 pour annuler
la fonction f(x) i.e 0 = f(x0 + δx) ? Cette quantit´e δx s’appelle la correction.
Par le d´eveloppement de Taylor autour de x = x0 on a :
0 = f(x0 + δx) = f(x0 + f (x0)δx +
f (x0)
2!
(δx)2
+
f (x0)
3!
(δx)3
+ ...
En n´egligeant les termes d’ordre sup´erieur ou ´egal `a 2 en δx on obtient :
0 f(x0) + f (x0)δx
On peut alors isoler la correction cherch´ee δx = − f(x0)
f (x0)
. Puisqu’on a n´eglig´e les termes d’ordre
sup´erieur ou ´egal `a 2 dans le d´eveloppement de Taylor, la correction δx n’est pas exacte. Par
le mˆeme processus, on pose x1 = x0 + δx en cherchant `a le corriger x1 d’une autre correction
δx de la mˆeme mani`ere que pr´ec´edemment.
3.1.5 Interpr´etation g´eom´etrique
La figure ci- dessous permet de donner une interpr´etation g´eom´etrique assez simple de la
m´ethode de Newton. Sur cette figure, on a r´epr´esent´e la fonction f(x) , la valeur initiale x0 et
le point de la courbe (x0, f(x0)). La droite tangente `a la courbe au point x0 est de pente f (x0)
et a pour ´equation :
y = f(x0) + f (x0)(x − x0)
qui correspond au d´eveloppement de Taylor d’ordre 1 autour de x0. Cette droite coupe l’axe
des x en y = 0. Alors x1 = x0 − f(x0)
f (x0)
devient la nouvelle valeur approch´ee de la solution. On
refait le mˆeme raisonnement `a partir du point (x1, f(x1). Et ainsi de suite. D’o`u la figure.
Par le principe et le graphe, on obtient l’algorithme suivant.
Algorithme 2 :
30
33. 1. Etant donner un crit`ere d’arrˆet, un nombre maximal d’it´erations, une valeur initiale de la
solution x0.
2. Effectuer : xn+1 = xn − f(xn
f (xn)
.
3. Si |xn+1−xn|
|xn+1|
< ε.
– Convergence atteinte en xn+1.
– Ecrire la solution xn+1.
– Arrˆet.
4. Si le nombre maximal d’it´erations itmax est atteint.
– Convergence non atteinte en itmax it´erations.
– Arrˆet.
5. Retour `a l’´etape 2.
3.1.6 Analyse de la convergence
Dans l’algorithme pr´ec´edent, on a consid´er´e un x0 quelconque, mais il faut toute fois signaler
qu’un bon choix de la valeur initiale x0 est n´ecessaire `a la convergence. Par cons´equent il nous
sera tr`es utile d’´enoncer ce th´eor`eme afin de nous donner une id´ee sur la valeur initiale de la
solution.
Th´eor`eme 3.1.1 : Si f est de classe C1
, et poss`ede une racine a simple et s´epar´ee dans l’in-
tervalle [a, b], alors il existe un intervalle I ⊂ [a, b] et contenant x tel que : ∀ x0 ∈ I la m´ethode
de Newton converge.
Si de plus f est de classe C2
la m´ethode est d’ordre 2 on a :
lim
n→∞
xn+1 − a
(xn − a)2
= −
f (a)
f (a)
Nous sommes rassur´es de la convergence de la m´ethode de Newton avec ce choix de x0. Mais
cette convergence est-elle rapide ?
Th´eor`eme 3.1.2 : Supposons que f est de classe C1
sur un intervalle I = [x − r, x + r] tel que
f (x) = 0 , ∀ x ∈ I. Soit M = max |f(x)|
|f (x)|
et h = min(r, 2
M
). Alors
x0 ∈ [x − h, x + h] |xn − ¯x| ≤
2
M
(
M
2
|x0 − ¯x|)2n
.
Ceci prouve que la m´ethode est quadratique. Dans l’algorithme pr´ec´edent, on a suppos´e les
racines simples, on est convaincu qu’il n’est pas ´evident d’avoir toujours que des racines simples.
On peut toujours se ramener, au cas o`u les racines sont simples. En effet, il suffit de transformer
le probl`eme en un probl`eme ´equivalent ayant les mˆemes racines mais de multiplicit´e 1. Dans ce
but, on consid`ere
u(x) =
f(x)
f (x)
=
(x − a)m
h(x)
mh(x) + (x − a)mh (x)
.
Puisque h(a) = 0, alors u(a) = 0, par d´erivation on a u (a) = 1
m
= 0. On peut maintenant
appliquer l’algorithme de la m´ethode de Newton sans se soucier si la d´eriv´ee s’annule ou pas.
Le calcul de la d´eriv´ee pose souvent probl`eme, on peut l’´eviter par l’approximation :
f (xn) =
f(xn) − f(xn−1)
xn − xn−1
.
On obtient par cette approximation la m´ethode de S´ecante.
31
34. Exemple 12 :La fonction f(x) = exp(−x) − x = 0.
xn+1 = xn −
exp(−xn) − xn
− exp(−xn) − 1
Voici le tableau `a la cinqui`eme it´eration :
n xn en
en
en−1
0 0.0000000 0.567110+0
1 0.5000000 0.671410−1
0.118310+0
2 0.5663110 0.832310−3
0.123910−1
3 0.5671437 0.125010−6
0.150110−3
4 0.5671433 0.409710−9
On remarque ici la rapidit´e de la convergence et sa quadrature.
3.2 R´esolution des syst`emes non lin´eaires
Les syst`emes lin´eaires ne constituent pas plus que 30% des syst`emes qu’on rencontre dans
dans la pratique. En pratique, les ph´enom`enes non lin´eaires sont extrˆemement fr´equents. Dans
cette section nous examinerons comment transformer un syst`eme non lin´eaire en un syst`eme
lin´eaire auquel cas on peut appliquer la m´ethode de Gauss. Au fait le probl`eme consiste `a
trouver le ou les vecteur ¯x = [x1, x2, · · · , xn]T
v´erifiant les n ´equations non lin´eaires suivantes :
f1(x1, x2, · · · , xn) = 0
f2(x1, x2, · · · , xn) = 0
· · · · · ·
fn(x1, x2, · · · , xn) = 0
Contrairement aux syst`emes lin´eaires, il n’existe pas de condition qui peut assurer l’unicit´e de
la solution. Les m´ethodes de r´esolution des syst`emes non lin´eaires sont nombreuses mais nous
nous limiterons `a exposer la plus utilis´ee soit la m´ethode de Newton. Nous commencerons par
un syst`eme de deux ´equations et la g´en´eralisation au cas n d´ecoulera facilement. Consid´erons
le syst`eme :
f1(x1, x2) = 0
f2(x1, x2) = 0
Soit (x0
1, x0
2) une approximation initiale de la solution, le but est de d´eterminer la correction
(δx1, δx2) de telle sorte que :
0 = f1(x0
1 + δx1, x0
2 + δx2)
0 = f2(x0
1 + δx1, x0
2 + δx2)
En n´egligeant les termes d’ordre sup´erieur ou ´egal `a 2 en (δx1, δx2) dans le d´eveloppement
de Taylor en deux variables au point (x0
1, x0
2) on obtient le syst`eme suivant :
∂f1(x0
1,x0
2)
∂x1
δx1 +
∂f1(x0
1,x0
2)
∂x2
δx2 = −f1(x1, x2),
∂f2(x0
1,x0
2)
∂x1
δx1 +
∂f2(x0
1,x0
2)
∂x2
δx2 = −f2(x1, x2),
32
35. En notant J(x0
1, x0
2) la matrice jacobienne de f au point (x0
1, x0
2), δx = (δx1, δx2) le vecteur
correction cherch´e et R(x0
1, x0
2) = (f1(x1, x2), f1(x1, x2))T
on obtient :
J(x0
1, x0
2)δx = −R(x0
1, x0
2).
On peut r´esoudre par exemple ce syst`eme lin´eaire en appliquant la m´ethode de Gauss. On refait
la mˆeme op´eration avec :
x1
1 =, x0
1 + δx1, x1
2 = x0
2 + δx2
x1
1 =, x0
1 + δx1 ;
x1
2 = x0
2 + δx2 .
En g´en´eralisant au cas n on, obtient l’algorithme suivant.
Algorithme 3 :
1. Etant donn´e ε, itmax, le vecteur initial, x0
= ([x0
1, x0
2, · · · , x0
n]T
.
2. R´esoudre J(xi
)δxi = −R(xi
).
3. Si R(xi
) ≤ ε et δxi
δxi+1
≤ ε.
– Convergence atteinte.
– Ecrire la solution xi+1
.
– Arrˆet.
4. Si le nombre maximal d’it´erations itmax est atteint.
– Convergence non atteinte en itmax it´erations.
– Arrˆet.
5. Retour `a 2.
Exemple 13
f1(x, y) = exp(x) − y = 0.
f2(x, y) = x2
+ y2
− 16 = 0.
J(x,y)=
exp(x) −1
2x 2y
Graphiquement :
33
36. Le graphe nous indique qu’une solution est au voisinage du vecteur (2.8, 2.8). donc on prend
x0
0 = (2.8; 2.8) A l’it´eration 1 on a :
exp(2.8) −1
2(2.8) 2(2.8)
δx1
δx2
= −
exp(2.8) − 2.8
2(2.8)2
+ 2(2.8)2
Ainsi, on obtient le tableau suivant `a l’it´eration 5 :
n δx R x
1 (0.77890 ; 0.83604) (13.645 ; -0.3200 ) (2.024 ; 3.63604)
2 ( -0.5048 ;0.10106 ) (3.9106 ; 1.3056 ) (1.5163 ; 3.7371)
3 ( 0.17208 ;0.34355 ) (0.81824 ; 0.2650 ) (1.3442 ; 3.7715)
4 (0.0161616 ;0.0163847 ) (0.063617 ; 0.031086 ) (1.3280 ; 3.7731)
5 (9,03 e-5 ; 9.25e-6) (0.348866e-3 ; 0.16946e-3) (1.3281 ; 3.7731)
La convergence de la m´ethode de Newton d´epend crucialement de l’approximation initiale du
vecteur x0 de la solution.
Un mauvais choix r´esultera `a un algorithme divergent.
La convergence est quadratique et cet caract`ere se perd si la matrice n’est pas inversible.
Il existe plusieurs variantes de la M´ethode de Newton qui peuvent ´eviter le calcul de la d´eriv´ee./.
34
37. Conclusion
Sachant que la r´esolution des probl`emes math´ematiques aboutit en g´eneral `a la naissance
d’autres nouveaux concepts et notions math´ematiques. La communaut´e math´ematique doit ac-
tiver ses recherches pour les r´esolutions analytiques non seulement pour r´esoudre des ´equations
d’ordre quelconque mais aussi pour la contribution de cette recherche en math´ematique notam-
ment la naissance d’autres concepts comme fut n´ee la notion du groupe avec Evariste Galois (`a
la recherche des m´ethodes du cinqui`eme degr´e ) et la naissance des ideaux et anneaux par Emmy
no´ether Hilbert...etc (dans la recherche des solutions de l’´equation du Fermat). Les m´ethodes
num´eriques avec l’´evolution exponentielle de la technologie peuvent combler la demande de
l’homme pr´ess´e pour la r´esolution des probl`emes math´ematiques auquels il est confront´e.
35