SlideShare une entreprise Scribd logo
1  sur  37
Télécharger pour lire hors ligne
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Résolution des systèmes
linéaires
M. Ghilani
Université Moulay Ismail, Meknès
25 mai 2021
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Sommaire
1 Systèmes d’équations linéaires
2 Étude de l’ensemble des solutions
3 Méthode de résolution de Cramer
4 Méthode de résolution de Gauss
5 Méthode de résolution de Gauss-Jordan
6 Inversion de matrice par la méthode de Gauss-Jordan
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Systèmes des équations linéaires
Définition :
On appelle système rectangulaire de type (n, p) ou n × p :
(S)











a11x1 + · · · + a1pxp = b1
a21x1 + · · · + a2pxp = b2
.
.
.
an1x1 + · · · + anpxp = bn
où les inconnues sont les scalaires x1, . . . , xp ∈ K et où les données sont :
les coefficients aij ∈ K, 1 ≤ i ≤ n, 1 ≤ j ≤ p, les seconds membres
bi ∈ K, 1 ≤ i ≤ n. On appelle rang du système le rang de
A = (aij )1≤i≤n,1≤j≤p.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Systèmes des équations linéaires
Définition :
Une solution du système est un p−uplet (x1, . . . , xp) ∈ Kp
qui
vérifie les n équations du système.
Un système est dit homogène si b1 = b2 = · · · = bn = 0.
Deux systèmes linéaires sont équivalents s’ils ont le même ensemble
de solutions.
Remarque :
Un système homogène de type (n, p) admet toujours au moins une
solution. C’est le vecteur
(0, 0, . . . , 0) ∈ Kp
qualifié de solution banale ou triviale.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Systèmes d’équations linéaires
Un système peut avoir plus d’équations que d’inconnues : n > p
(système sur-abondant). C’est le cas du système 4 × 3 suivant :









−x1 + x2 − 5x3 = −7
2x1 − x2 − x3 = 4
3x1 − 2x2 + 4x3 = 11
3x1 + 4x2 − 2x3 = 11
.
Un système peut aussi avoir moins d’équations que d’inconnues : n < p
(système sous-abondant). C’est le cas du système 3 × 5 suivant :





2x1 − 3x2 + x3 + 6x4 − 6x5 = 3
2x1 − 2x2 + 2x3 + 4x4 − 6x5 = 4
−2x1 + 4x2 + x3 − 8x4 + 3x5 = 0
.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Systèmes des équations linéaires
Enfin, un système peut avoir autant d’équations que d’inconnues : n = p
(système carré). C’est le cas du système 3 × 3 suivant :





x1 + x2 = m
x2 + x3 = 2
x1 + 2x2 + x3 = 3
.
Nous verrons que ce système n’admet aucune solution si m 6= 1. Il en
admet une infinité si m = 1 :
(x1, x2, x3) = (−1 + x3, 2 − x3, x3) avec x3 ∈ R.
ATTENTION Ce n’est pas parce qu’un système possède autant
d’équations que d’inconnues qu’il possède nécessairement une solution. Le
« bon » critère porte non pas sur la taille du système mais sur son rang.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Systèmes des équations linéaires
Le système (S) s’écrit sous la forme matricielle suivante :
(EM) AX=B.
Les données sont A et B. L ’inconnue est X :
A =





a11 . . . a1p
a21 . . . a2p
.
.
.
...
.
.
.
an1 . . . anp





= A1 · · · Ap

, B =



b1
b2
.
.
.bn


 et X =



x1
x2
.
.
.xn


 .
L’équation (EM) s’écrit aussi sous la forme matricielle :
(EM0
) x1A1 + x2A2 + . . . + xpAp = B.
où A1, A2, . . . , Ap désignent les colonnes de A.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Étude de l’ensemble des solutions
L’ équation matricielle AX = B peut s’écrire sous la forme vectorielle :
( EV) f(x) =b
où f est l’application linéaire de Kp
vers Kn
associée au système,
b = (b1, b2, . . . , bn) ∈ Kn
et l’inconnue x = (x1, . . . , xp) ∈ Kp
.
L’ensemble des solutions de (EV ) est défini par
S := {x ∈ Kp
: f (x) = b}.
En particulier si b = 0Kn alors S = Kerf 6= ∅.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Étude de l’ensemble des solutions
Exemples :
Soit m ∈ R. On a équivalence entre le système réel 3 × 3 :





x1 + x2 = m
x2 + x3 = 2
x1 + 2x2 + x3 = 3
,
l’équation matricielle :


1 1 0
0 1 1
1 2 1




x1
x2
x3

 =


m
2
3


et l’équation vectorielle : f (x) = b où
x = (x1, x2, x3) ∈ R3
, b = (m, 2, 3) ∈ R3
et f : x ∈ R3
7→ y ∈ R3
, avec
y = (x1 + x2, x2 + x3, x1 + 2x2 + x3).
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Étude de l’ensemble des solutions
Nous avons vu qu’une équation homogène n’est jamais impossible (elle
admet toujours 0Kp pour solution). Et si elle n’est pas homogène ?
Proposition :
Soit b un vecteur de Kn
.
(a) Si b /
∈ Imf alors S = ∅.
(b) Si b ∈ Imf (l’équation (EV) est dite compatible) alors
S = {x0 + xpart : x0 ∈ Kerf }
où xpart est une solution particulière de (EV ), c’est-à-dire :
xpart ∈ Kp
et f (xpart) = b.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Étude de l’ensemble des solutions
Remarque :
Si on note r = rg f alors dimK(Kerf ) = p − r. Supposons qu’il existe une
solution particulière xpart.
(i) Supposons r = p ( c’est-à-dire : dimK(Kerf ) = 0). Il n’ y a alors
qu’une seule solution : S = {xpart}.
(ii) Supposons r  p ( c’est-à-dire dimK(Kerf ) ≥ 1). Notons
BKerf = (v1, . . . , vp−r ) une base de Kerf . Pour tout x ∈ S,
Par conséquent, la forme générale d’une solution dépend de p − r
paramètre(s). Il y a donc une infinité de solutions puisque p − r  0.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Étude de l’ensemble des solutions
En conclusion, une équation vectorielle peut
ne possèder aucune solution ; c’est le cas si
b /
∈ Imf ;
posséder une solution unique ; c’est le cas si
b ∈ Imf et Kerf = {0Kp };
en posséder une infinité ; c’est le cas si
b ∈ Imf et Kerf 6= {0Kp };
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Cramer
Définition :
Un système linéaire de type(n, p) est dit de Cramer s’il possède autant
d’équations que d’inconnues (n = p) et si le rang r du système vérifie :
r = n = p.
Un système de Cramer est un système de la forme :











a11x1 + · · · + a1nxn = b1
a21x1 + · · · + a2nxn = b2
.
.
.
an1x1 + · · · + annxn = bn
avec
a11 . . . a1n
a21 . . . a2n
.
.
.
...
.
.
.
an1 . . . ann
6= 0.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Cramer
Interprétation vectorielle d’un système de Cramer
L ’application linéaire f : Kn
−→ Kn
est bijective :
f ∈ GLK(Kn
).
Ainsi, pour tout vecteur b de Kn
, il existe une unique solution x̃ ∈ Kn
.
On a :
f (x̃) = b ⇐⇒ x̃f −1
(b).
Interprétation matricielle d’un système de Cramer
La matrice A carrée d’ordre n est inversible :
A ∈ GL(K).
Ainsi, pour tout B ∈ Mn,1(K), il existe une unique solution
X̃ ∈ Mn,1(K). On a :
AX̃ = B ⇐⇒ X̃ = A−1
B.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Cramer
Proposition :
Un système de Cramer possède une solution et une seule.
Proposition :
Les coordonnées X̃1, X̃2, . . . , X̃n de l’unique solution d’un système de
Cramer d’équation matricielle AX̃ = B sont :
∀j ∈ {1, . . . , n} X̃j =
det(A1, . . . , Aj−1, B, Aj+1, . . . , An)
det(A)
où A1, A2, . . . , An désignent les colonnes de la matrice A.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Cramer
Exemples :
Considérons dans R le système 3 × 3 d’équation matricielle :


1 0 −1
0 −1 1
−1 2 0

 =


x1
x2
x3

 =


1
1
1

 .
C’est un système de Cramer car son déterminant est non nul (il vaut -1).
Son unique solution est (x̃1, x̃2, x̃2) ∈ R3
avec
x̃1 =
1 0 −1
1 −1 1
1 2 0
1 0 −1
0 −1 1
−1 2 0
, x̃2 =
1 1 −1
0 1 1
−1 1 0
1 0 −1
0 −1 1
−1 2 0
x̃3 =
1 0 −1
0 −1 1
−1 2 1
1 0 −1
0 −1 1
−1 2 0
On obtient x̃1 = 5, x̃2 = 3 et x̃3 = 4.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Gauss
Cette méthode est aussi appelée méthode des pivot de Gauss.
Qu’est-ce que la méthode de Gauss ? C’est une méthode de résolution
systématique d’un système linéaire de type (n, p) :
(S)











a11x1 + · · · + a1pxp = b1
a21x1 + · · · + a2pxp = b2
.
.
.
an1x1 + · · · + anpxp = bn
avec, a priori, aucune condition ni sur l’entier n, ni sur l’entier p ( il faut ,
bien sûr, n ≥ 1 et p ≥ 1 ). On procède en trois étapes :
1 une étape d’élimination,
2 suivie d’une étape de discussion,
3 suivie (éventuellement) d’une étape de remontée.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Gauss
Le but c’est d’écrire le système sous une forme échelonnée. Les
opérations utilisées sont identiques à celles utilisées dans la méthode des
zéros échelonnés :
1 Multiplication de l’équation Ek par un scalaire α ∈ K∗
:
Ek ←− αEk α ∈ K∗
.
2 Addition à une équation d’un multiple d’une autre :
Ek ←− Ek + βE0
k avec β ∈ K.
3 Échange d’équations
Ek ←→ Ek0 .
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Gauss
Soit m ∈ R. Considérons dans R le système 3 × 3 suivant :
(S)





x1 + x2 = m
x2 + x3 = 2
x1 + 2x2 + x3 = 3
.
Effectuons à partir du système (S) l’opération élémentaire
E3 ←− E3 − E1, puis E3 ←− E3 − E2. On obtient le système échelonnée :
(S0
)



x1 + x2 = m
x2 + x3 = 2
0 + 0 + 0 = m − 1
Le système (S0
) est équivalent au système (S). Ici r = 2.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Gauss
Matrice augmentée :
 1 1 0 m
0 1 1 2
1 2 1 3

Élimination ou Echelonnage ou Descente :
 1 2 0 m
0 1 1 2
0 0 0 3 − m

Discussion :
(
• Si m 6= 3 le système est incompatible. Il n’y a pas de solutions.
• Si m = 3
(
x2 = 2 − x3
x1 = 2 − x2 = 2 − (2 − x3) = x3
S = {(x3, 2 − x3, x3)x3 ∈ R}. = (0, 2, 0) + vect{(1, −1, 1)}
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Gauss
À l’issue de l’étape d’élimination, nous nous retrouvons avec le système
(S0
), échelonnée et équivalent à (S), de la forme :



























a0
11x0
1 + a0
12x2 + · · · + a0
1r x0
r + . . . = b0
1
a0
22x2 + · · · + a0
2r x0
r + . . . = b0
2
...
.
.
.
a0
rr x0
r + . . . = b0
r
0 = b0
r+1
.
.
.
0 = b0
n
où les coefficients ( pivots) a0
11, a0
22, . . . , a0
rr sont tous non nuls et où ( en
l’absence de permutation des colonnes )
x0
1 = x1, x0
2 = x2, . . . , x0
p = xp.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Gauss
Deux cas peuvent se produire :
1 S’il existe i ∈ {r + 1, . . . , n} tel que b0
i 6= 0 alors l’égalité ”0 = b0
i ”
absurde. Le système n’est pas compatible :
S = ∅.
2 Si b0
i = 0 pour tout i ∈ {r + 1, . . . , n} alors le système est
compatible (S 6= ∅) : il existe au moins une solution ( c’est un
vecteur de Kp
) qui dépend de p − r paramètre (s).
• Cette solution est peut-être unique. C’est le cas si
r = p.
• Il y en a peut-être une infinité. C’est le cas si
r  p.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Matrice augmentée :





a11 a12 · · · a1p b1
a21 a22 · · · a2p b2
.
.
.
.
.
. · · ·
.
.
.
.
.
.
an1 an2 · · · anp bn





Élimination ou Echelonnage ou Descente :












a11 a12 · · · a1r · · · b1
a0
22 · · · a0
2r · · · b0
2
...
.
.
.
a0
nr · · · b0
r
0 b0
r+1
.
.
.
0 b0
n












M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Discussion :













































• S0
ilexistei ∈ {r + 1, . . . , n} tel que b0
i 6= 0
alors l’égalité ”0 = b0
i ” absurde.
Le système n’est pas compatible. S = ∅.
• Si b0
i = 0 pour tout i ∈ {r + 1, . . . , n}
alors le système est compatible (S 6= ∅) :
il existe au moins une solution ( c’est un vecteur de Kp
)
qui dépend de p − r paramètre (s).











xr =
1
a0
rr

b0
r − a0
rr+1xr+1 + · · · a0
rpxp

.
.
. =
.
.
.
x1 =
1
a11

b1 − a12x2 + · · · a1pxp

M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Gauss
Exemples :
Reprenons l’exemple précédent. Considérons donc le système échelonné :
(S0
)





x1 + x2 = m
x2 + x3 = 2
x1 + 2x2 + x2 = 3
.
Considérons les deux cas suivants :
1 Si m 6= 1 alors le système est incompatible. Il n’y a donc pas de
solution : S = ∅.
2 Si m = 1 alors le système est compatible. Il y a au moins une
solution qui dépend de 3 − 2 = 1 paramètre. Il y a donc une infinité
de solutions
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Gauss
Comment obtenir la (ou les) solution(s) ? On procède en deux temps.
1 On commence par écrire le système (S00
) obtenu à partir du
système échelonné (S0
)
• en supprimant les équations de la forme « 0 = 0 »,
• en faisant passer aux seconds membres les x0
r+1, . . . , x0
p.
Les inconnues sont à présent les scalaires x0
1, x0
2, . . . , x0
r . Ce sont les
inconnues principales. Le système (S00
) est de Cramer.
2 On résout ensuite (S00
) en partant de la dernière équation, puis en
remontant jusqu’à la première équation.
À l’issue de cette étape de remontée, les inconnues principales de cette
étape de remontée, les inconnues principales x0
1, x0
2, . . . , x0
r s’expriment de
x0
r+1, . . . , x0
p.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Exemples :
Reprenons l’exemple précédent. Soit m = 1(C 6= ∅). Remplaçons (S0
) par
le système suivant :
(S00
)
(
x1 + x2 = 1
x2 = 2 −x3
d’inconnues x1, x2 et paramétré par x3. On obtient : x2 = 2 − x3, puis
x1 = −1 + x3. Une solution générale est un vecteur de R3
d’expression :
(x1, x2, x3) = (−1 + x3, 2 − x3, x3) avec x3 ∈ R.
L’ensemble des solutions s’écrit ainsi :
S = {x0 + xpart : x0 ∈ Kerf }
avec part = (−1, 2, 0) et Kerf = R(1, −1, 1).
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Remarque :
Si r = n alors le système échelonné équivalent (S0
) s’écrit :
(S0
)











a0
11x0
1 + a0
12x2 + · · · + a0
1nx0
n+ . . . = b0
1
a0
22x2 + · · · + a0
2nx0
n+ . . . = b0
2
...
.
.
.
a0
nnx0
n+ . . . = b0
n
Remarquons qu’il n’y a pas d’égalité de la forme  0 = bi ’.
• Cela traduit le fait que le système est nécessairement compatible. Il
y a donc au moins une solution, c’est-à-dire une seule ou une
infinité.
• L’étape de discussion est donc ici inutile. On peut passer
directement à l’étape de remontée.
C’est exactement le cas dans l’exemple qui suit.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Étude d’un système sous-abondant
Considérons dans R le système 3 × 5 suivant :





2x1 − 3x2 + x3 + 6x4 − 6x5 = 3
2x1 − 2x2 + 2x3 + 4x4 − 6x5 = 4
−2x1 + 4x2 + x3 − 8x4 + 3x5 = 3
L ’étape d’élimination conduit au système échelonné équivalent (r=3) :





2x1 − 3x2 + x3 + 6x4 − 6x5 = 3
x2 + x3 − 2x4 = 1
x3 − 3x5 = 2
Il s’en suit que le système est compatible. Il y a au moins une solution qui
dépend de 5 − 3 = 2 paramètres. Il y a donc une infinité de solutions.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
L’étape remontée consiste à résoudre le système :





2x1 − 3x2 + x3 = 3 − 6x4 + 6x5
x2 + x3 = 1 + 2x4
x3 2 + x5
d’inconnues x1, x2 et x3 et paramétré par x4 et x5. On a :
x3 = 2 + 3x5, x2 = −1 + 2x4 − 3x5, x1 = −1 − 3x5.
Une solution générale est un vecteur de R5
de la forme :
(x1, x2, x3, x4, x5) = (−1 − 3x5, −1 + 2x4 − 3x5, 2 + 3x5, x4, x5)
où chacun des paramètres x4 et x5 parcourt R. L’ensemble des solutions
s’écrit ainsi :
S = {x0 + xpart : x0 ∈ Kerf } avec xpart = (−1, −1, 2, 0, 0)
et
Kerf = Vect

(0, 2, 0, 1, 0), (−3, −3, 3, 0, 1)

.
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de Gauss
Considérons dans R le système suivant :



x1 + x2 + 2x3 = −1
3x1 + 2x2 + x3 = 2
−2x1 − x2 + x3 = −3
;


1 1 2 -1
3 2 1 2
-2 -1 1 -3

 Matrice augmentée


1 1 2 -1
3 2 1 2
-2 -1 1 -3




1 1 2 -1
0 -1 -5 5
0 1 5 -5




1 1 2 -1
0 -1 -5 5
0 0 0 0




1 1 2 -1
0 1 5 -5
0 0 0 0

 Matrice augmentée échelonnée
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Méthode de résolution de Gauss-Jordan
Soi à résoudre le système suivant :





2x + y − 4z = 8
3x + 3y − 5z = 14
4x + 5y − 2z = 16
;


2 1 −4 8
3 3 −5 14
4 5 −2 16

 ; Matrice augmentée


1 1/2 −2 4
3 3 −5 14
4 5 −2 16




1 1/2 −2 4
0 3/2 1 2
0 3 6 0

 ;


1 1/2 −2 4
0 1 2/3 4/3
0 3 6 0

 ;


1 0 −7/3 10/3
0 1 2/3 4/3
0 0 4 −4

 ;


1 0 −7/3 10/3
0 1 2/3 4/3
0 0 1 −1

 ;


1 0 0 1
0 1 0 2
0 0 1 −1

 ;
Matrice augmentée échelonnée réduite
S = {(1, 2, −1)}
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Soit à résoudre le système :



x1 + x2 + 2x3 = −1
3x1 + 2x2 + x3 = 2
−2x1 − x2 + x3 = −3
;


1 1 2 -1
3 2 1 2
-2 -1 1 -3

 Matrice augmentée


1 1 2 -1
0 -1 -5 5
0 1 5 -5

 ;


1 1 2 -1
0 1 5 -5
0 1 5 -5

 ;


1 0 -3 4
0 1 5 -5
0 0 0 0


Le système est compatible. x1 et x2 sont des variables principales
x3 est une variable auxilliaire.
S = {(4 + 3x, −5 − 5x, x)x ∈ R} = (4, −5, 0) + vect{(3, 5, 1)}
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Inversion de matrice par la méthode de
Gauss-Jordan
Soit A ∈ GLK(Kn
) (matrice inversible) d’inverse A−1
. Notons par
C1, · · · , Cn les colonnes de A−1
.
A A−1
= A(C1 C2 · · · Cn) = (e1 e2 · · · en)
= (AC1 AC2 · · · ACn) = (e1 e2 · · · en)
Résolution de n systèmes linéaire :
AC1 = e1, matrice augmentée associée est (A|e1);
AC2 = e2, matrice augmentée associée est (A|e2);
.
.
. =
.
.
.
ACn = en, matrice augmentée associée est (A|en);
On peut écrire simultanément tous ces systèmes sous la forme de :
(A|e1e2 · · · en) = (A|In)
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Inversion de matrice par la méthode de
Gauss-Jordan
Calcul de l’inverse de la matrice A :
A =


2 1 −4
3 3 −5
4 5 −2

 ;


2 1 −4 1 0 0
3 3 −5 0 1 0
4 5 −2 0 0 1

 , matrice augmentée


1 1/2 −2 1/2 0 0
3 3 −5 0 1 0
4 5 −2 0 0 1

 ;


1 1/2 −2 1/2 0 0
0 3/2 1 −3/2 1 0
0 3 6 −2 0 1

 ;


1 1/2 −2 1/2 0 0
0 1 2/3 −1 2/3 0
0 3 6 −2 0 1

 ;


1 0 −7/3 1 −1/3 0
0 1 2/3 −1 2/3 0
0 0 4 1 −2 1

 ;


1 0 −7/3 1 −1/3 0
0 1 2/3 −1 2/3 0
0 0 1 1/4 −1/2 1/4

 ;


1 0 0 19/12 −3/2 7/12
0 1 0 −7/6 1 −1/6
0 0 1 1/4 −1/2 1/4


M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
I3 est la matrice échelonnée réduite de A.
A−1
=


19/12 −3/2 7/12
−7/6 1 −1/6
1/4 −1/2 1/4

 =
1
12


19 −18 7
−14 12 −2
3 −6 3

 ;
M. Ghilani Algèbre linéaire
Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode
Fin du chapitre
M. Ghilani Algèbre linéaire

Contenu connexe

Similaire à seance-07.pdf

Analyse Numérique Chapitre 1: Équations Non Linéiares
Analyse Numérique Chapitre 1: Équations Non LinéiaresAnalyse Numérique Chapitre 1: Équations Non Linéiares
Analyse Numérique Chapitre 1: Équations Non Linéiaresbilal001
 
Laffly regression multiple
Laffly regression multipleLaffly regression multiple
Laffly regression multiplemohamedchaouche
 
SYStèmes d'équations linéaires
SYStèmes d'équations linéairesSYStèmes d'équations linéaires
SYStèmes d'équations linéairessarah Benmerzouk
 
Minimal Submanifolds Z.C
Minimal Submanifolds Z.CMinimal Submanifolds Z.C
Minimal Submanifolds Z.CZahraa Cheaitou
 
Exercices corriges application_lineaire_et_determinants
Exercices corriges application_lineaire_et_determinantsExercices corriges application_lineaire_et_determinants
Exercices corriges application_lineaire_et_determinantssarah Benmerzouk
 
Moyen de-recherche-d-emploi
Moyen de-recherche-d-emploiMoyen de-recherche-d-emploi
Moyen de-recherche-d-emploiKarim Amane
 
Algebre_lineaire_GEOLOGIE-S1.pdf
Algebre_lineaire_GEOLOGIE-S1.pdfAlgebre_lineaire_GEOLOGIE-S1.pdf
Algebre_lineaire_GEOLOGIE-S1.pdfThierrySam1
 
Cours programmation en matlab2 (1)
Cours programmation en matlab2 (1)Cours programmation en matlab2 (1)
Cours programmation en matlab2 (1)Guesmi Amal
 
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdffr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdfSidiAbdallah1
 
Performances dans la segmentation d’images médicales
Performances dans la segmentation d’images médicalesPerformances dans la segmentation d’images médicales
Performances dans la segmentation d’images médicalesEL-Hachemi Guerrout
 
T. Masrour - cours dynamique des systèmes - vibrations - chapitre1-1ddl chapi...
T. Masrour - cours dynamique des systèmes - vibrations - chapitre1-1ddl chapi...T. Masrour - cours dynamique des systèmes - vibrations - chapitre1-1ddl chapi...
T. Masrour - cours dynamique des systèmes - vibrations - chapitre1-1ddl chapi...tawfik-masrour
 
Laffly regression multiple
Laffly regression multipleLaffly regression multiple
Laffly regression multipleafryma
 
Laffly regression multiple
Laffly regression multipleLaffly regression multiple
Laffly regression multipleafryma
 
slides statistique mathématique.pdf
slides statistique mathématique.pdfslides statistique mathématique.pdf
slides statistique mathématique.pdfFadwaZiani
 
Etude d'article d'optimisation : Proximal algorithms
Etude d'article d'optimisation : Proximal algorithmsEtude d'article d'optimisation : Proximal algorithms
Etude d'article d'optimisation : Proximal algorithmsKhalilBergaoui
 
Ex determ
Ex determEx determ
Ex determbades12
 
Omp math nombres-complexes
Omp math nombres-complexesOmp math nombres-complexes
Omp math nombres-complexesAhmed Ali
 

Similaire à seance-07.pdf (20)

Analyse Numérique Chapitre 1: Équations Non Linéiares
Analyse Numérique Chapitre 1: Équations Non LinéiaresAnalyse Numérique Chapitre 1: Équations Non Linéiares
Analyse Numérique Chapitre 1: Équations Non Linéiares
 
Laffly regression multiple
Laffly regression multipleLaffly regression multiple
Laffly regression multiple
 
SYStèmes d'équations linéaires
SYStèmes d'équations linéairesSYStèmes d'équations linéaires
SYStèmes d'équations linéaires
 
Minimal Submanifolds Z.C
Minimal Submanifolds Z.CMinimal Submanifolds Z.C
Minimal Submanifolds Z.C
 
Exercices corriges application_lineaire_et_determinants
Exercices corriges application_lineaire_et_determinantsExercices corriges application_lineaire_et_determinants
Exercices corriges application_lineaire_et_determinants
 
Moyen de-recherche-d-emploi
Moyen de-recherche-d-emploiMoyen de-recherche-d-emploi
Moyen de-recherche-d-emploi
 
Algebre_lineaire_GEOLOGIE-S1.pdf
Algebre_lineaire_GEOLOGIE-S1.pdfAlgebre_lineaire_GEOLOGIE-S1.pdf
Algebre_lineaire_GEOLOGIE-S1.pdf
 
Cours programmation en matlab2 (1)
Cours programmation en matlab2 (1)Cours programmation en matlab2 (1)
Cours programmation en matlab2 (1)
 
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdffr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
fr_Tanagra_Naive_Bayes_Classifier_Explained.pdf
 
Performances dans la segmentation d’images médicales
Performances dans la segmentation d’images médicalesPerformances dans la segmentation d’images médicales
Performances dans la segmentation d’images médicales
 
T. Masrour - cours dynamique des systèmes - vibrations - chapitre1-1ddl chapi...
T. Masrour - cours dynamique des systèmes - vibrations - chapitre1-1ddl chapi...T. Masrour - cours dynamique des systèmes - vibrations - chapitre1-1ddl chapi...
T. Masrour - cours dynamique des systèmes - vibrations - chapitre1-1ddl chapi...
 
Laffly regression multiple
Laffly regression multipleLaffly regression multiple
Laffly regression multiple
 
Laffly regression multiple
Laffly regression multipleLaffly regression multiple
Laffly regression multiple
 
slides statistique mathématique.pdf
slides statistique mathématique.pdfslides statistique mathématique.pdf
slides statistique mathématique.pdf
 
Oc1 2013
Oc1 2013Oc1 2013
Oc1 2013
 
Tadti crs3-n
Tadti crs3-nTadti crs3-n
Tadti crs3-n
 
Etude d'article d'optimisation : Proximal algorithms
Etude d'article d'optimisation : Proximal algorithmsEtude d'article d'optimisation : Proximal algorithms
Etude d'article d'optimisation : Proximal algorithms
 
Ex determ
Ex determEx determ
Ex determ
 
transparents-Algo-correction.pdf
transparents-Algo-correction.pdftransparents-Algo-correction.pdf
transparents-Algo-correction.pdf
 
Omp math nombres-complexes
Omp math nombres-complexesOmp math nombres-complexes
Omp math nombres-complexes
 

Dernier

GAL2024 - Changements climatiques et maladies émergentes
GAL2024 - Changements climatiques et maladies émergentesGAL2024 - Changements climatiques et maladies émergentes
GAL2024 - Changements climatiques et maladies émergentesInstitut de l'Elevage - Idele
 
JTC 2024 - SMARTER Retour sur les indicateurs de santé .pdf
JTC 2024 - SMARTER Retour sur les indicateurs de santé .pdfJTC 2024 - SMARTER Retour sur les indicateurs de santé .pdf
JTC 2024 - SMARTER Retour sur les indicateurs de santé .pdfInstitut de l'Elevage - Idele
 
GAL2024 - Traite des vaches laitières : au coeur des stratégies d'évolution d...
GAL2024 - Traite des vaches laitières : au coeur des stratégies d'évolution d...GAL2024 - Traite des vaches laitières : au coeur des stratégies d'évolution d...
GAL2024 - Traite des vaches laitières : au coeur des stratégies d'évolution d...Institut de l'Elevage - Idele
 
GAL2024 - L'élevage laitier cultive la biodiversité
GAL2024 - L'élevage laitier cultive la biodiversitéGAL2024 - L'élevage laitier cultive la biodiversité
GAL2024 - L'élevage laitier cultive la biodiversitéInstitut de l'Elevage - Idele
 
GAL2024 - Situation laitière 2023-2024 : consommation, marchés, prix et revenus
GAL2024 - Situation laitière 2023-2024 : consommation, marchés, prix et revenusGAL2024 - Situation laitière 2023-2024 : consommation, marchés, prix et revenus
GAL2024 - Situation laitière 2023-2024 : consommation, marchés, prix et revenusInstitut de l'Elevage - Idele
 
JTC 2024 - Réglementation européenne BEA et Transport.pdf
JTC 2024 - Réglementation européenne BEA et Transport.pdfJTC 2024 - Réglementation européenne BEA et Transport.pdf
JTC 2024 - Réglementation européenne BEA et Transport.pdfInstitut de l'Elevage - Idele
 
Câblage, installation et paramétrage d’un réseau informatique.pdf
Câblage, installation et paramétrage d’un réseau informatique.pdfCâblage, installation et paramétrage d’un réseau informatique.pdf
Câblage, installation et paramétrage d’un réseau informatique.pdfmia884611
 
JTC 2024 La relance de la filière de la viande de chevreau.pdf
JTC 2024 La relance de la filière de la viande de chevreau.pdfJTC 2024 La relance de la filière de la viande de chevreau.pdf
JTC 2024 La relance de la filière de la viande de chevreau.pdfInstitut de l'Elevage - Idele
 
GAL2024 - Renouvellement des actifs : un enjeu pour la filière laitière franç...
GAL2024 - Renouvellement des actifs : un enjeu pour la filière laitière franç...GAL2024 - Renouvellement des actifs : un enjeu pour la filière laitière franç...
GAL2024 - Renouvellement des actifs : un enjeu pour la filière laitière franç...Institut de l'Elevage - Idele
 
comprehension de DDMRP dans le domaine de gestion
comprehension de DDMRP dans le domaine de gestioncomprehension de DDMRP dans le domaine de gestion
comprehension de DDMRP dans le domaine de gestionyakinekaidouchi1
 
JTC 2024 - Leviers d’adaptation au changement climatique, qualité du lait et ...
JTC 2024 - Leviers d’adaptation au changement climatique, qualité du lait et ...JTC 2024 - Leviers d’adaptation au changement climatique, qualité du lait et ...
JTC 2024 - Leviers d’adaptation au changement climatique, qualité du lait et ...Institut de l'Elevage - Idele
 
GAL2024 - Décarbonation du secteur laitier : la filière s'engage
GAL2024 - Décarbonation du secteur laitier : la filière s'engageGAL2024 - Décarbonation du secteur laitier : la filière s'engage
GAL2024 - Décarbonation du secteur laitier : la filière s'engageInstitut de l'Elevage - Idele
 
Algo II : les piles ( cours + exercices)
Algo II :  les piles ( cours + exercices)Algo II :  les piles ( cours + exercices)
Algo II : les piles ( cours + exercices)Sana REFAI
 

Dernier (15)

GAL2024 - Changements climatiques et maladies émergentes
GAL2024 - Changements climatiques et maladies émergentesGAL2024 - Changements climatiques et maladies émergentes
GAL2024 - Changements climatiques et maladies émergentes
 
JTC 2024 - SMARTER Retour sur les indicateurs de santé .pdf
JTC 2024 - SMARTER Retour sur les indicateurs de santé .pdfJTC 2024 - SMARTER Retour sur les indicateurs de santé .pdf
JTC 2024 - SMARTER Retour sur les indicateurs de santé .pdf
 
JTC 2024 - DeCremoux_Anomalies_génétiques.pdf
JTC 2024 - DeCremoux_Anomalies_génétiques.pdfJTC 2024 - DeCremoux_Anomalies_génétiques.pdf
JTC 2024 - DeCremoux_Anomalies_génétiques.pdf
 
GAL2024 - Traite des vaches laitières : au coeur des stratégies d'évolution d...
GAL2024 - Traite des vaches laitières : au coeur des stratégies d'évolution d...GAL2024 - Traite des vaches laitières : au coeur des stratégies d'évolution d...
GAL2024 - Traite des vaches laitières : au coeur des stratégies d'évolution d...
 
GAL2024 - L'élevage laitier cultive la biodiversité
GAL2024 - L'élevage laitier cultive la biodiversitéGAL2024 - L'élevage laitier cultive la biodiversité
GAL2024 - L'élevage laitier cultive la biodiversité
 
GAL2024 - Situation laitière 2023-2024 : consommation, marchés, prix et revenus
GAL2024 - Situation laitière 2023-2024 : consommation, marchés, prix et revenusGAL2024 - Situation laitière 2023-2024 : consommation, marchés, prix et revenus
GAL2024 - Situation laitière 2023-2024 : consommation, marchés, prix et revenus
 
JTC 2024 - Réglementation européenne BEA et Transport.pdf
JTC 2024 - Réglementation européenne BEA et Transport.pdfJTC 2024 - Réglementation européenne BEA et Transport.pdf
JTC 2024 - Réglementation européenne BEA et Transport.pdf
 
Câblage, installation et paramétrage d’un réseau informatique.pdf
Câblage, installation et paramétrage d’un réseau informatique.pdfCâblage, installation et paramétrage d’un réseau informatique.pdf
Câblage, installation et paramétrage d’un réseau informatique.pdf
 
JTC 2024 La relance de la filière de la viande de chevreau.pdf
JTC 2024 La relance de la filière de la viande de chevreau.pdfJTC 2024 La relance de la filière de la viande de chevreau.pdf
JTC 2024 La relance de la filière de la viande de chevreau.pdf
 
GAL2024 - Renouvellement des actifs : un enjeu pour la filière laitière franç...
GAL2024 - Renouvellement des actifs : un enjeu pour la filière laitière franç...GAL2024 - Renouvellement des actifs : un enjeu pour la filière laitière franç...
GAL2024 - Renouvellement des actifs : un enjeu pour la filière laitière franç...
 
comprehension de DDMRP dans le domaine de gestion
comprehension de DDMRP dans le domaine de gestioncomprehension de DDMRP dans le domaine de gestion
comprehension de DDMRP dans le domaine de gestion
 
JTC 2024 - Leviers d’adaptation au changement climatique, qualité du lait et ...
JTC 2024 - Leviers d’adaptation au changement climatique, qualité du lait et ...JTC 2024 - Leviers d’adaptation au changement climatique, qualité du lait et ...
JTC 2024 - Leviers d’adaptation au changement climatique, qualité du lait et ...
 
GAL2024 - Décarbonation du secteur laitier : la filière s'engage
GAL2024 - Décarbonation du secteur laitier : la filière s'engageGAL2024 - Décarbonation du secteur laitier : la filière s'engage
GAL2024 - Décarbonation du secteur laitier : la filière s'engage
 
CAP2ER_GC_Presentation_Outil_20240422.pptx
CAP2ER_GC_Presentation_Outil_20240422.pptxCAP2ER_GC_Presentation_Outil_20240422.pptx
CAP2ER_GC_Presentation_Outil_20240422.pptx
 
Algo II : les piles ( cours + exercices)
Algo II :  les piles ( cours + exercices)Algo II :  les piles ( cours + exercices)
Algo II : les piles ( cours + exercices)
 

seance-07.pdf

  • 1. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Résolution des systèmes linéaires M. Ghilani Université Moulay Ismail, Meknès 25 mai 2021 M. Ghilani Algèbre linéaire
  • 2. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Sommaire 1 Systèmes d’équations linéaires 2 Étude de l’ensemble des solutions 3 Méthode de résolution de Cramer 4 Méthode de résolution de Gauss 5 Méthode de résolution de Gauss-Jordan 6 Inversion de matrice par la méthode de Gauss-Jordan M. Ghilani Algèbre linéaire
  • 3. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Systèmes des équations linéaires Définition : On appelle système rectangulaire de type (n, p) ou n × p : (S)            a11x1 + · · · + a1pxp = b1 a21x1 + · · · + a2pxp = b2 . . . an1x1 + · · · + anpxp = bn où les inconnues sont les scalaires x1, . . . , xp ∈ K et où les données sont : les coefficients aij ∈ K, 1 ≤ i ≤ n, 1 ≤ j ≤ p, les seconds membres bi ∈ K, 1 ≤ i ≤ n. On appelle rang du système le rang de A = (aij )1≤i≤n,1≤j≤p. M. Ghilani Algèbre linéaire
  • 4. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Systèmes des équations linéaires Définition : Une solution du système est un p−uplet (x1, . . . , xp) ∈ Kp qui vérifie les n équations du système. Un système est dit homogène si b1 = b2 = · · · = bn = 0. Deux systèmes linéaires sont équivalents s’ils ont le même ensemble de solutions. Remarque : Un système homogène de type (n, p) admet toujours au moins une solution. C’est le vecteur (0, 0, . . . , 0) ∈ Kp qualifié de solution banale ou triviale. M. Ghilani Algèbre linéaire
  • 5. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Systèmes d’équations linéaires Un système peut avoir plus d’équations que d’inconnues : n > p (système sur-abondant). C’est le cas du système 4 × 3 suivant :          −x1 + x2 − 5x3 = −7 2x1 − x2 − x3 = 4 3x1 − 2x2 + 4x3 = 11 3x1 + 4x2 − 2x3 = 11 . Un système peut aussi avoir moins d’équations que d’inconnues : n < p (système sous-abondant). C’est le cas du système 3 × 5 suivant :      2x1 − 3x2 + x3 + 6x4 − 6x5 = 3 2x1 − 2x2 + 2x3 + 4x4 − 6x5 = 4 −2x1 + 4x2 + x3 − 8x4 + 3x5 = 0 . M. Ghilani Algèbre linéaire
  • 6. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Systèmes des équations linéaires Enfin, un système peut avoir autant d’équations que d’inconnues : n = p (système carré). C’est le cas du système 3 × 3 suivant :      x1 + x2 = m x2 + x3 = 2 x1 + 2x2 + x3 = 3 . Nous verrons que ce système n’admet aucune solution si m 6= 1. Il en admet une infinité si m = 1 : (x1, x2, x3) = (−1 + x3, 2 − x3, x3) avec x3 ∈ R. ATTENTION Ce n’est pas parce qu’un système possède autant d’équations que d’inconnues qu’il possède nécessairement une solution. Le « bon » critère porte non pas sur la taille du système mais sur son rang. M. Ghilani Algèbre linéaire
  • 7. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Systèmes des équations linéaires Le système (S) s’écrit sous la forme matricielle suivante : (EM) AX=B. Les données sont A et B. L ’inconnue est X : A =      a11 . . . a1p a21 . . . a2p . . . ... . . . an1 . . . anp      = A1 · · · Ap , B =    b1 b2 . . .bn    et X =    x1 x2 . . .xn    . L’équation (EM) s’écrit aussi sous la forme matricielle : (EM0 ) x1A1 + x2A2 + . . . + xpAp = B. où A1, A2, . . . , Ap désignent les colonnes de A. M. Ghilani Algèbre linéaire
  • 8. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Étude de l’ensemble des solutions L’ équation matricielle AX = B peut s’écrire sous la forme vectorielle : ( EV) f(x) =b où f est l’application linéaire de Kp vers Kn associée au système, b = (b1, b2, . . . , bn) ∈ Kn et l’inconnue x = (x1, . . . , xp) ∈ Kp . L’ensemble des solutions de (EV ) est défini par S := {x ∈ Kp : f (x) = b}. En particulier si b = 0Kn alors S = Kerf 6= ∅. M. Ghilani Algèbre linéaire
  • 9. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Étude de l’ensemble des solutions Exemples : Soit m ∈ R. On a équivalence entre le système réel 3 × 3 :      x1 + x2 = m x2 + x3 = 2 x1 + 2x2 + x3 = 3 , l’équation matricielle :   1 1 0 0 1 1 1 2 1     x1 x2 x3   =   m 2 3   et l’équation vectorielle : f (x) = b où x = (x1, x2, x3) ∈ R3 , b = (m, 2, 3) ∈ R3 et f : x ∈ R3 7→ y ∈ R3 , avec y = (x1 + x2, x2 + x3, x1 + 2x2 + x3). M. Ghilani Algèbre linéaire
  • 10. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Étude de l’ensemble des solutions Nous avons vu qu’une équation homogène n’est jamais impossible (elle admet toujours 0Kp pour solution). Et si elle n’est pas homogène ? Proposition : Soit b un vecteur de Kn . (a) Si b / ∈ Imf alors S = ∅. (b) Si b ∈ Imf (l’équation (EV) est dite compatible) alors S = {x0 + xpart : x0 ∈ Kerf } où xpart est une solution particulière de (EV ), c’est-à-dire : xpart ∈ Kp et f (xpart) = b. M. Ghilani Algèbre linéaire
  • 11. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Étude de l’ensemble des solutions Remarque : Si on note r = rg f alors dimK(Kerf ) = p − r. Supposons qu’il existe une solution particulière xpart. (i) Supposons r = p ( c’est-à-dire : dimK(Kerf ) = 0). Il n’ y a alors qu’une seule solution : S = {xpart}. (ii) Supposons r p ( c’est-à-dire dimK(Kerf ) ≥ 1). Notons BKerf = (v1, . . . , vp−r ) une base de Kerf . Pour tout x ∈ S, Par conséquent, la forme générale d’une solution dépend de p − r paramètre(s). Il y a donc une infinité de solutions puisque p − r 0. M. Ghilani Algèbre linéaire
  • 12. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Étude de l’ensemble des solutions En conclusion, une équation vectorielle peut ne possèder aucune solution ; c’est le cas si b / ∈ Imf ; posséder une solution unique ; c’est le cas si b ∈ Imf et Kerf = {0Kp }; en posséder une infinité ; c’est le cas si b ∈ Imf et Kerf 6= {0Kp }; M. Ghilani Algèbre linéaire
  • 13. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Cramer Définition : Un système linéaire de type(n, p) est dit de Cramer s’il possède autant d’équations que d’inconnues (n = p) et si le rang r du système vérifie : r = n = p. Un système de Cramer est un système de la forme :            a11x1 + · · · + a1nxn = b1 a21x1 + · · · + a2nxn = b2 . . . an1x1 + · · · + annxn = bn avec a11 . . . a1n a21 . . . a2n . . . ... . . . an1 . . . ann 6= 0. M. Ghilani Algèbre linéaire
  • 14. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Cramer Interprétation vectorielle d’un système de Cramer L ’application linéaire f : Kn −→ Kn est bijective : f ∈ GLK(Kn ). Ainsi, pour tout vecteur b de Kn , il existe une unique solution x̃ ∈ Kn . On a : f (x̃) = b ⇐⇒ x̃f −1 (b). Interprétation matricielle d’un système de Cramer La matrice A carrée d’ordre n est inversible : A ∈ GL(K). Ainsi, pour tout B ∈ Mn,1(K), il existe une unique solution X̃ ∈ Mn,1(K). On a : AX̃ = B ⇐⇒ X̃ = A−1 B. M. Ghilani Algèbre linéaire
  • 15. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Cramer Proposition : Un système de Cramer possède une solution et une seule. Proposition : Les coordonnées X̃1, X̃2, . . . , X̃n de l’unique solution d’un système de Cramer d’équation matricielle AX̃ = B sont : ∀j ∈ {1, . . . , n} X̃j = det(A1, . . . , Aj−1, B, Aj+1, . . . , An) det(A) où A1, A2, . . . , An désignent les colonnes de la matrice A. M. Ghilani Algèbre linéaire
  • 16. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Cramer Exemples : Considérons dans R le système 3 × 3 d’équation matricielle :   1 0 −1 0 −1 1 −1 2 0   =   x1 x2 x3   =   1 1 1   . C’est un système de Cramer car son déterminant est non nul (il vaut -1). Son unique solution est (x̃1, x̃2, x̃2) ∈ R3 avec x̃1 = 1 0 −1 1 −1 1 1 2 0 1 0 −1 0 −1 1 −1 2 0 , x̃2 = 1 1 −1 0 1 1 −1 1 0 1 0 −1 0 −1 1 −1 2 0 x̃3 = 1 0 −1 0 −1 1 −1 2 1 1 0 −1 0 −1 1 −1 2 0 On obtient x̃1 = 5, x̃2 = 3 et x̃3 = 4. M. Ghilani Algèbre linéaire
  • 17. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Gauss Cette méthode est aussi appelée méthode des pivot de Gauss. Qu’est-ce que la méthode de Gauss ? C’est une méthode de résolution systématique d’un système linéaire de type (n, p) : (S)            a11x1 + · · · + a1pxp = b1 a21x1 + · · · + a2pxp = b2 . . . an1x1 + · · · + anpxp = bn avec, a priori, aucune condition ni sur l’entier n, ni sur l’entier p ( il faut , bien sûr, n ≥ 1 et p ≥ 1 ). On procède en trois étapes : 1 une étape d’élimination, 2 suivie d’une étape de discussion, 3 suivie (éventuellement) d’une étape de remontée. M. Ghilani Algèbre linéaire
  • 18. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Gauss Le but c’est d’écrire le système sous une forme échelonnée. Les opérations utilisées sont identiques à celles utilisées dans la méthode des zéros échelonnés : 1 Multiplication de l’équation Ek par un scalaire α ∈ K∗ : Ek ←− αEk α ∈ K∗ . 2 Addition à une équation d’un multiple d’une autre : Ek ←− Ek + βE0 k avec β ∈ K. 3 Échange d’équations Ek ←→ Ek0 . M. Ghilani Algèbre linéaire
  • 19. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Gauss Soit m ∈ R. Considérons dans R le système 3 × 3 suivant : (S)      x1 + x2 = m x2 + x3 = 2 x1 + 2x2 + x3 = 3 . Effectuons à partir du système (S) l’opération élémentaire E3 ←− E3 − E1, puis E3 ←− E3 − E2. On obtient le système échelonnée : (S0 )    x1 + x2 = m x2 + x3 = 2 0 + 0 + 0 = m − 1 Le système (S0 ) est équivalent au système (S). Ici r = 2. M. Ghilani Algèbre linéaire
  • 20. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Gauss Matrice augmentée : 1 1 0 m 0 1 1 2 1 2 1 3 Élimination ou Echelonnage ou Descente : 1 2 0 m 0 1 1 2 0 0 0 3 − m Discussion : ( • Si m 6= 3 le système est incompatible. Il n’y a pas de solutions. • Si m = 3 ( x2 = 2 − x3 x1 = 2 − x2 = 2 − (2 − x3) = x3 S = {(x3, 2 − x3, x3)x3 ∈ R}. = (0, 2, 0) + vect{(1, −1, 1)} M. Ghilani Algèbre linéaire
  • 21. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Gauss À l’issue de l’étape d’élimination, nous nous retrouvons avec le système (S0 ), échelonnée et équivalent à (S), de la forme :                            a0 11x0 1 + a0 12x2 + · · · + a0 1r x0 r + . . . = b0 1 a0 22x2 + · · · + a0 2r x0 r + . . . = b0 2 ... . . . a0 rr x0 r + . . . = b0 r 0 = b0 r+1 . . . 0 = b0 n où les coefficients ( pivots) a0 11, a0 22, . . . , a0 rr sont tous non nuls et où ( en l’absence de permutation des colonnes ) x0 1 = x1, x0 2 = x2, . . . , x0 p = xp. M. Ghilani Algèbre linéaire
  • 22. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Gauss Deux cas peuvent se produire : 1 S’il existe i ∈ {r + 1, . . . , n} tel que b0 i 6= 0 alors l’égalité ”0 = b0 i ” absurde. Le système n’est pas compatible : S = ∅. 2 Si b0 i = 0 pour tout i ∈ {r + 1, . . . , n} alors le système est compatible (S 6= ∅) : il existe au moins une solution ( c’est un vecteur de Kp ) qui dépend de p − r paramètre (s). • Cette solution est peut-être unique. C’est le cas si r = p. • Il y en a peut-être une infinité. C’est le cas si r p. M. Ghilani Algèbre linéaire
  • 23. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Matrice augmentée :      a11 a12 · · · a1p b1 a21 a22 · · · a2p b2 . . . . . . · · · . . . . . . an1 an2 · · · anp bn      Élimination ou Echelonnage ou Descente :             a11 a12 · · · a1r · · · b1 a0 22 · · · a0 2r · · · b0 2 ... . . . a0 nr · · · b0 r 0 b0 r+1 . . . 0 b0 n             M. Ghilani Algèbre linéaire
  • 24. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Discussion :                                              • S0 ilexistei ∈ {r + 1, . . . , n} tel que b0 i 6= 0 alors l’égalité ”0 = b0 i ” absurde. Le système n’est pas compatible. S = ∅. • Si b0 i = 0 pour tout i ∈ {r + 1, . . . , n} alors le système est compatible (S 6= ∅) : il existe au moins une solution ( c’est un vecteur de Kp ) qui dépend de p − r paramètre (s).            xr = 1 a0 rr b0 r − a0 rr+1xr+1 + · · · a0 rpxp . . . = . . . x1 = 1 a11 b1 − a12x2 + · · · a1pxp M. Ghilani Algèbre linéaire
  • 25. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Gauss Exemples : Reprenons l’exemple précédent. Considérons donc le système échelonné : (S0 )      x1 + x2 = m x2 + x3 = 2 x1 + 2x2 + x2 = 3 . Considérons les deux cas suivants : 1 Si m 6= 1 alors le système est incompatible. Il n’y a donc pas de solution : S = ∅. 2 Si m = 1 alors le système est compatible. Il y a au moins une solution qui dépend de 3 − 2 = 1 paramètre. Il y a donc une infinité de solutions M. Ghilani Algèbre linéaire
  • 26. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Gauss Comment obtenir la (ou les) solution(s) ? On procède en deux temps. 1 On commence par écrire le système (S00 ) obtenu à partir du système échelonné (S0 ) • en supprimant les équations de la forme « 0 = 0 », • en faisant passer aux seconds membres les x0 r+1, . . . , x0 p. Les inconnues sont à présent les scalaires x0 1, x0 2, . . . , x0 r . Ce sont les inconnues principales. Le système (S00 ) est de Cramer. 2 On résout ensuite (S00 ) en partant de la dernière équation, puis en remontant jusqu’à la première équation. À l’issue de cette étape de remontée, les inconnues principales de cette étape de remontée, les inconnues principales x0 1, x0 2, . . . , x0 r s’expriment de x0 r+1, . . . , x0 p. M. Ghilani Algèbre linéaire
  • 27. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Exemples : Reprenons l’exemple précédent. Soit m = 1(C 6= ∅). Remplaçons (S0 ) par le système suivant : (S00 ) ( x1 + x2 = 1 x2 = 2 −x3 d’inconnues x1, x2 et paramétré par x3. On obtient : x2 = 2 − x3, puis x1 = −1 + x3. Une solution générale est un vecteur de R3 d’expression : (x1, x2, x3) = (−1 + x3, 2 − x3, x3) avec x3 ∈ R. L’ensemble des solutions s’écrit ainsi : S = {x0 + xpart : x0 ∈ Kerf } avec part = (−1, 2, 0) et Kerf = R(1, −1, 1). M. Ghilani Algèbre linéaire
  • 28. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Remarque : Si r = n alors le système échelonné équivalent (S0 ) s’écrit : (S0 )            a0 11x0 1 + a0 12x2 + · · · + a0 1nx0 n+ . . . = b0 1 a0 22x2 + · · · + a0 2nx0 n+ . . . = b0 2 ... . . . a0 nnx0 n+ . . . = b0 n Remarquons qu’il n’y a pas d’égalité de la forme 0 = bi ’. • Cela traduit le fait que le système est nécessairement compatible. Il y a donc au moins une solution, c’est-à-dire une seule ou une infinité. • L’étape de discussion est donc ici inutile. On peut passer directement à l’étape de remontée. C’est exactement le cas dans l’exemple qui suit. M. Ghilani Algèbre linéaire
  • 29. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Étude d’un système sous-abondant Considérons dans R le système 3 × 5 suivant :      2x1 − 3x2 + x3 + 6x4 − 6x5 = 3 2x1 − 2x2 + 2x3 + 4x4 − 6x5 = 4 −2x1 + 4x2 + x3 − 8x4 + 3x5 = 3 L ’étape d’élimination conduit au système échelonné équivalent (r=3) :      2x1 − 3x2 + x3 + 6x4 − 6x5 = 3 x2 + x3 − 2x4 = 1 x3 − 3x5 = 2 Il s’en suit que le système est compatible. Il y a au moins une solution qui dépend de 5 − 3 = 2 paramètres. Il y a donc une infinité de solutions. M. Ghilani Algèbre linéaire
  • 30. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode L’étape remontée consiste à résoudre le système :      2x1 − 3x2 + x3 = 3 − 6x4 + 6x5 x2 + x3 = 1 + 2x4 x3 2 + x5 d’inconnues x1, x2 et x3 et paramétré par x4 et x5. On a : x3 = 2 + 3x5, x2 = −1 + 2x4 − 3x5, x1 = −1 − 3x5. Une solution générale est un vecteur de R5 de la forme : (x1, x2, x3, x4, x5) = (−1 − 3x5, −1 + 2x4 − 3x5, 2 + 3x5, x4, x5) où chacun des paramètres x4 et x5 parcourt R. L’ensemble des solutions s’écrit ainsi : S = {x0 + xpart : x0 ∈ Kerf } avec xpart = (−1, −1, 2, 0, 0) et Kerf = Vect (0, 2, 0, 1, 0), (−3, −3, 3, 0, 1) . M. Ghilani Algèbre linéaire
  • 31. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de Gauss Considérons dans R le système suivant :    x1 + x2 + 2x3 = −1 3x1 + 2x2 + x3 = 2 −2x1 − x2 + x3 = −3 ;   1 1 2 -1 3 2 1 2 -2 -1 1 -3   Matrice augmentée   1 1 2 -1 3 2 1 2 -2 -1 1 -3     1 1 2 -1 0 -1 -5 5 0 1 5 -5     1 1 2 -1 0 -1 -5 5 0 0 0 0     1 1 2 -1 0 1 5 -5 0 0 0 0   Matrice augmentée échelonnée M. Ghilani Algèbre linéaire
  • 32. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Méthode de résolution de Gauss-Jordan Soi à résoudre le système suivant :      2x + y − 4z = 8 3x + 3y − 5z = 14 4x + 5y − 2z = 16 ;   2 1 −4 8 3 3 −5 14 4 5 −2 16   ; Matrice augmentée   1 1/2 −2 4 3 3 −5 14 4 5 −2 16     1 1/2 −2 4 0 3/2 1 2 0 3 6 0   ;   1 1/2 −2 4 0 1 2/3 4/3 0 3 6 0   ;   1 0 −7/3 10/3 0 1 2/3 4/3 0 0 4 −4   ;   1 0 −7/3 10/3 0 1 2/3 4/3 0 0 1 −1   ;   1 0 0 1 0 1 0 2 0 0 1 −1   ; Matrice augmentée échelonnée réduite S = {(1, 2, −1)} M. Ghilani Algèbre linéaire
  • 33. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Soit à résoudre le système :    x1 + x2 + 2x3 = −1 3x1 + 2x2 + x3 = 2 −2x1 − x2 + x3 = −3 ;   1 1 2 -1 3 2 1 2 -2 -1 1 -3   Matrice augmentée   1 1 2 -1 0 -1 -5 5 0 1 5 -5   ;   1 1 2 -1 0 1 5 -5 0 1 5 -5   ;   1 0 -3 4 0 1 5 -5 0 0 0 0   Le système est compatible. x1 et x2 sont des variables principales x3 est une variable auxilliaire. S = {(4 + 3x, −5 − 5x, x)x ∈ R} = (4, −5, 0) + vect{(3, 5, 1)} M. Ghilani Algèbre linéaire
  • 34. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Inversion de matrice par la méthode de Gauss-Jordan Soit A ∈ GLK(Kn ) (matrice inversible) d’inverse A−1 . Notons par C1, · · · , Cn les colonnes de A−1 . A A−1 = A(C1 C2 · · · Cn) = (e1 e2 · · · en) = (AC1 AC2 · · · ACn) = (e1 e2 · · · en) Résolution de n systèmes linéaire : AC1 = e1, matrice augmentée associée est (A|e1); AC2 = e2, matrice augmentée associée est (A|e2); . . . = . . . ACn = en, matrice augmentée associée est (A|en); On peut écrire simultanément tous ces systèmes sous la forme de : (A|e1e2 · · · en) = (A|In) M. Ghilani Algèbre linéaire
  • 35. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Inversion de matrice par la méthode de Gauss-Jordan Calcul de l’inverse de la matrice A : A =   2 1 −4 3 3 −5 4 5 −2   ;   2 1 −4 1 0 0 3 3 −5 0 1 0 4 5 −2 0 0 1   , matrice augmentée   1 1/2 −2 1/2 0 0 3 3 −5 0 1 0 4 5 −2 0 0 1   ;   1 1/2 −2 1/2 0 0 0 3/2 1 −3/2 1 0 0 3 6 −2 0 1   ;   1 1/2 −2 1/2 0 0 0 1 2/3 −1 2/3 0 0 3 6 −2 0 1   ;   1 0 −7/3 1 −1/3 0 0 1 2/3 −1 2/3 0 0 0 4 1 −2 1   ;   1 0 −7/3 1 −1/3 0 0 1 2/3 −1 2/3 0 0 0 1 1/4 −1/2 1/4   ;   1 0 0 19/12 −3/2 7/12 0 1 0 −7/6 1 −1/6 0 0 1 1/4 −1/2 1/4   M. Ghilani Algèbre linéaire
  • 36. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode I3 est la matrice échelonnée réduite de A. A−1 =   19/12 −3/2 7/12 −7/6 1 −1/6 1/4 −1/2 1/4   = 1 12   19 −18 7 −14 12 −2 3 −6 3   ; M. Ghilani Algèbre linéaire
  • 37. Sommaire Systèmes d’équations linéaires Étude de l’ensemble des solutions Méthode de résolution de Cramer Méthode Fin du chapitre M. Ghilani Algèbre linéaire