Métodos directos para solución de sistemas ecuaciones lineales
Metodos iterativos
1. Parte 4. M´todos iterativos para la
e
resoluci´n de sistemas de ecuaciones
o
lineales
Gustavo Montero
Escuela T´cnica Superior de Ingenieros Industriales
e
Universidad de Las Palmas de Gran Canaria
Curso 2006-2007
2. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
3. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
4. Introducci´n
o
Ventaja frente a los m´todos directos
e
Son menos sensibles a los errores de blackondeo y esto se aprecia en sistemas de orden elevado donde los errores de
blackondeo de los m´todos directos son considerables
e
Definici´n de m´todo iterativo
o e
Un m´todo iterativo construye una sucesi´n de vectores xm tal que
e o
lim xm = x
m→∞
siendo x la soluci´n del sistema Ax = b.
o
Construcci´n de un m´todo iterativo
o e
Se parte de una aproximaci´n inicial x0 y luego se calcula
o
xm+1 = F (xm ), m = 0, 1, . . .
donde F se toma de forma lineal: F (x) = B x + c
xm+1 = B xm + c, m = 0, 1, . . .
La matriz B se denomina matriz de iteraci´n y de sus propiedades va a depender la convergencia del m´todo.
o e
5. Definici´n de convergencia
o
Definici´n de convergencia
o
Un m´todo se dice que es convergente si:
e
−1
lim xm = x = A b
m→∞
Teorema del Punto Fijo
Aplicando el Teorema del Punto Fijo,
||F (x ) − F (x )|| ≤ L||x − x ||
es decir,
||Bx − Bx || ≤ L||x − x ||
Luego si v = x − x =⇒ ||Bv || ≤ L||v ||
Teorema general para la convergencia de los m´todos
e
iterativos
Un m´todo iterativo del tipo anterior es convergente si y s´lo si se cumplen simult´neamente las siguientes
e o a
condiciones,
c = (I − B)A−1 b
ρ(B) < 1
6. Construcci´n de m´todos iterativos
o e
Sea A = M − N, con M invertible
Teorema de caracterizaci´n de m´todos iterativos
o e
Si se toma, −1
B = M N
−1
c = M b
el m´todo considerado cumple la primera condici´n anterior.
e o
Pero adem´s se debe cumplir la segunda condici´n,
a o
−1 −1
ρ(M N) < 1 o tambi´n
e ||M N|| < 1
Teorema de construcci´n de los m´todos iterativos
o e
Todo m´todo del tipo estudiado verifica las condiciones del teorema anterior con M − N = A y M invertible.
e
El m´todo resulta,
e
−1 −1
xm+1 = M Nxm + M b
es decir,
Mxm+1 = Nxm + b
Por tanto, conviene elegir M tal que sea f´cilmente invertible (diagonal o triangular).
a
El n´mero de operaciones de los m´todos iterativos es O(n2 ) × no iter
u e
7. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
8. Algoritmo de Jacobi
Matriz de iteraci´n de Jacobi
o
La matriz de iteraci´n de Jacobi resulta,
o
Descomposici´n suma de una matriz
o
Sea A = D − L − U, con a a13 a
0 − 12 1 1n
0 1
0 aa
11 0 a · · · · · ·0
− −
a11 C
a21 B 011 11
B
B a22 a23· · · 0 Ca2n C
B −D = B 0 − ··· −
B B C C
a . . a22 . . Ca; C
a22 B a . . .. . Ca22 C
B
B − 31 @ − . 32 . 0 ···.
A 3n C
B
− C
B
B a33 a33
0 0 ··· ann a33 C C
. . 1 . .
B C
B
. ··· . 0 . 0. . .
C
··· ·B·
· −a12 C −a13 ··· −a1n
0 1
0 B . . . .0 . C
B −a21 0 ·@·
· an1 · ·
· an2
0 C an3 B 0 0 A −a23 ··· −a2n
− − C− B··
·
C
B −a31 0
−a32 0 ann · ·
· 0
B C
ann C; U = B . . . .
C a B .. C
L=B nn
B . . . . C
B . . . .. . C
B . . . . . C
B . . . . . C
@ ···
C
@ . . . . A ··· ··· 0 −an−1n A
−an1 −an2 ··· −ann−1 0 0 ··· ··· ··· 0
Algoritmo
El m´todo de Jacobi consiste en elegir M = D y N = L + U, resultando en forma matricial,
e
Dxm+1 = (L + U)xm + b
n
X
es decir, aii (xm+1 )i = − aij (xm )j + bi ; i = 1, 2, . . . , n
j=1
j=i
9. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
10. Algoritmo de Gauss-Seidel
Algoritmo
El m´todo de Gauss-Seidel consiste en elegir M = D − L y N = U, resultando en forma matricial,
e
(D − L)xm+1 = Uxm + b
i n
es decir,
X X
aij (xm+1 )j = − aij (xm )j + bi ; i = 1, 2, . . . , n
j=1 j=i+1
o, finalmente, i−1
X n
X
aii (xm+1 )i = − aij (xm+1 )j − aij (xm )j + bi ; i = 1, 2, . . . , n
j=1 j=i+1
Ventaja frente a Jacobi
Menor requerimiento de almacenamiento respecto a Jacobi, ya que no necesita dos vectores para la
soluci´n (xm+1 , xm ). En el m´todo de Gauss-Seidel las actualizaciones de la soluci´n se guardan en las
o e o
posiciones de los valores anteriores
El m´todo de Gauss-Seidel tiene mejores condiciones de convergencia que el de Jacobi
e
11. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
12. Algoritmo de Relajaci´n Sucesiva
o
Algoritmo
Si tomamos un par´metro ω = 0, podemos hacer la descomposici´n de A de la forma,
a o
1 1−ω
A=D−L−U = D−L− D−U
ω ω
1 1−ω
y eligiendo M = D − L, N = D + U, resulta
ω ω
1 1−ω
„ « „ «
D − L xm+1 = D + U xm + b
ω ω
i−1 n
1 X 1−ω X
aii (xm+1 )i + aij (xm+1 )j = aii (xm )i − aij (xm )j + bi ; i = 1, 2, . . . , n
ω j=1
ω j=i+1
Algoritmo en dos pasos
El algoritmo SSOR se puede expresar en dos pasos, un primer paso que coincide con el m´todo de Gauss-Seidel un
e
segundo paso de relajaci´n de la soluci´n,
o o
i−1
X Xn
aii (¯m+1 )i +
x aij (xm+1 )j = aij (xm )j + bi ; i = 1, 2, . . . , n
j=1 j=i+1
(xm+1 )i − (xm )i = ω ((¯m+1 )i − (xm )i )
x
13. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
14. Resumen de resultados de Convergencia
Si A es sim´trica y definida positiva, el m´todo de Gauss-Seidel converge.
e e
Si A es sim´trica y la matriz
e
a11 −a12 ··· −a1n
0 1
B −a12 a22 ··· −a2n C
B C
D+L+U =B . . .. . C
B . . . . C
@ . . . A
−a1n −a2n ··· ann
es definida positiva, el m´todo de Jacobi es convergente.
e
Si A es sim´trica y definida positiva, el m´todo de relajaci´n converge si y s´lo si 0 < ω < 2.
e e o o
Si ω < 1 el m´todo se denomina de subrelajaci´n y si ω > 1, de sobrerrelajaci´n.
e o o
Si A es sim´trica, definida positiva y tridiagonal, el valor ´ptimo de ω para la convergencia del m´todo de
e o e
relajaci´n es,
o
2
ω= q
1 + 1 − ρ2 j
siendo ρj el radio espectral de la matriz de iteraci´n del m´todo de Jacobi.
o e
15. Generalidades de los m´todos iterativos
e
Metodo de Jacobi
M´todo de Gauss-Seidel
e
M´todo de Relajaci´n Sucesiva
e o
Convergencia de los m´todos
e
Resumen
16. Resumen
Los m´todos iterativos tienen un coste computacional de O(n2 ) × no iteraciones.
e
Si el n´mero de iteraciones es peque˜o comparado con n, los m´todos iterativos
u n e
son preferibles a los directos. Asimismo, los errores de blackondeo no se
acumulan despu´s de cada iteraci´n, lo que supone una ventaja adicional.
e o
El m´todo de Gauss-Seidel es usualmente m´s eficiente que el de Jacobi
e a
Podemos acelerar la convergencia mediante la t´cnica de relajaci´n.
e o
Generalmente se suele utilizar valores de ω entre 1 y 2 (sobrerelajaci´n)
o
En la actualidad los m´todos iterativos estudiados en esta asignatura est´n
e a
obsoletos. Los m´todos m´s utilizados son los basados en los subespacios de
e a
Krylov.