Este documento describe varios métodos para resolver sistemas de ecuaciones lineales, incluyendo el método de Gauss, la descomposición LU, la factorización de Cholesky, la descomposición QR, y los métodos iterativos de Gauss-Seidel y Jacobi. Proporciona ejemplos para ilustrar cada método.
1. UNIVERSIDAD “FERMÍN TORO”
VICERECTORADO ACADÉMICO
FACULTAD DE INGENIERÍA
ESCUELA DE INGENIERÍA
Actividad III
Solución de sistemas de
ecuaciones lineales
Método de gaussiana
Alumnos:
ERICK GIL C.I: 14,442,417
2. En matemáticas y álgebra lineal, un sistema de ecuaciones
lineales, también conocido como sistema lineal de
ecuaciones o simplemente sistema lineal, es un conjunto
de ecuaciones lineales (es decir, un sistema de
ecuaciones en donde cada ecuación es de primer grado),
definidas sobre un cuerpo o un anillo conmutativo. Un
ejemplo de sistema lineal de ecuaciones sería el siguiente:
El problema consiste en encontrar los valores desconocidos
de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.
3. Métodos para solucionar sistemas de ecuaciones lineales
Método de Gauss
El método de Gauss consiste en transformar un
sistema de ecuaciones en otro equivalente de forma
que éste sea escalonado.
Para facilitar el cálculo vamos a transformar el
sistema en una matriz, en la que pondremos los
coeficientes de las variables y los términos
independientes (separados por una recta).
5. Descomposición de LU
Método de descomposición LU para la solución de sistemas de
ecuaciones lineales debe su nombre a que se basa en la descomposición
de la matriz original de coeficientes (A) en el producto de dos matrices (L
y U).
Esto es:
Donde:
L - Matriz triangular inferior
U - Matriz triangular superior con todos los elementos de la
diagonal principal iguales a 1.
De lo anterior, para matrices de 3x3 se escribe:
6. Si efectuamos la multiplicación de L y U, igualando los elementos de
ese producto con los de la matriz A correspondientes, se obtiene:
De aquí que los elementos de L y U son, en este caso:
Si el sistema de ecuaciones original se escribe como:
A x = b ;lo cual resulta lo mismo escribir: L U X = b
Definiendo a: U X = Y
podemos escribir: L Y = b
Resolviendo para Y, encontramos:
7. El algoritmo de solución, una vez conocidas L, U y b, consiste en
encontrar primeramente los valores de "Y" por sustitución progresiva
sobre "L Y = b". En segundo lugar se resuelve "U x = y " por sustitución
regresiva para encontrar los valores de "x", obteniendo:
La determinación de los elementos de las matrices L y U se realizan
eficientemente aplicando una forma modificada del método de
eliminación de Gauss.
Se observa que el método de descomposición LU opera sólo sobre la
matriz de coeficientes, sin modificar el vector de excitación (en este caso
b), por lo que resulta superior al método de eliminación gausiana.
8. Ejemplo
Resolver el siguiente sistema de
ecuaciones, factorizando la matriz en LU:
Las matrices de factores L y U de A son:
El primer paso es resolver la ecuación L Y = b
por sustitución progresiva para obtener los
elementos del vector auxiliar Y
El segundo paso es resolver la ecuación U X = Y para encontrar los
elementos de X, por sustitución regresiva:
9. Factorización de Cholesky
Se define como que una matriz simétrica definida positiva puede ser descompuesta como el producto
de una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz triangular
inferior es el triángulo de Cholesky de la matriz original positiva definida.
Ejemplo
10.
11. Factorización de Cholesky
Ejemplo
La descomposición o factorización QR de una matriz es una descomposición de la misma
como producto de una matriz ortogonal por una triangular superior. La descomposición QR
es la base del algoritmo QR utilizado para el cálculo de los vectores y valores propios de una
matriz.
12. Metodo Gauss Seidel
Es un método iterativo, lo que significa que se parte de una
aproximación inicial y se repite el proceso hasta llegar a una
solución con un margen de error tan pequeño como se quiera.
Buscamos la solución a un sistema de ecuaciones lineales, en
notación matricial.
Metodo Jacobi
El Método de Jacobi transforma una matriz simétrica en una matriz diagonal al
eliminar de forma simétrica los elementos que están fuera de la diagonal.
Desafortunadamente, el método requiere un número infinito de operaciones, ya
que la eliminación de cada elemento no cero a menudo crea un nuevo valor no
cero en el elemento cero anterior. Si A es diagonalmente dominante, entonces la
sucesión que resulta de la iteración de Jacobi converge a la solución de Ax = b
para cualquier vector inicial Xo. Partimos de una aproximación inicial Xo para las
soluciones Xi al sistema de ecuaciones y sustituimos estos valores en la ecuación