1. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
REPASO DE ALGEBRA MATRICIAL
1. DEFINICIONES.-
Una matriz:
! $
# a11 a12 ... a1k &
# a a22 ... a2k &
A = # 21 &
# ... &
# a
" n1 an2 ... ank &
%
Cada elemento de la matriz se denota de la siguiente manera:
afila,columna
La matriz A es de dimensión n x k (de n filas y k columnas).
Si la matriz A tiene el número de filas igual al número de columnas, decimos que A es una
matriz cuadrada.
Si el elemento de la matriz A , a ij es igual al elemento a ji para todo i y j , decimos que la
matriz A es simétrica.
Una matriz diagonal es aquella con elementos no nulos en la diagonal principal, y nulos
fuera de la misma (la diagonal principal está constituida por los elementos a ij que cumplen
con i = j , elementos que van desde el extremo superior izquierdo al extremo inferior
derecho).
Una matriz escalar es una matriz diagonal con el mismo valor para los elementos
diagonales. La matriz identidad es una matriz escalar con el valor de 1 en los elementos
diagonales.
Una matriz triangular es una matriz cuyos elementos son nulos encima o por debajo de la
diagonal. Por encima se denomina triangular inferior. Por debajo, triangular superior.
Una matriz cero o nula, 0 , es aquella donde todos los elementos son iguales a cero.
Un vector es un arreglo ordenado de números en una fila o una columna.
Si el arreglo está ordenado en una sola fila se denomina vector fila.
Si el arreglo está ordenado en una sola columna se denomina vector columna.
A no ser que se diga lo contrario al referirnos a un vector, implícitamente nos referiremos a
un vector columna. Es decir:
1
2. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
⎡a 1 ⎤
⎢ ⎥
a
a = ⎢ 2 ⎥
⎢ ... ⎥
⎢ ⎥
⎢a n ⎥
⎣ ⎦
2. MANIPULACIÓN DE MATRICES Y VECTORES
Dos matrices, A y B , son iguales, si teniendo las mismas dimensiones, se cumple:
a ij = bij para todo i y j
Matriz transpuesta
La transpuesta de A , denotada como A' , se obtiene creando una matriz cuya i − ava fila
es la i − ava columna de la matriz original. Alternativamente, B es la transpuesta de A si se
cumple:
B = A' ⇔ a ij = b ji para todo i y j
Matriz simétrica
La definición de matriz simétrica implica que si A es simétrica cuando:
A = A'
La transpuesta de la transpuesta de la matriz A es la misma matriz A . Es decir:
( A' )' = A
Finalmente, tenemos que la transpuesta del vector a (vector columna) es el vector fila a ' :
[
a' = a1 a2 ... a n ]
Otros resultados de la transposición de matrices:
1. C = A + B → C ' = ( A + B )' = A'+ B'
2. ( AB )' = B' A'
Y en general ( ABCD )' = D' C ' B' A'
3. I = I '
4. La transpuesta de un escalar es el mismo escalar.
Adición y substracción de matrices
[
C = A + B → c ij = a ij + bij ]
C = A − B → c ij = [a ij −b ] ij
Se supone implícitamente que ambas matrices (y la matriz resultante) tienen la misma
dimensión. Otros resultados importantes son:
2
3. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
A+0 = A
A+ B = B + A
( A + B) + C = A + ( B + C )
( A + B )' = A' + B '
Inner product o dot product (producto vectorial)
La multiplicación del vector a por el vector b (vectores de la misma dimensión) está definida
de la siguiente manera:
a ' b = a 1 b1 + a 2 b 2 + ... + a n b n
El resultado de este producto de vectores es un escalar. Nótese que:
a ' b = b' a
Multiplicación de matrices
Sea:
a j vector (columna) correspondiente a la j − ava columna de la matriz A
a i vector (columna) correspondiente a la i − ava fila de la matriz A . Por tanto, a i ' , es
el vector fila que corresponde a la i − ava fila de la matriz A
De la misma manera se puede definir para cualquier matriz. Por ejemplo, para la matriz B ,
tenemos b j y b i .
La multiplicación de la matriz A de dimensión n x k por la matriz B de dimensión k x m ,
genera la matriz C = AB , de dimensión n x m cuyo i − j − avo elemento es el producto
vectorial de la í − ava fila de A por la j − ava columna de B . Es decir:
C = AB ⇔ c ij = a i ' b j
Nótese que:
♦ Para que exista la multiplicación, el número de columnas de A debe coincidir con el
número de filas de B
♦ La dimensión de la matriz resultante corresponde al número de filas de A y al
número de columnas de B .
♦ La multiplicación no goza de la propiedad conmutativa: AB ≠ BA y en general las
matrices resultantes no tendrán las mismas dimensiones. Por tanto, se adopta la
terminología pre multiplicación y post multiplicación.
Multiplicación escalar
Consiste en multiplicar cada elemento de una matriz por un escalar. Para el escalar c y una
[ ]
matriz A se denota por: B = cA → bij = ca ij
Finalmente, el producto de una matriz y un vector es un vector con elementos igual al
número de filas de la matriz. Para la matriz A y el vector b , se denota por c = Ab
3
4. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
Por ejemplo:
⎡5⎤ ⎡4 2 1⎤ ⎡a ⎤
⎢4⎥ = ⎢2 6 1⎥ ⎢b ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1⎥ ⎢1 1 0⎥ ⎢ c ⎥
⎢ ⎦ ⎣ ⎦ ⎣ ⎦
Dos interpretaciones:
♦ Es una forma compacta de escribir las tres ecuaciones siguientes:
5 = 4a + 2b + 1c
4 = 2a + 6b + 1c
1 = 1a + 1b + 0c
♦ El vector resultante es una combinación lineal de las columnas de la matriz donde los
coeficientes son los elementos del vector.
⎡5⎤ ⎡4⎤ ⎡2⎤ ⎡1⎤
⎢4⎥ = a ⎢2⎥ + b ⎢6⎥ + c ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1⎥
⎣ ⎦ ⎢1⎥ ⎢1⎥ ⎢0⎥
⎣ ⎦ ⎣ ⎦ ⎣ ⎦
En el caso general:
c = Ab = b1 a 1 + b2 a 2 + ... + b j a k
En un caso aún más general, se tiene en C = AB que la j − ava columna de C es
una combinación lineal de la matriz A y la j − ava columna de B . Es decir:
C = AB ⇔ c j = Ab j
Sea e j un vector columna que tiene ceros como elementos, excepto en la j − ava posición.
Se puede obtener a j multiplicando A por e j . Es decir, a j = Ae j
Otros resultados de la multiplicación de matrices
Ley asociativa: ( AB )C = A( BC )
Ley distributiva: A( B + C ) = AB + AC
Transpuesta de productos: ( AB )' = B' A' ( ABC )' = C ' B' A'
Si AB resulta ser un escalar entonces AB = ( AB )' = B' A'
Sumatorias
Algunas propiedades de las sumatorias, que resultan útiles son:
n
1. ∑X
i =1
i = X 1 + X 2 + ... + X n
n
2. Sea k una constante: ∑ k = nk
i =1
4
5. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
n n
3. ∑ kX i = k ∑ X i
i =1 i =1
n n
4. ∑ (a + bX
i =1
i ) = na + b∑ X i
i =1
n n n
5. ∑ ( X i + Yi ) = ∑ X i + ∑ Y i
i =1 i =1 i =1
n n n n n
6. ∑ x i2 = ∑ ( X i − X ) 2 = ∑ X i2 − 2 X ∑ X i + nX 2 = ∑ X i2 − nX 2
i =1 i =1 i =1 i =1 i =1
n
Nótese adicionalmente que: ∑x
i =1
i = (Xi − X ) = 0
7. Sea el vector i con elementos iguales a 1. Entonces,
n
∑X
i =1
i = X 1 + X 2 + ... + X n = i ' x
8. La suma de los elementos de un vector elevados al cuadrado se define como (suma de
cuadrados):
n
2
∑X
i =1
i = x' x
9. De manera similar, la suma de productos de los n elementos en los vectores x y y , es:
n
∑X
i =1
i Y i = x ' y = y' x
10. Si todos los elementos en x son iguales a una constante a , entonces x = ai y
n
∑X i =1
i = i ' (ai ) = a( i ' i ) = na
11. Para cualquier constante a y vector x
n n
∑ aX
i =1
i = a ∑ X i = ai ' x
i =1
Si a = 1 / n , entonces:
1 n 1
x= ∑ X i = n i' x
n i =1
12. Nótese que:
n
∑Xi =1
i = i ' x = nx
13. El elemento i − j − avo de la matriz X ' X es el producto vectorial entre la i − ava fila de
X ' y la j − ava columna de X . Es decir:
[X ' X ]ij = [x i ' x j ]
O, alternativamente:
n
X ' X = ∑ x i x i'
i =1
5
6. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
La matriz X ' X consiste en la suma de n matrices, formadas cada una a partir del producto
vectorial de cada fila de la matriz X con su transpuesta.
Inversión de matrices
La inversa de una matriz cuadrada A , denotada por A −1 , si existe, es una matriz cuadrada
única tal que:
AA −1 = I
Alguna de las propiedades de la inversión de matrices son las siguientes:
1. ( AB ) −1 = B −1 A −1
2. ( A`)−1 = ( A−1 )'
Rango de una matriz
Es el orden de la submatriz cuadrada más grande cuyo determinante es diferente de 0.
Recordemos que una submatriz se obtiene al eliminar un cierto número de filas y columnas a
una matriz. Actualmente, los computadores evalúan los determinantes de una matriz.
Diferenciación matricial
En el curso serán importantes dos reglas de diferenciación:
[ ]
Regla 1: Si a ' = a1 , a 2 ....a n un vector fila de constantes y :
⎡ x1 ⎤
⎢ ⎥
x
x = ⎢ 2 ⎥
⎢ ⎥
⎢ ⎥
⎢ xn ⎥
⎣ ⎦
Entonces:
⎡a1 ⎤
⎢ ⎥
∂ (a' x) a
= a = ⎢ 2 ⎥
∂x ⎢ ⎥
⎢ ⎥
⎢a n ⎥
⎣ ⎦
Regla 2. Considérese el siguiente producto matricial:
⎡ a11 a12 ... a1n ⎤ ⎡ x1 ⎤
⎢ ⎥ ⎢ ⎥
a a22 ... a2 n ⎥ ⎢ x2 ⎥
[
x' Ax = x1 x2 ]
... xn ⎢ 21
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
⎢an1
⎣ an 2 ... ann ⎥ ⎢an ⎥
⎦ ⎣ ⎦
Entonces,
∂( x' Ax)
= 2 x' A
∂x
6
7. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
3. GEOMETRÍA DE MATRICES
Espacio vectorial
El vector columna a puede ser visto como un punto (coordenada ) en un espacio vectorial de
dimensión k:
Definamos ahora la multiplicación escalar y la adición
La multiplicación escalar del vector a, es otro vector a* (o a**) cuyas coordenadas son
múltiplos de las coordenadas de a.
Por ejemplo si:
La suma de dos vectores a y b es un tercer vector cuyas coordenadas son la suma
de las coordenadas correspondientes de a y b.
7
8. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
Un espacio vectorial es un conjunto de vectores enmarcados por la multiplicación escalar y la
suma de vectores. Ej El espacio vectorial en ℜ 2
Combinaciones lineales de vectores y base vectorial
Un conjunto de vectores en un espacio vectorial es una base para dicho espacio vectorial si
cualquier vector en el mismo puede ser escrito como una combinación lineal de tal conjunto
de vectores.
c puede ser escrito como una combinación lineal de a y b (a y b son una base vectorial en
ℜ2 )
Las soluciones son:
Dependencia lineal
Un conjunto de vectores es linealmente dependiente si alguno de los vectores en el
conjunto puede ser escrito como combinación lineal de los otros. Si no son combinación
lineal entonces son linealmente independientes (2 vectores linealmente independientes
forman una base vectorial en ℜ 2 . En cambio si son linealmente dependientes no podrán
formar una base vectorial en ℜ 2 ). Formalmente, un conjunto de vectores es linealmente
independiente si y solo si la solución a:
es
De lo anterior se desprende que más de K vectores en ℜ K serán linealmente dependientes.
Sub-espacios vectoriales
El conjunto de todas las combinaciones generadas por un conjunto de vectores se denomina
espacio vectorial.
Sin embargo, la utilización de un conjunto de vectores puede generar un subespacio
vectorial (un subconjunto del espacio vectorial). Por ejemplo, considere un conjunto de
vectores de tres coordinadas cuya tercer coordinada sea igual a cero.
8
9. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
Estos dos vectores no pueden generar ℜ 3 , pero sí pueden generar un subespacio vectorial
dentro de ℜ 3 (un plano).
Rango de una matriz
Una matriz es vista como un conjunto de vectores (iguales al número de columnas que tiene
la matriz) con un número de coordenadas iguales al número de filas de la matriz. El espacio
columna de una matriz es el espacio vectorial generado por los vectores columna de la
matriz.
El rango columna de una matriz, es la dimensión del espacio vectorial generado por los
vectores columna de la matriz. Habíamos visto que el espacio vectorial corresponde al
número de columnas linealmente independientes.
El rango columna y el rango fila de una matriz son iguales. El rango de una matriz
corresponderá al mínimo entre el número de filas y número de columnas que la matriz tenga.
Si la matriz tiene rango igual al número de columnas que contiene, decimos que la matriz
tiene rango completo.
Tres propiedades, utilizando el concepto de rango de una matriz, son:
Para Ax = 0 , una solución diferente a la trivial para x, determina que A no tenga
rango completo. Las columnas de A son linealmente dependientes.
rango ( AB) ≤ min(rango ( A), rango ( B))
rango( A) = rango( A' A) = rango( AA' )
Determinante de una matriz
El determinante de una matriz es diferente de cero sí y solo si la matriz es de rango
completo.
4. SOLUCION A UN SISTEMA LINEAL DE ECUACIONES
Considerando un conjunto de n ecuaciones lineales:
En donde K elementos de x constituyen las incógnitas. A es conocida como la matriz de
coeficientes y b es un vector específico de valores. ¿Existe la solución?¿Cómo
obtenerla?...¿Es única la solución?
Para n=K existen dos tipos de sistemas:
9
10. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
Sistema de ecuaciones homogéneas
En esta formulación, A no tiene rango completo y su determinante es igual a 0.
Sistema de ecuaciones no homogéneas
El vector b es escogido arbitrariamente (es expresado como una combinación lineal de las
columnas de A). Para que exista la solución requerimos que el determinante de A sea
distinto de 0. Es decir, que A genere un espacio vectorial en K.
5. MATRICES PARTICIONADAS
Una matriz A puede ser particionada en submatrices
Una matriz diagonal en bloque:
⎡1 6 0⎤
A = ⎢ 2 3 0⎥
⎢ ⎥
⎢ 0 0 3⎥
⎣ ⎦
Donde A11 y A22 son matrices cuadradas.
Suma
Multiplicación
Dos casos frecuentemente utilizados son:
El determinante de una matriz diagonal en bloque es:
10
11. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
Y de una matriz particionada (2x2):
La inversa de una matriz diagonal en bloques:
Y de una matriz particionada (2x2):
Donde:
Producto Kronecker
No tiene requerimientos de conformabilidad. Si A es KxL y B es mxn, entonces
es (Km)x(Ln).
Adicionalmente, se tienen las siguientes propiedades:
Si A es MxM y B es nxn, entonces:
n M
A⊗ B = A B
( A ⊗ B )' = A'⊗ B'
tr ( A ⊗ B ) = tr ( A)tr ( B )
Para A, B, C y D;
6. RAICES Y VECTORES CARACTERÍSTICOS
11
12. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
c es el vector característico o vector propio
λ es la raíz característica o valor propio
c es normalizado de tal manera que c' c = 1
Operando, se puede obtener (una sistema de ecuaciones simultáneo)
Que implica (si es que el vector característico es no nulo), que:
Por ejemplo, si:
Las raíces características son:
En el caso general, las soluciones pueden ser números reales o números complejos. Cuando
la matriz es simétrica, se garantiza que las soluciones son números reales. Las raíces
pueden ser cero o pueden repetirse.
Los vectores característicos se derivan, considerando que:
Sea:
Si la matriz A es simétrica, los vectores son ortogonales (ci ' c j = 0 ∀i ≠ j ) y considerando
que:
ci ' ci = 1
Se obtiene:
12
13. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
Y por tanto:
Diagonalización de una matriz y descomposición espectral
La diagonalización de la matriz A es:
La descomposición espectral, es:
En esta representación la matriz A (KxK) es escrita como la suma de K matrices de rango 1.
Dado que C y C’ son no singulares, se obtiene que:
Encontrar el rango de esta última matriz es sencillo. Es solamente el número de valores
diferentes de cero en su diagonal.
Por tanto, el rango de una matriz simétrica es el número de raíces características distintas de
cero que dicha matriz contiene.
Por otro lado, dado que rango de una matriz A coincide con el rango de A’A, se tiene que el
rango de una matriz A, es el número de raíces características distintas de cero que contiene
la matriz A’A.
Índice de condición de una matriz
1
⎡ máx raíz ⎤ 2
γ = ⎢ ⎥
⎣ min raíz ⎦
Traza de una matriz
La traza de una matriz es la suma de sus raíces características. Recordemos que la traza de
una matriz está definida como la suma de los elementos de la diagonal.
Se derivan algunas propiedades de trazas muy útiles:
13
14. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
Determinante de una matriz
El determinante de una matriz es el producto de sus raíces características. Por tanto, una
matriz es singular si una de sus raíces características es cero.
Potencias de una matriz
Sea:
Por tanto, en una matriz simétrica A, las raíces características de A2 son las raíces
características de A elevadas al cuadrado. Los vectores característicos son los mismos.
Este resultado, se puede generalizar:
Si A −1 existe, las raíces características de A −1 son las recíprocas de A, y los vectores
característicos los mismos.
Las raíces características de A K son las de A elevadas a la K, y los vectores
característicos los mismos. Es decir,
Para una matriz A, definida positiva (valores característicos positivos) se tiene:
. Si A es definida no negativa, entonces el resultado anterior se
mantiene para r no negativo.
14
15. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
Matriz idempotente
Las matrices idempotentes son iguales a sus cuadrados. Para que una matriz sea
idempotente se debe cumplir que λ = λ K que se cumple cuando λ = 1 ó λ = 0 . Ello implica
que:
La única matriz simétrica de rango completo que es idempotente es la matriz
identidad.
Otras matrices simétricas pueden ser idempotentes pero no tienen rango completo.
El rango de una matriz simétrica idempotente es igual a su traza.
Descomposición espectral de una matriz
En algún momento (MCG) necesitaremos una matriz P, tal que:
La matriz elegida es:
Por tanto,
7. FORMAS CUADRÁTICAS Y MATRICES DEFINIDAS
Sea:
Definamos:
1. Si x' Ax > 0(< 0) para un x diferente de 0, entonces la matriz A está definida
positiva (negativa).
2. Si x' Ax ≥ 0(≤ 0) para un x diferente de 0, entonces la matriz A está semidefinida
positiva (semidefinida negativa).
Sí:
Entonces:
Por tanto:
Donde:
15
16. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
Llegamos a la conclusión de que cuando todas los raíces características son positivas, A
estará definida positiva. Si todas son negativas, entonces A está definida negativa. Si
algunas son positivas (negativas) y las demás iguales a cero, entonces la matriz estará
semidefinida positiva (semidefinida negativa). En otros casos, la matriz será indefinida.
Veamos algunas propiedades de las matrices semidefinidas positivas:
Si A es semidefinida positiva, entonces el determinante de A es mayor o igual a
cero.
Si A es definida positiva, entonces su inversa también estará definida positiva.
La matriz identidad está definida positiva.
Si A es N x k y de rango completo y N>k, entonces A’A es definida positiva y AA’
está semidefinida positiva.
Si A es definida positiva y B es no singular, entonces B’AB es definida positiva.
8. CÁLCULO Y ALGEBRA MATRICIAL
Si y = f ( x ) y asumiendo que f ( x ) es una función continua y diferenciable, obtenemos:
Aproximación de Taylor
Aproximación lineal
Aproximación cuadrática
Sea:
La gradiente o vector columna de derivadas parciales es:
16
17. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
g ( x ) o g es utilizada para representar la gradiente. El Hessiano o matriz de segundas
derivadas es:
Una representación alternativa para el Hessiano es:
En este caso, una aproximación lineal para f ( x ) :
Una aproximación cuadrática o de segundo orden es:
17
18. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
Optimización
Condición de primer orden
Condición de segundo orden
para un máximo, y:
para un mínimo.
Para una función de varias variables, las condiciones de primer orden y segundo orden
son:
a) Que la primera derivada sea igual a cero.
b) Que la matriz Hessiana este definida positiva para un mínimo y definida negativa para
un máximo. Donde, la matriz Hessiana es:
En un máximo la función es globalmente cóncava, mientras que en el mínimo es
convexa.
Ejemplo: Maximizar R.
donde a’:
y:
La condición de primer orden es:
18
19. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
La condición de segundo orden:
Para que sea un máximo las raíces características deben ser todas negativas.
Resolviendo se demuestra que esto es así. Afortunadamente, mediante el uso del
computador podemos rápidamente obtener las raíces características.
Un caso especial surge cuando:
Si B tiene rango completo, se tiene, tal como se demostró anteriormente, que A es
definida positiva (no es necesario calcular las raíces características para verificar que es
un mínimo).
Optimización bajo restricciones
El lagrangiano:
Las condiciones de primer orden:
donde:
Ejemplo:
19
20. Economía Matemática
Escuela Militar de Ingeniería – EMI Cochabamba
Teníamos, el siguiente problema de minimización:
Añadimos las siguientes restricciones:
Por tanto:
El Lagrangiano es:
La condición de primer orden
ó
Utilizando matrices particionadas, las soluciones son:
20