Este documento presenta un resumen de los conceptos básicos del análisis de series temporales estacionarias. Explica procesos elementales como el ruido blanco, AR(1), MA(1) y el paseo aleatorio, e introduce técnicas de identificación como la estadística descriptiva, la función de autocorrelación simple y la función de autocorrelación parcial. El objetivo es inferir la estructura del proceso estocástico subyacente a partir de una serie temporal observada.
1. Econometría II
Análisis de series temporales (I): Procesos estacionarios
Miguel Jerez y Sonia Sotoca
Universidad Complutense de Madrid
Febrero 2004
Ver. 1/16/2003, Pag. # 1
2. Índice:
• Introducción
• Conceptos básicos
• Procesos elementales
• Identificación
• Anexo: Estudio de los procesos más
comunes
Ver. 1/16/2003, Pag. # 2
3. Introducción (I)
Diferencias entre el análisis de series temporales y la econometría estudiada
anteriormente:
• Los datos están ordenados.
• No consideramos, en principio, variables exógenas.
• Se trata de construir un modelo sencillo que aproveche la inercia de los
datos económicos para predecir utilizando la información pasada.
• La econometría de series temporales contempla tres fases de análisis
• identificación,
• estimación (no lineal) y
• diagnosis,
que se recorren iterativamente.
Ver. 1/16/2003, Pag. # 3
4. Introducción (II): Ejemplos
700
15
600
10
500
Miles de personas
Puntos log x100
5
400
0
300
-5
200
-10
100
-15
0
1950 1952 1954 1956 1958 1960 1986 1988 1990 1992 1994 1996
Pasajeros de líneas aéreas, total mensual Rendimientos (logx100) del índice NIKKEI
Número de pasajeros de líneas Rendimientos del índice NIKKEI de la
aéreas. La serie muestra: Bolsa de Tokio. Los datos:
• un perfil creciente (tendencia), • fluctúan establemente en torno a una
• fluctuaciones estacionales y media nula,
• una variabilidad que crece a medida • muestran períodos de alta y baja
que aumenta el nivel de la serie. volatilidad
Los primeros y segundos momentos (media y varianza) de distintas series
temporales pueden comportarse de formas muy diferentes
Las series temporales de naturaleza similar (p. ej., financieras) a menudo
presentan rasgos comunes que son de gran utilidad para analizarlas
Ver. 1/16/2003, Pag. # 4
5. Conceptos básicos (I): Definiciones
Proceso estocástico es un conjunto de variables aleatorias asociadas a
distintos instantes de tiempo.
Serie temporal, es un conjunto de observaciones o medidas realizadas
secuencialmente en intervalos predeterminados y de igual, o aproximadamente
igual, duración.
• La relación entre una serie temporal y el proceso estocástico que la genera es
la misma que hay entre una muestra y la variable aleatoria de la que procede.
• Las peculiaridades de una serie temporal (frente a una muestra) y de un
proceso estocástico (frente a una variable aleatoria) son:
• las series temporales y los procesos estocásticos están referidos a
instantes de tiempo concretos, y
• los datos están ordenados desde el pasado hasta el presente.
• El objetivo del análisis de series temporales es inferir la forma del proceso
estocástico a partir de las series temporales que genera.
Ver. 1/16/2003, Pag. # 5
6. Conceptos básicos (II): Hipótesis simplificatorias
• En ciencias sociales suele ser imposible obtener varias muestras de una serie
temporal, por lo que es necesario realizar una serie de supuestos simplificatorios.
• Los supuestos más comunes son:
• Linealidad: El valor que toma hoy la serie (o el proceso) depende
linealmente de: a) sus valores pasados y b) los valores presentes y pasados
de otras series.
• Estacionariedad (débil): La media y varianza incondicional de una serie (o
proceso) son constantes, las autocovarianzas entre dos valores sólo
dependen de la distancia temporal que los separa. Formalmente:
∀ t , k : E ( zt ) = µt = µz
E [( zt − µt )2 ] = σt2 = σz
2
E [( zt − µt )( zt −k − µt −k )] = γt ,k = γ k
• Normalidad: El proceso estocástico generador sigue un modelo normal de
distribución de probabilidad (proceso “gaussiano”).
Ver. 1/16/2003, Pag. # 6
7. Procesos elementales (I): Ruido blanco.
Un proceso de ruido blanco representa una variable que:
• oscila en torno a una media constante,
• con una volatilidad constante y
• cuyo pasado no contiene información útil para predecir valores futuros.
Podemos representar esta variable como zt = µz + at con:
2 γk
E ( zt ) = µz [E (at ) = 0 ] E ( z t ) = σz = γ0 = σa ρk =
2 2
= 0 ; k ≥1
γ0
.4
.3
La figura muestra el perfil de 500 .2
observaciones simuladas del proceso .1
de ruido blanco: .0
-.1
zt = at ; at ∼ iid N(0,.01) -.2
-.3
-.4
100 200 300 400 500
Ruido blanco
Ver. 1/16/2003, Pag. # 7
8. Procesos elementales (II): AR(1).
Un proceso autorregresivo de primer orden, AR(1), representa una variable cuyo
valor actual está relacionado con su valor anterior mediante un modelo de
regresión. Esto es:
zt = c + φzt −1 + at ; φ < 1 (estacionariedad)
2
c 2 2 σa
con: E ( zt ) = µz = E ( z t ) = σz = γ 0 = 2
ρk = φ k ; k ≥ 0
1−φ 1−φ
La figura muestra el perfil de dos series generadas por un AR(1) sin constante,
con distintos valores del parámetro φ:
.4 .6
.3
.4
.2
.2
.1
.0 .0
-.1
-.2
-.2
-.4
-.3
-.4 -.6
100 200 300 400 500 100 200 300 400 500
AR(1) phi=.5 AR(1), phi=.9
Ver. 1/16/2003, Pag. # 8
9. Procesos elementales (III): MA(1).
Un proceso de medias móviles de primer orden, MA(1), representa una variable
cuyo valor actual está correlado con su valor anterior . Esto es:
zt = µz + at − θat −1 ; θ < 1(invertibilidad) ⎧ −θ
⎪
⎪ si k = 1
ρ k = ⎪1 + θ 2
2
Con: E ( zt ) = µz E ( z t ) = σz = γ 0 = (1 + θ 2 )σa
2 2
⎨
⎪
⎪ 0
⎪
⎩ si k > 1
La figura muestra el perfil de dos series generadas por un proceso MA(1) sin
constante, con distintos valores de θ :
.4 .4
.3 .3
.2 .2
.1 .1
.0 .0
-.1 -.1
-.2 -.2
-.3 -.3
-.4 -.4
100 200 300 400 500 100 200 300 400 500
MA(1), theta=.5 ma(1), theta=.9
Ver. 1/16/2003, Pag. # 9
10. Procesos elementales (IV): Paseo aleatorio.
Un paseo aleatorio representa una variable cuyos cambios son ruido blanco y,
por tanto, imprevisibles. Esto es:
y t = c + y t −1 + at
La figura muestra el perfil de dos series generadas por paseos aleatorios con
y sin deriva. Como puede observarse, la característica fundamental de este
proceso es la falta de afinidad de las series a una media estable:
1 450
400
0
350
-1 300
250
-2 200
150
-3
100
-4 50
100 200 300 400 500 100 200 300 400 500
Paseo aleatorio sin deriva Paseo aleatorio con deriva
Ver. 1/16/2003, Pag. # 10
11. Identificación (I): Estadística descriptiva
X
Para contrastar H0 : µX = 0 puede usarse el estadístico: t = ∼ t n−1
σX / n H
0
3 4
n ⎛ ⎞
1 n ⎛ Xi − X ⎞
⎜ ⎟ CK = 1 ⎜ Xi − X ⎟
Coeficientes de asimetría y kurtosis: CA = ∑ ⎜ ⎟
⎟
n i =1 ⎜ σ X ⎠
⎝ ⎟ ∑⎜
n i =1 ⎜ σ X ⎠
⎝
⎟
⎟
⎟
La hipótesis de normalidad puede contrastarse mediante el test de Jarque-Bera:
⎛CA2 (CK − 3)2 ⎞
⎟ ∼ χ2
JB = n ⎜
⎜ + ⎟
⎟
⎜ 6
⎝ 24 ⎟
⎠H
2
0
60
Series: WNOISE
Sample 1 500
El histograma muestra el perfil de una
50
Observations 500
muestra del proceso:
40 Mean 0.002643
30
Median
Maximum
0.006559
0.386147 zt = at ; at ∼ iid N(0,.01)
Minimum -0.304903
Std. Dev. 0.102973
20 Skewness -0.046988 Obsérvese que los momentos
Kurtosis 3.393006
10 muestrales se aproximan a los
Jarque-Bera 3.401768
0
Probability 0.182522 teóricos y el test de Jarque-Bera no
-0.25 0.00 0.25 rechaza normalidad.
Ver. 1/16/2003, Pag. # 11
12. Identificación (II): Función de autocorrelación simple
ρ
El coeficiente muestral de autocorrelación simple de orden k ( k ) se define como:
γk
ˆ 1 n
ρk = con: γ k = ∑ zt zt −k ; zt = zt − z , k = 1, 2,…
ˆ
γ´ 0
ˆ n t =k +1
Para hacer inferencia sobre la función de autocorrelación simple (FAS o ACF)
pueden usarse los siguientes resultados:
• Para muestras suficientemente grandes s.e.(ρ k ) n−1 / 2 K
1 2
• Si es cierto H0 : ρ1 = ρ2 = ρ3 = … = ρK = 0 entonces Q(K ) = n(n + 2) ∑ 2
ρ k ∼ χK −p
k =1 n − k H0
en donde: K es el número de retardos de la ACF
p es el número de parámetros estimados, si la serie es de residuos.
En la figura se muestra la función de
autocorrelación simple de una muestra del
proceso:
zt = at − .5at −1 ; at ∼ iid N(0,.01)
... como puede observarse su configuración se
parece, sin coincidir exactamente, a la FAS
teórica de un proceso MA(1)
Ver. 1/16/2003, Pag. # 12
13. Identificación (III): Función de autocorrelación parcial
Los procesos MA tienen una FAS finita. Por tanto en este caso la FAS resulta
muy útil, tanto para detectar una estructura MA como para identificar su orden.
Un instrumento con propiedades análogas para procesos AR es el coeficiente
muestral de autocorrelación parcial de orden k (φ kk), que se define como el k-
ésimo coeficiente de una autorregresión de orden k estimada por MCO:
ˆ ˆ ˆ
z = φ z + φ z + … + φ z + ε ; k = 1, 2,…
ˆ
t k 1 t −1 k 2 t −2 kk t −k kt
al gráfico de barras de los coeficientes φ kk frente a su correspondiente retardo se
le llama función de autocorrelación parcial (abreviadamente, FAP o PACF).
En la figura se muestran las funciones de
autocorrelación de una muestra del proceso:
zt = .5zt −1 + at ; at ∼ iid N(0,.01)
como puede observarse, la FAP identifica con
claridad la naturaleza y el orden del proceso
generador de los datos.
Ver. 1/16/2003, Pag. # 13
14. Identificación (IV)
Ruido blanco: zt = at ; at ∼ iid N(0,.01)
.4
.3 Combinando
.2 instrumentos gráficos
.1
y estadísticos pueden
.0
-.1
reconocerse de forma
-.2 aproximada las pautas
-.3
de autocorrelación
-.4
100 200 300 400 500 características de los
Ruido blanco
distintos procesos.
AR(1): zt = .5zt −1 + at ; at ∼ iid N(0,.01) En análisis de series
.4
temporales, a este
.3
.2
proceso de
.1 especificación
.0
empírica se le llama
-.1
-.2
“identificación”
-.3
-.4
100 200 300 400 500
AR(1) phi=.5
Ver. 1/16/2003, Pag. # 14
15. Identificación (V)
MA(1): zt = at − .5at −1 ; at ∼ iid N(0,.01)
.4
.3 La identificación
.2 puede estructurarse
.1
.0
como una secuencia
-.1 de preguntas:
-.2
-.3 • ¿Es estacionaria la
-.4
100 200 300 400 500
serie?
MA(1), theta=.5
• ¿Tiene una media
Paseo aleatorio: y t = y t −1 + at ; at ∼ iid N(0,.01) significativa?
1
• ¿Es finita o infinita la
0 ACF?
-1
• ¿Es finita o infinita la
-2 PACF?
-3
-4
100 200 300 400 500
Paseo aleatorio sin deriva
Ver. 1/16/2003, Pag. # 15
16. Identificación (VI)
Combinando el análisis de la ACF y la PACF, la identificación de los procesos
estacionarios puede reducirse a decidir:
• ¿Cuál de las dos funciones es finita? para determinar la naturaleza del proceso
generador:
ACF
Finita Infinita
PACF Finita Ruido blanco AR
Infinita MA ARMA
• ¿A partir de qué retardo muere la ACF o PACF? para determinar el orden del
proceso.
Estas técnicas requieren usar estadísticos como la media, la varianza o la
covarianza muestrales, que sólo tienen sentido si el proceso es estacionario, esto
es, si los datos tienen una media y una varianza finitas y aproximadamente
constantes.
Ver. 1/16/2003, Pag. # 16
17. A.1. Estudio de los procesos más comunes: AR(1)
ACF PACF
zt = c + φzt −1 + at ; φ < 1
c 0 <φ <1
E ( zt ) = µz =
1−φ 1 1
2
2 2 σ
E ( z t ) = σz = γ 0 = a
1 − φ2
γk
ρk = = φk ; k ≥ 0 Retardo Retardo
γ0
Los procesos AR(1) se -1 -1
reconocen por una ACF
infinita y una PACF que −1 < φ < 0
se anula a partir del
segundo retardo. 1
1
Si los datos tienen media,
es necesario especificar
un término constante. Retardo Retardo
-1
-1
Ver. 1/16/2003, Pag. # 17
18. A.2. Estudio de los procesos más comunes: MA(1)
zt = µz + at − θat −1 ; θ < 1 ACF PACF
E ( zt ) = µz 0 < θ <1
2 2 2 2
1 1
E ( z ) = σ = γ 0 = (1 + θ )σ
t z a
⎧ −θ
⎪
γk ⎪ si k = 1
ρk = = ⎪1 + θ 2
⎨
γ0 ⎪
Retardo Retardo
⎪ 0
⎪ si k > 1
⎩
-1 -1
Los procesos MA(1) se
reconocen por una PACF
infinita y una ACF que se −1 < θ < 0
anula a partir del segundo 1
retardo. 1
Si los datos tienen media,
es necesario especificar
un término constante. Retardo
Retardo
-1
-1
Ver. 1/16/2003, Pag. # 18
19. A.3. Estudio de los procesos más comunes: AR(2)
zt = c + φ1zt −1 + φ2 zt −2 + at ACF PACF
φ2 + φ1 < 1 ; φ2 − φ1 < 1 ; φ2 < 1 φ1 > 0 ; φ2 > 0
c
E ( zt ) = µz =
1 1
1 − φ1 − φ2
ρk = φ1 ρk −1 + φ2 ρk −2 ; k ≥ 1
con : Retardo Retardo
φ1 φ12
ρ1 = ; ρ2 = φ2 +
1 − φ2 1 − φ2 -1 -1
Los procesos AR(2) se φ1 < 0 ; φ2 > 0
reconocen por una ACF 1
infinita y una PACF que 1
se anula a partir del tercer
retardo.
Retardo
Si los datos tienen media,
es necesario especificar Retardo
un término constante. -1
-1
Ver. 1/16/2003, Pag. # 19
21. A.5. Estudio de los procesos más comunes: MA(2)
zt = µz + at − θ1at −1 − θ2at −2 ACF ACF
θ2 + θ1 < 1 ; θ2 − θ1 < 1 ; θ2 < 1 θ1 > 0 ; θ2 > 0 θ1 < 0 ; θ2 < 0
E ( zt ) = µz 1 1
2
E ( z t ) = σz = γ 0 = (1 + θ12 + θ22 )σa
2 2
⎧ −θ1 (1 − θ2 )
⎪
⎪
⎪ si k = 1
⎪ 1 + θ12 + θ2
2 Retardo Retardo
⎪
⎪
γ k ⎪ −θ2
⎪
ρk = =⎪
⎨ si k = 2
γ 0 ⎪1 + θ12 + θ2
⎪
2
-1 -1
⎪
⎪
⎪
⎪ 0 si k > 2
⎪
⎪ θ1 < 0 ; θ2 > 0 θ1 > 0 ; θ2 < 0
⎪
⎩
1 1
Los procesos MA(2) se
reconocen por una PACF
infinita (no se muestra aquí)
y una ACF que se anula a Retardo Retardo
partir del tercer retardo.
Si los datos tienen media,
es necesario especificar un -1 -1
término constante.
Ver. 1/16/2003, Pag. # 21
22. Econometría II
Análisis de series temporales (II): Extensiones y metodología
Miguel Jerez y Sonia Sotoca
Universidad Complutense de Madrid
Marzo 2004
Ver. 23/3/2003, Pag. # 1
23. Índice
• Propiedades típicas de las series económicas
• Transformaciones de datos
• Operadores retardo y diferencia
• Procesos generalizados
• Extensiones
• Metodología
Ver. 23/3/2003, Pag. # 2
24. Propiedades típicas de las series económicas
700
600
Muchas series temporales económicas
500
presentan:
Miles de personas
400 • tendencia,
300
• estacionalidad,
200
100 • una variabilidad que crece con su nivel y
0
1950 1952 1954 1956 1958 1960
• componentes deterministas (valores
Pasajeros de líneas aéreas, total mensual
atípicos, ...)
Sin embargo, los procesos ARMA describen variables puramente estocásticas,
no estacionales, con media y varianza constantes. Por tanto, para modelizar
series económicas es necesario definir:
• Transformaciones de datos diseñadas para estabilizar la media y la varianza
de las series.
• Extensiones de la familia de procesos ARMA, que permitan captar tenden-
cias y fluctuaciones estacionales.
Ver. 23/3/2003, Pag. # 3
25. Transformaciones de datos (I): Box-Cox
Muchas series temporales muestran una variabilidad que cambia con su nivel.
Para eliminar esta característica se utiliza la transformación de Box-Cox:
⎧ ( y + m )λ − 1
⎪ t Cada transformación se caracteriza por un
⎪
⎪ si λ ≠ 0
yt λ ,m
=⎨ λ valor del parámetro λ. Además, puede
⎪
⎪ln( y + m )
⎪
⎪
⎩ t si λ = 0 aplicarse un cambio de origen (parámetro,
m) cuando la transformación requiere
valores positivos.
λ>0
λ=0 Para elegir la transformación adecuada
λ<0 puede usarse el gráfico media-desviación
típica muestral de varias submuestras. En
la figura se muestran las configuraciones
σ λ =1
correspondientes a diversos valores de λ.
Las series económicas a menudo mues-
tran una variabilidad que crece con la
media de forma aproximadamente lineal.
µ
En ese caso, la transformación adecuada
es la logarítmica (λ=0)
Ver. 23/3/2003, Pag. # 4
26. Transformaciones de datos (II): Ejemplo Box-Cox
700 650
600
600
500
Miles de personas
400
550
300
Como muestran
200
500 los gráficos,
100
0 450
• la volatilidad
1950 1952 1954 1956 1958 1960 1950 1952 1954 1956 1958 1960
crece linealmente
Pasajeros de líneas aéreas, total mensual LAIR
con el nivel de la
3
S tandardized mean/s td. dev. plot of nº de pas ajeros de lineas aereas
3
S tandardized mean/s td. dev. plot of log nº de pas ajeros de lineas aereas serie,
2 2
• tras la
J
L
M
J
transformación, la
1 1 L M
volatilidad es
S tandard deviations
S tandard deviations
I I
H F G
H
0
F
G 0 B
E
aproximadamente
E
-1
A
B C
D
-1
D
constante.
A C
-2 -2
-3 -3
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
Means Means
Ver. 23/3/2003, Pag. # 5
27. Transformaciones de datos (III): Diferencias
A menudo la tendencia de una serie puede eliminarse diferenciando los datos.
Se dice que una serie es integrada de orden uno si su primera diferencia:
zt = y t − y t −1
es estacionaria en media.
La serie de la primera figura es una muestra del proceso estocástico
y t = y t −1 + at ; at ∼ iid N(0,.01) . Por tanto, zt = y t − y t −1 será estacionaria.
1 .3
.2
0
.1
-1
.0
-2
-.1
-3
-.2
-4 -.3
100 200 300 400 500 100 200 300 400 500
Paseo aleatorio sin deriva Primera diferencia
Algunas series económicas necesitan una diferencia adicional para conseguir
una media incondicional estable. En ese caso se dice que son integradas de
segundo orden.
Ver. 23/3/2003, Pag. # 6
28. Transformaciones de datos (IV): Interpretación
La primera diferencia del logaritmo de una serie es una tasa logarítmica en tanto
por uno, alternativa a la tasa porcentual, ya que si: y t = (1 + αt )y t −1 , resulta:
ln y t − ln y t −1 = ln(1 + αt ) αt Frente a la tasa de variación convencional, la tasa
logarítmica tiene la ventaja de ser aditiva, esto es:
n n
ln y n − ln y 0 = ∑ (ln y t − ln y t −1 ) =∑ ln(1 + αt )
t =1 t =1
En el cuadro se presentan varias transformaciones comunes y su interpretación.
Serie transformada Interpretación
zt = y t − y t −1 Cambio en el valor de yt
Tasa logarítmica (en tanto por uno) de variación entre
zt = ln y t − ln y t −1
un período y el siguiente (indicador de “crecimiento”)
Cambio en la tasa logarítmica de variación entre un
w t = zt − zt −1 ; zt = y t − y t −1 período y el siguiente (indicador de “aceleración” en el
crecimiento)
Tasa logarítmica de variación acumulada en S
zt = ln y t − ln y t −S períodos. Indicador de crecimiento acumulado en un
ciclo estacional
Ver. 23/3/2003, Pag. # 7
29. Operadores retardo y diferencia
A menudo resulta práctico representar los procesos estocásticos utilizando el
operador retardo, que se define de la siguiente manera:
B / i ) Bzt = zt −1
ii ) Bk = k ; k :constante
−1
iii ) B zt = zt +1
0
iv ) B zt = zt
v ) zt = Bzt +1 = B 2 zt +2 = B 3 zt +3 = … = B l zt +l (l > 0)
El operador diferencia se define a partir del operador retardo como:
∇ / ∇y t = (1 − B )y t = y t − y t −1
En series estacionales de período S, a menudo se utiliza una variante de este
operador que se conoce como diferencia estacional:
∇S / ∇S y t = (1 − BS )y t = y t − y t −s
Ver. 23/3/2003, Pag. # 8
30. Procesos generalizados (I): ARMA(p,q)
Los procesos definidos anteriormente pueden escribirse con órdenes generales:
• AR(p): zt = c + φ1zt −1 + φ2 zt −2 + … + φp zt −p + at
• MA(q): zt = µz + at − θ1at −1 − θ2at −2 − … − θq at −q
• ARMA(p,q): zt = c + φ1zt −1 + φ2 zt −2 + … + φp zt −p + at − θ1at −1 − θ2at −2 − … − θq at −q
... y expresarse en términos del operador retardo de la siguiente forma:
• AR(p): φp (B ) zt = c + at
• MA(q): zt = µz + θq (B ) at
• ARMA(p,q): φp (B ) zt = c + θq (B ) at
... en donde:
φp (B ) = 1 − φ1B − φ2B 2 − … − φpB p (polinomio AR)
θq (B ) = 1 − θ1B − θ2B 2 − … − θq B q (polinomio MA)
Ver. 23/3/2003, Pag. # 9
31. Procesos generalizados (II): Estacionariedad
Estacionariedad: Se dice que un proceso estocástico es estacionario si todas
las raíces de la ecuación característica 1 − φ1B − φ2B 2 − … − φpB p = 0 están fuera del
círculo de radio unidad del plano complejo.
La condición de estacionariedad sólo afecta a la componente AR del proceso
ARIMA, ya que la componente MA siempre es estacionaria.
Cuando el polinomio AR tiene alguna raíz igual a uno, se dice que tiene “raíces
unitarias”.
Consecuencias del cumplimiento:
• El proceso tiene media y varianza incondicionales finitas y estables.
• El proceso puede escribirse en forma MA equivalente.
Consecuencias del no cumplimiento (raíces unitarias):
• La varianza incondicional diverge a infinito.
• Si tiene deriva, la media incondicional diverge a infinito.
• El factor AR puede factorizarse separando las raíces unitarias de las raíces
estacionarias.
Ejemplo. El proceso AR(2) no estacionario: (1 − 1.5B + .5B 2 )y t = at es equivalente
al proceso ARIMA(1,1,0): (1 − .5B )∇y t = at
Ver. 23/3/2003, Pag. # 10
32. Procesos generalizados (III): Invertibilidad
Invertibilidad: Se dice que un proceso estocástico es invertible si todas las
raíces de la ecuación característica 1 − θ1B − θ2B 2 − … − θq B q = 0 están fuera del
círculo de radio unidad del plano complejo.
La condición de invertibilidad sólo afecta a la componente MA del proceso
ARIMA, ya que la componente AR siempre es invertible.
Consecuencias del cumplimiento:
• El proceso puede escribirse en forma AR equivalente.
Consecuencias del no cumplimiento (raíces unitarias):
• El proceso podría simplificarse, bien eliminando una diferencia, bien
representando la tendencia de forma determinista.
Ejemplos.
El proceso ARIMA(2,2,1) no invertible: (1 − .5B + .7B 2 )∇2 y t = (1 − B )at es equivalente
al proceso ARIMA(2,1,0): (1 − .5B + .7B 2 )∇y t = at
Diferenciando el proceso de tendencia determinista: y t = β t + at se obtiene el
proceso ARIMA(0,1,1) no invertible: ∇y t = β + (1 − B )at
Ver. 23/3/2003, Pag. # 11
33. Procesos generalizados (IV): ARIMA(p,d,q)
La tendencia estocástica de las series económicas puede captarse mediante
raíces AR unitarias. Por ello tiene interés generalizar la formulación del modelo
ARMA admitiendo en él este tipo de factores. Esta idea da lugar al modelo ARIMA
(p,d,q), que se define como:
φp (B ) ∇ d y t λ,m = c + θq (B ) at
en donde: φ (B ) = 1 − φ B − φ B 2 − … − φ B p [polinomio AR(p)]
p 1 2 p
θq (B ) = 1 − θ1B − θ2B 2 − … − θq B q [polinomio MA(q)]
B / B ± k y t = y t ∓k ∇ ≡ 1 − B [operadores retardo y diferencia]
⎧
⎪ λ
⎪ ( y t + m ) − 1 si λ ≠ 0
⎪
y t λ,m =⎨ λ [transformación de datos (Box-Cox)]
⎪
⎪ln( y + m )
⎪
⎪
⎩ t si λ = 0
Si los polinomios AR y MA tienen sus raíces en o fuera del círculo de radio unidad,
el proceso ARIMA puede escribirse de las siguientes formas equivalentes:
θq (B ) φp (B ) φp (B )
∇ yt
d λ ,m
= µz + at (∇ y t
d λ ,m
− µz ) = at ∇ d y t λ,m = c + at
φp (B ) θq (B ) θq (B )
Ver. 23/3/2003, Pag. # 12
34. Procesos generalizados (V)
Representaciones alternativas: Cuando un proceso estocástico no tiene
raíces AR ni MA dentro del círculo de radio unidad, puede escribirse de forma
equivalente como AR(∞) o MA(∞):
Ejemplo 1. Un AR(1) no explosivo puede escribirse como: (1 − φB )zt = c + at
o, alternativamente, como un proceso media móvil infinito:
c 1
zt = + at = µz + (1 + φB + φ 2B 2 + …) at
1 − φ 1 − φB
Ejemplo 2. Un MA(1) con raíces en o fuera del círculo de radio unidad puede
escribirse como: zt = µz + (1 − θB )at o, alternativamente, como:
1 µ
zt = z + at ; (1 + θB + θ 2B 2 + …) zt = c + at
1 − θB 1− θ
Esto quiere decir que el proceso ARIMA es una aproximación finita a los
procesos estocásticos generales:
• Forma “pi”: zt = c + π1zt −1 + π2 zt −2 + … + at
• Forma “psi”: zt = µz + at + ψ1at −1 + ψ2at −2 + …
Ver. 23/3/2003, Pag. # 13
35. Extensiones (I): Estacionalidad
700
600
Las series económicas a menudo muestran un
comportamiento estacional, esto es, una pauta
500
Miles de personas
que se repite con una periodicidad fija, a
400
menudo anual.
300
200
El período estacional (S) se define como el
número de observaciones necesarias para
100
recorrer todo el ciclo estacional. Por ejemplo,
0
1950 1952 1954 1956 1958 1960 S=12 para datos mensuales, S=4 para datos
Pasajeros de líneas aéreas, total mensual
trimestrales, etc.
Para captar este comportamiento, se define el modelo ARIMA(p,d,q)x(P,D,Q)S:
φp (B ) ΦP (B S )∇S ∇d y t λ,m = c + θq (B ) ΘQ (B S )at
D
... que incluye tres nuevos factores:
ΦP (B S ) = 1 −Φ1B S −Φ2B 2⋅S − … − ΦP B P⋅S [polinomio AR(P)S]
ΘQ (B S ) = 1 −Θ1B S −Θ2B 2⋅S − … −ΘQ BQ⋅S [polinomio MA(Q)S]
∇S ≡ 1 − B S [operador diferencia estacional]
Este modelo admite relaciones entre un dato y el de S períodos atrás.
Ver. 23/3/2003, Pag. # 14
36. Extensiones (II): Modelo RegARIMA
Uniendo las ideas anteriores con el análisis de regresión, resulta inmediato
formular el modelo RegARIMA (modelo de regresión con errores ARIMA) como:
λy ,my
yt = ( x tλx ,mx )T β + εt
con: φp (B ) ΦP (B )∇S ∇ εt = θq (B ) ΘQ (B )at
S D d S
De manera que los valores de la serie temporal se ponen en relación, no sólo
con su pasado, sino también con los valores contemporáneos de otras series,
que actúan como variables explicativas o “inputs”.
λ ,m
Las variables x t x x pueden ser series económicas o variables deterministas
diseñadas para modelizar:
• Efectos calendario, causados por irregularidades en la unidad de tiempo como
pueden ser: distinto número de días laborables y festivos o celebración de la
Semana Santa.
• Valores atípicos (outliers) debidos a fenómenos como, p.ej., el split del nominal
de una acción, cambios en tipos impositivo o fenómenos como inundaciones o
terremotos. En este caso se dice que el modelo es “de intervención”.
Ver. 23/3/2003, Pag. # 15
37. Extensiones (III): Inputs de intervención
Impulsos. Producen un cambio en el nivel de una sola observación de la serie.
Pueden modelizarse mediante:
⎧ 1 si t = t *
⎪
x =⎪
i
⎨
t
⎪ 0 si t ≠ t *
⎪
⎩
Impulsos compensados. Producen un cambio en el nivel de una observación,
seguido por un cambio de nivel compensatorio en la observación siguiente.
Pueden modelizarse mediante:
⎧ 1 si t = t *
⎪
⎪
⎪
⎪
xt = ⎨−1 si t = t * + 1
IC
⎪
⎪ 0 si t ≠ t * , t * + 1
⎪
⎪
⎩
Escalones. Producen un cambio en el nivel de todas las observaciones
posteriores a una fecha dada. Pueden modelizarse mediante:
⎧ 1 si t ≥ t *
⎪
x =⎪
E
⎨
t
⎪ 0 si t < t *
⎪
⎩
Ver. 23/3/2003, Pag. # 16
38. Metodología (I)
Definir los objetivos del análisis,
estudiar la información disponible
Identificación:
Seleccionar una especificación
tentativa
Los métodos de análisis de series
temporales combinan los modelos e Estimación
instrumentos anteriores en una (Métodos no lineales)
metodología sistemática para construir y
probar modelos
Diagnosis:
¿Es válido el modelo
para los fines
Previstos? no
si
Utilización del modelo
Ver. 23/3/2003, Pag. # 17
39. Metodología (II): Identificación
Parámetro Instrumento de identificación Observaciones
Se trata de conseguir que la variabilidad de los
• Gráfico media-desviación típica datos sea independiente de su nivel. En series
m, λ
• Gráfico de la serie temporal económicas es habitual λ=0, lo que supone
transformar logarítmicamente los datos.
• Gráfico de la serie temporal
d, orden de Se trata de conseguir que los datos fluctúen en
diferenciación • ACF (decrecimiento lento y torno a una media aproximadamente estable
lineal)
• Media muestral de la serie Si la media de la serie transformada es
Término diferenciada significativa, el modelo debe incluir un término
constante
• Desviación típica de la media constante
La PACF tiene p valores no nulos
p, orden del • PACF de orden p
término AR Un proceso AR finito y estacionario equivale a
• ACF infinita un MA(∞)
La ACF tiene q valores no nulos
q, orden del • ACF de orden q
término MA Un proceso MA finito e invertible equivale a un
• PACF infinita AR(∞)
Ver. 23/3/2003, Pag. # 18
40. Metodología (III): Diagnosis
Parámetro Instrumento de identificación Observaciones
• Una raíz próxima a uno en la parte AR indica que
• Raíces de los polinomios AR conviene añadir una diferencia
y MA • Una raíz próxima a uno en la parte MA indica que
d, orden de conviene quitar una diferencia
diferenciación
Si muestra rachas largas de residuos positivos o
• Gráfico de la serie de
negativos, puede ser necesaria una diferencia
residuos
adicional
• Media muestral de los
Término residuos Si la media de los residuos es significativa, debe
constante añadirse un término constante
• Desviación típica de la media
• Contrastes de significación
Permiten eliminar parámetros irrelevantes
de los parámetros estimados
• ACF y PACF residuales Detectan pautas de autocorrelación no modelizadas
Contrasta la hipótesis conjunta de que todos los
• Test Q
coeficientes de autocorrelación son nulos
pyq
• Correlaciones elevadas entre
Puede ser un síntoma de sobreparametrización
parámetros estimados
Consiste en añadir parámetros AR y/o MA, para
• Sobreajuste comprobar si resultan significativos y mejoran la
calidad estadística del modelo
Ver. 23/3/2003, Pag. # 19