Trois Essais sur la Stabilité Financière dans la CEMAC
Persistance contre Hystérèse pour les données du chômage en France vf
1. Persistance contre Hystérèse
pour les données du
chômage en France
Ahmed Pierre SAIZONOU
MASTER 2 Ingénierie Economique
Université Montesquieu Bordeaux IV
1
2. INTRODUCTION
De nombreuses tentatives ont été menées pour rendre compte du caractère cyclique
des séries chronologiques en macroéconomie. Les chocs, qui constituent un événement
aléatoire venant frapper l’économie, modifient l’environnement des agents.
Leurs actions futures en réaction à cette perturbation, feront que les effets du choc se
propageront. Ces phénomènes considérés dans leur ensemble induisent donc une véritable
dynamique pour l’économie.
La distinction faite en macroéconomie entre l’analyse des fluctuations et celle de la
croissance, correspond en statistique à la décomposition cycle/tendance, laquelle suppose une
non-permanence des chocs.
Cette décomposition a cependant été soumise à de nombreuses critiques, suite à des travaux
empiriques effectués entre le milieu des années soixante-dix et le milieu des années quatre
vingt.
Ces travaux tendent à révéler l’existence d’un phénomène de persistance, on ne peut
plus ainsi, faire l’hypothèse d’une tendance de long terme sur laquelle les aléas de l’économie
n’ont aucun effet.
La persistance du chômage en Europe va conduire les économistes à expliquer
comment les aléas conjoncturels peuvent avoir un effet permanent sur le niveau du chômage.
Une autre distinction se dégage, à savoir la nécessité de différencier la persistance de
l’hystérèse. Autrement la nécessité de savoir si, dans l’économie il y a une mémoire infinie
des chocs, ou plutôt si le retour à un équilibre, même si le délai est très long, est possible.
Pour ce faire, en appliquant ces théories au cadre du chômage français, nous serons amenés à
distinguer deux hypothèses fortes. En effet l’hypothèse du taux naturel renvoie à la
persistance longue, tandis que celle de l’hystérèse correspond plus à une persistance infinie.
En statistique, cette distinction conduit à considérer deux types de processus, les processus
‘‘Trend Stationnary’’ (TS) et les processus ‘’Difference Stationnary’’ (DS).
Dans notre étude, nous serons donc amenés dans un premier temps à présenter un cadre
historique avant de s’intéresser au cadre théorique ensuite nous présenterons un cadre
théorique de référence pour le chômage, à savoir le modèle de BLANCHARD et SUMMERS
(1987).
Ensuite nous nous intéresserons au test proprement dit de racine unitaire, en présentant
aussi toute la controverse qui l’entoure, cela sur les données françaises. Enfin nous conclurons
sur les résultats de ce test et les conséquences pour le chômage en France.
1-CADRE HISTORIQUE
Le chômage a augmenté tandis que le chômage d’équilibre, estimé à travers la courbe
de PHILLIPS a augmenté en tandem. En Europe, le taux dépasse les onze pour cent, si ce
n’était la chute du prix du pétrole et la dépréciation du dollar l’inflation serait constante.
Autrement dit, le taux de chômage actuel semble être le taux d’équilibre.
L’augmentation des deux taux (actuel et d’équilibre) pourrait être expliquée par les chocs,
mais toutes les tentatives pour identifier ces chocs de manière empirique ont échoué.
2
3. Le ralentissement de la productivité et l’augmentation des prix du pétrole pourraient expliquer
la situation des années 70 mais il y a peu de chocs identifiables pouvant expliquer un
doublement du chômage d’équilibre dans les années 80.
L’emploi en France est un sujet très important tant au niveau politique que social,
quand on tient des nombreuses décisions économiques et politiques visant à réduire le
chômage et soumises à de nombreuses controverses.
A l’aide des données fournies par l’INSEE nous allons essayer de mettre en évidence
pour la France un caractère persistant du chômage. Les données utilisées sont trimestrielles et
couvrent la période. Le graphe suivant décrit alors l’allure du chômage en France.
2- CADRE THEORIQUE
L’approche dominante pour l’analyse des séries macroéconomiques, consistait en une
décomposition cycle/tendance. Une telle décomposition nécessitait l’identification de deux
types de processus, à savoir les processus de type ‘‘Trend Stationnary’’ et les processus de
type ‘’Difference Stationnary’’.
2.1- Cycle et tendance
Une série chronologique a souvent trois composantes : une tendance, une composante
cyclique et une composante saisonnière. Pour des séries désaisonnalisées, la dissociation du
cycle et de la tendance revêt un double intérêt.
3
4. 2.1.1- Sur le plan économique…
Il s’agit de distinguer la composante longue associée à la tendance de la composante
transitoire associée au cycle. En somme, on fait l’hypothèse, pour les séries
macroéconomiques, d’une tendance de long terme autour de laquelle apparaissent des
fluctuations plus ou moins régulières, dont l’impact sur la tendance de long terme est nul.
2.1.2- Sur le plan statistique…
Il faut savoir que l’on ne peut travailler que sur des séries stationnaires. C’est à dire
des séries avec trois caractéristiques : une espérance ne dépendant pas du temps, une variance
et une covariance constantes au cours du temps.
La majeure partie des séries chronologiques étant non-stationnaire, avant toute étude,
il faut procéder à une stationnarisation, et pour ce faire, on distingue deux méthodes pour les
deux cas suivants : le cas des processus stationnaires en tendance et le cas des processus
stationnaires en différence.
2.2- Processus TS et processus DS
La distinction a été étudiée par NELSON et PLOSSER en 1982. Ils précisent que la
macroéconomie sépare une composante croissante non-stationnaire, d’une composante
cyclique stationnaire. Cette distinction est effectuée quand on décompose les séries
chronologiques en économie.
Les perturbations transitoires sont dues à des chocs monétaires, cette représentation
étant nommée processus ‘‘Trend Stationnary’’, ou stationnaire en tendance.
Les processus ‘’Difference Stationnary’’, ou stationnaire en différence, intégrés, affichent une
non-stationnarité qui est, elle, stochastique, et ne présentent donc aucune tendance à retourner
automatiquement à un trend déterministe. Les processus DS ne permettent pas d’effectuer des
prévisions à long terme basées sur la moyenne des séries.
A l’inverse, l’histoire passée du processus TS n’a aucune influence sur sa valeur de
long terme. Les valeurs prises par une variable suivant un processus DS résultent de la somme
des événements passés.
Pour la formalisation, on pourra retenir comme exemple de processus TS un processus
avec une tendance linéaire du type :
X(t) = μ + βt + ε(t)
ε(t) → bb (0,σ²)
Comme exemple de processus DS on prendra l’exemple d’une marche aléatoire pure :
X(t) = X(t-1) + ε(t)
ε(t) → bb (0,σ²)
4
5. La distinction entre les processus TS et DS permet de présenter plus clairement le
phénomène d’hystérèse, notamment les hypothèses sous-jacentes, et de l’opposer à la notion
de persistance.
2.3- Persistance contre hystérèse
La persistance : Un choc transitoire est persistant si, suite à son observation dans
l’économie, le mécanisme de propagation implique un délai avant le retour à l’équilibre
initial. Plus ce délai de retour à l’équilibre est long, plus le choc est persistant.
L’hystérèse : Il y a hystérèse si suite à un choc transitoire dans l’économie le
mécanisme de propagation ne permet pas de revenir à l’équilibre initial. On envisage ici que
l’économie s’est dirigée vers un nouvel équilibre, la propriété d’unicité de l’équilibre est donc
fortement remise en cause. De plus, l’équilibre atteint est conditionné par la somme des
événements antérieurs, il y a donc ici une dépendance au sentier.
3- APPLICATION AU CHOMAGE
Notre cadre de référence sera ici celui développé par BLACNCHARD et SUMMERS
(1987). Les auteurs reviennent sur la dichotomie présente en macroéconomie entre :
→ Chômage d’équilibre : déterminé sur le marché du travail, il bouge lentement et
n’est pas affecté par l’évolution du chômage actuel.
→ Chômage actuel : diffère du chômage d’équilibre à cause des mouvements
inattendus de l’offre et de la demande, l’écart par rapport au taux d’équilibre modifie à son
tour le taux d’inflation et ainsi on a un retour vers le taux de chômage d’équilibre.
Les auteurs présentent ensuite une illustration, tendant à montrer que le taux de chômage
actuel, bien qu’élevé, semble bien être le taux de chômage d’équilibre en Europe.
Le but des deux auteurs est d’expliquer la persistance d’un chômage élevé en Europe. Pour ce
faire, ils utilisent les deux courants les plus intéressants dans la recherche sur l’hystérèse.
Cette recherche étant basée sur l’analyse du marché du travail, plus précisément sur l’étude de
la relation entre le chômage et l’établissement des salaires.
Ces deux courants sont :
- le courant de l’appartenance
- le courant de la durée
Dans le premier on oppose les ‘‘insiders’’ aux ‘’outsiders’’, l’établissement des salaires
dépend plutôt des salariés en exercice plutôt que des chômeurs. Dans le second cas l’accent
est mis sur la différence entre les chômeurs à court terme et les chômeurs à long terme, avec
comme idée que le chômeur de court terme exerce une pression sur l’établissement des
salaires.
Dans leur étude, les deux auteurs fixent un certain nombre d’hypothèses comportementales.
3.1- Les firmes
Les firmes font face à une demande qui est fonction de la demande agrégée (celle-ci
dépendant des encaisses réelles), laquelle quand les prix ne s’ajustent pas, affecte la demande
5
6. globale et l’emploi. Chaque firme a des rendements d’échelle constants, un coût marginal et
une élasticité de la demande constants.
3.2- Les insiders
Les insiders sont les seuls à être représentés lors des négociations salariales, et sont
prioritaires pour l’emploi. Ce pouvoir s’explique par le fait que l’emploi d’un nouveau
travailleur serait un coût supérieur pour l’entreprise, ne serai ce que pour la formation de ce
dernier. BLANCHARD et SUMMERS supposent que dans chaque firme, le groupe des
insiders est assez influent pour établir les salaires de manière unilatérale.
Cet établissement se faisant sur la base d’une anticipation de l’emploi égale au nombre des
insiders. Les insiders représentés par des syndicats s’assurent ainsi une pérennisation de leurs
emplois.
En se basant sur une homogénéité des groupes de travailleurs, et sur une nature nominale des
chocs, les auteurs précisent que si les syndicats s’occupent uniquement des travailleurs en
exercice, on a :
n = nt-1 + (m- Em) (1)
où :
n → emploi à la période actuelle
nt-1 → emploi à la période précédente
m → masse monétaire ( en nominal)
Em → masse monétaire anticipée
Il s’agit ainsi d’une marche aléatoire simple, où le terme d’erreur ou innovation résulte
d’une mauvaise anticipation ou de fluctuations imprévues de la masse monétaire.
Donc avec toutes les implications vues précédemment, on peut dire qu’il n’y aura aucune
tendance dans l’emploi à un retour vers une situation d’équilibre.
Les auteurs poursuivent en précisant qu’à la suite d’un choc négatif sur l’emploi, les
travailleurs en exercice n’ont aucune intention de réduire le salaire nominal afin d’augmenter
l’emploi.
A la suite d’un choc positif sur l’emploi, des outsiders sont maintenant employés, et ils
n’ont pas intérêt à exercer une pression à la hausse sur les salaires, cela afin de conserver leur
emploi.
3.3- Les outsiders
L’hypothèse faite plutôt selon laquelle les outsiders n’ont aucune influence sur
l’établissement des salaires est trop forte. Les auteurs précisent qu’à travers le jeu de la
concurrence, les nouvelles firmes qui emploient des outsiders peuvent pousser les insiders
dans les firmes préexistantes, à accepter une réduction de leurs salaires pour que l’entreprise
réduise ses coûts et reste compétitive.
D’autres considérations sont à prendre en compte pour illustrer l’influence des
outsiders :
→ Plus le chômage est important, plus la probabilité d’être employé est
faible et là le pouvoir de négociation des salaires bascule en faveur des firmes.
6
7. → En situation de chômage fort, remplacer les insiders par des outsiders qui
accepteraient un salaire plus faible serait une tentation forte pour la firme.
Cependant on doit prendre en compte le fait que des conflits au sein de l’entreprise
entre les insiders et les outsiders récemment employés puissent être des sources de coûts
supplémentaires. De plus l’option de remplacement de toute la main d’œuvre n’est pas
envisageable, simplement à cause de la spécificité de cette dernière et donc du coût et du délai
que cela représenterait.
En tenant compte de ces nouvelles hypothèses on arrive à :
1
n- n* = ———— [ nt-1 – n*] + (m – Em) (2)
1 + b
où:
n*→ population active totale
b > 0
On a maintenant à faire à un processus du premier ordre pour décrire l’évolution de
l’emploi. Si (n*) est stable dans le temps, le chômage suit à peu prés un processus auto
régressif d’ordre un. Si (b) est égal à zéro, on se retrouve dans le cas précédent où l’emploi
suit une marche aléatoire. Quand (b) augmente, le degré de persistance tel que nous l’avons
décrit plus haut, diminue.
3.4- La durée du chômage
Ce modèle correspond à une position intermédiaire par rapport aux deux situations
précédentes. En effet, ici l’accent est mis sur le fait que seuls les chômeurs à court terme
exercent une pression à la baisse sur les salaires.
Les travaux empiriques de LAYARD et NICKELL (1986) confortent cette hypothèse en
précisant que pour le Royaume Uni l’effet des chômeurs à long terme sur l’établissement des
salaires est très faible.
D’autres faits tendent à prouver que l’influence des chômeurs à court terme est plus
importante. On peut par exemple se dire que plus la durée du chômage est importante, plus la
productivité est faible, car on a perdu la plupart des aptitudes requises.
On peut aussi tenir compte du salaire de réservation, en supposant qu’il diminue avec la durée
du chômage, on retrouve aussi le fameux arbitrage entre loisir et recherche active d’un emploi
(sous réserve qu’il existe des aides financières pour les chômeurs).
Les auteurs posent l’hypothèse selon laquelle le chômage de court terme est
assimilable aux changements dans la structure du chômage. De plus ils supposent que la
pression sur les salaires de la part des outsiders ne dépend pas du chômage dans sa globalité,
mais plutôt du chômage de court terme anticipé.
Ainsi si on maintient l’hypothèse selon laquelle les syndicats ne s’occupent que des
travailleurs déjà en poste on retrouve l’égalité (1) :
n = nt-1 + (m- Em)
7
8. On retrouve ainsi le résultat de départ, une marche aléatoire, cependant ici on tient
compte du comportement des insiders et de l’influence des chômeurs de court terme.
Pour conclure sur ces différents modèles les auteurs mettent le doigt sur la nécessité
d’envisager des structures de négociation plus complexes. Ils proposent aussi de tenir compte
des disparités sectorielles pour ce qui est de l’établissement des salaires.
Quant à la politique économique, on aboutit à des résultats différents de ceux des théories
niant l’influence du chômage actuel sur le chômage d’équilibre.
Dans le cas de l’Europe, le taux de chômage devrait rester élevé, toute politique tendant à
réduire le taux actuel, réduirait aussi le chômage d’équilibre.
4- TEST D’UNE RACINE UNITAIRE
Il s ‘agit d’un test souvent utilisé pour identifier la nature du processus et donc
l’existence ou non de persistance. Cependant ces tests sont soumis à de nombreuses critiques :
- MANKIW et CAMPBELL (1987)
Ils précisent que la présence d’une racine unitaire est compatible avec une persistance
faible ou élevée. Pour eux, la présence d’une racine unitaire est une condition nécessaire mais
pas suffisante pour la persistance.
- COCHRANE (1988)
Il opère à une remise en cause de l’article de NELSON et PLOSSER, la distinction
court terme long terme est maintenue. Quand on a à faire à une marche aléatoire X(t), la
grandeur se présente sous la forme de:
Var [X(t) – X(t-k)] (3)
La grandeur va alors croître avec (k) tandis que dans le cas d’un processus TS cette
grandeur est indépendante de (k). Pour les processus auto régressifs de type :
X(t) = αX(t-1) + ε(t) (4)
COCHRANE insiste surtout sur la nécessité de distinguer les cas où α = 0,95 ou α =
0,99 de ceux où α = 1.
Le premier cas suggérant une mémoire certes longue, mais pas infinie, alors que le deuxième
renvoie plutôt à l’hypothèse de l’existence d’une racine unitaire et donc d’hystérèse.
- PERRON (1989)
Il remet aussi en cause les idées de NELSON et PLOSSER, en niant la présence de
racines unitaires dans les séries chronologiques macroéconomiques, il penche donc pour des
phénomènes transitoires. Pour lui seuls la crise de 1929 et le choc pétrolier de 1973 ont eu
des effets permanents.
La crise, à travers un changement de l’ordonnée à l’origine de la tendance déterministe
et le choc pétrolier à travers un changement de pente de cette même tendance. PERRON
8
9. remet surtout en cause le test de racine unitaire de DICKEY et FULLER, en prenant comme
exemple un processus TS pour lequel il y a un changement dans la tendance au milieu de
l’échantillon. Il montre qu'on conclut à tort à l’existence d’une tendance stochastique !
Notre démarche pour tester la présence ou non d’une racine unitaire, dans la série du
chômage français suivra la méthode de DICKEY et FULLER. Nous allons plus précisément
effectuer un test joint mené à partir de trois régressions.
5- MISE EN ŒUVRE DU TEST DE DICKEY-FULLER
Nous allons à présent proposer une stratégie de tests de DICKEY-FULLER permettant de
tester la non stationnarité conditionnellement à la spécification du modèle utilisé. On
considère trois modèles définis comme suit :
Modèle 1 : Δxt = φxt−1 + εt (5)
Modèle 2 : Δxt = φxt−1 + c + εt (6)
Modèle 3 : Δxt = φxt−1 + c + βt + εt (7)
avec εt i.i.d. (0, σ2
). On cherche à tester l’hypothèse de racine unitaire :
H0 : φ = 0 H1 : φ < 0
On commence par tester la racine unitaire à partir du modèle le plus général, à savoir le
modèle 3. On compare la réalisation de la statistique de Student t φ=0 aux seuils C3 (α)
tabulés par DICKEY et FULLER, ou McKINNON pour le modèle 3 (par exemple −3.41 à
5%, pour T → ∞). Si la réalisation de t φ=0 est supérieure au seuil C3
(α), on accepte
l’hypothèse nulle de non stationnarité. Une fois que le diagnostic est établi, on cherche à
vérifier si la spécification du modèle 3, incluant une constante et un trend, était une
spécification compatible avec les données. On teste alors la nullité du coefficient
β de la tendance. Deux choses l’une :
• Soit on a rejeté au préalable l’hypothèse de racine unitaire, dans ce cas on teste la nullité de
β par un simple test de Student avec des seuils standards (test symétrique, donc seuil de 1.96
à 5%). Si l’on rejette l’hypothèse β = 0, cela signifie que le modèle 3 est retenu pour tester la
racine unitaire, puisque la présence d’une tendance n’est pas rejetée. Dans ce cas, on conclut
que la racine unitaire est rejetée, la série est TS, du fait de la présence de la tendance.
Cependant, si l’on accepte l’hypothèse β = 0, le modèle n’est pas adapté puisque
la présence d’une tendance est rejetée. On doit refaire le test de racine unitaire à partir du
modèle 2, qui ne comprend qu’une constante.
• Soit, au contraire, on avait au préalable, accepté l’hypothèse de racine unitaire, et dans ce
cas, on doit construire un test de Fischer de l’hypothèse jointe φ = 0 et β = 0. On teste ainsi
la nullité de la tendance, conditionnellement à la présence d’une racine unitaire:
H3
0 : (c; b; φ) = (c; 0; 0) contre H3
1
9
10. La statistique de ce test se construit de façon standard par la relation :
(SCR3,c − SCR3)/2
F3 =
SCR3/ (T − 3)
où SCR3,c est la somme des carrés des résidus du modèle 3 contraint sous H3
0 :
Δxt = c + εt
et SCR3 est la somme des carrés des résidus du modèle 3 non contraint (équation 7) Si F3 est
supérieur à la valeur φ3 lue dans la table de DICKEY ET FULLER à un seuil α%, on
rejette l’hypothèse H3
0 . Dans ce cas, le modèle 3 est retenu et la série xt est intégrée
d’ordre 1. Par contre, si l’on accepte H3
0 , le coefficient de la tendance est nul, le modèle 3
n’est pas le ”bon” modèle, on doit donc effectuer à nouveau le test de non stationnarité dans le
modèle 2.
Si l’on a accepté la nullité du coefficient β de la tendance, on doit alors effectuer à nouveau
les tests de non stationnarité à partir cette fois-ci du modèle 2 (équation 6) incluant
uniquement une constante. On compare alors la réalisation de la statistique de Student tφ=0
aux seuils C2
(α) dans la DICKEY et FULLER, ou MckINNON pour le modèle 2. Si la
réalisation de t φ=0 est supérieure au seuil C2
(α), on accepte l’hypothèse nulle de non
stationnarité. Une fois que le diagnostic est établi, on cherche à vérifier si le modèle 2,
incluant une constante, est une compatible avec les données. On teste alors la nullité du
coefficient c de la constante. Deux choses l’une :
• Soit on a rejeté au préalable l’hypothèse de racine unitaire, dans ce cas on teste la nullité de
c par un simple test de Student avec des seuils standard. Si on rejette l’hypothèse c = 0, on
retiendra le modèle 2 pour tester la racine unitaire, puisque la présence d’une constante n’est
pas rejetée. Dans ce cas, on conclut que la racine unitaire est rejetée, la série est stationnaire
I (0) + c. En revanche, si l’on accepte l’hypothèse c = 0, le modèle 2 n’est pas adapté puisque
la présence d’une constante est rejetée. On doit refaire le test de racine unitaire à partir du
modèle 1, qui ne comprend ni constante ni trend.
• Soit, au contraire, on avait au préalable, accepté l’hypothèse de racine unitaire, et dans ce
cas, on doit construire un test de Fischer de l’hypothèse jointe φ = 0 et c = 0. On teste ainsi
la nullité de la constante, conditionnellement à la présence d’une racine unitaire:
La statistique est :
(SCR2,c – SCR2)/2
F2 =
SCR2/ (T − 2)
10
11. où SCR2,c est la somme des carrés des résidus du modèle 2 contraint sous H2
0 et SCR2 est la
somme des carrés des résidus du modèle
2 non contraint (équation 6).
Si F2 est supérieur à la valeur φ1 de la table à un seuil α, on rejette l’hypothèse H2
0 pour ce
seuil. Dans ce cas, le modèle 2 est retenu et la série xt est intégrée d’ordre 1, I (1)+c. Par
contre, si on accepte H2
0 , le coefficient de la constante est nul, le modèle 2 n’est pas le bon,
on doit donc effectuer à nouveau le test de non stationnarité dans le modèle 1.
Enfin, si l’on a accepté la nullité du coefficient c de la constante, on doit alors effectuer à
nouveau les tests de non stationnarité à partir cette fois-ci du modèle 1 (équation 5) sans
constante ni trend. On compare alors la réalisation de la statistique de Student tφ=0 aux seuils
de la table de DICKEY-FULLER ou McKINNON.
Si la réalisation de tφ=0 est supérieure au seuil C1
(α), on accepte l’hypothèse nulle de non
stationnarité. Dans ce cas la série xt est I (1) et correspond à une pure marche aléatoire,
xt = xt−1 + εt.
Si l’hypothèse nulle est rejetée, la série est stationnaire, I (0) de moyenne nulle
xt = ρxt−1 + εt, avec |ρ| < 1.
Critique de ce test:
Il arrive parfois que les résidus εt du modèle de Dickey Fuller soient autocorrélés, les tests
effectués seraient alors faux.
Il existe alors deux approches différentes pour tenir de cette éventuelle autocorrélation.
• La première approche, proposée par PHILLIPS (1987) et PHILLIPS et PERRON
(1988) consiste à proposer une correction des estimateurs des MCO et des statistiques
de Student associées à ces estimateurs prenant en compte la possible autocorrélation
des résidus.
• La seconde approche, développée par DICKEY et FULLER (1979), consiste à
contrôler directement l’autocorrélation dans le modèle (et non au niveau des
estimateurs) en incluant un ou plusieurs termes autorégressifs différenciés. Une telle
approche permet en de ”blanchir” les résidus et se ramener à une représentation
similaire à celle du test de Dickey Fuller Simple. Dès lors, l’application de cette
nouvelle stratégie est identique à celle présentée précédemment et l’on retrouve les
mêmes distributions asymptotiques.
11
12. 6- TEST DE DICKEY-FULLER AUGMENTE, POUR LE CHOMAGE EN FRANCE
L’intuition de la démarche du test de DICKEY FULLER Augmenté (ADF) consiste à postuler
un modèle de type AR(p) afin de corriger une éventuelle autocorrélation d’ordre p − 1 des
innovations d’une représentation de type AR(1), le terme (p) constituant le nombre de retards.
Ainsi, pour un choix de (p) retards, correspondant à une autocorrélation d’ordre p + 1 des
innovations dans une représentation AR(1), les trois modèles utilisés pour développer le test
ADF sont les suivants :
Modèle 1 : Δxt = φxt−1+ ∑p
j=1 ΨjΔxt−j + μt (8)
Modèle 2 : Δxt = φxt−1+ ∑p
j=1 ΨjΔxt−j + c + μt (9)
Modèle 3 : Δxt = φxt−1 + ∑p
j=1 ΨjΔxt−j +c + βt + μt (10)
La stratégie de test ADF consiste dans un premier temps à déterminer le nombre de retards p
nécessaire pour blanchir les résidus. Dans la seconde étape, il suffit d’appliquer la stratégie
séquentielle du test de Dickey Fuller Simple aux modèles (8), (9) et (10). Les distributions
asymptotiques des statistiques de test tφ obtenues dans ces trois modèles sont alors identiques
à celles obtenues dans les modèles de DICKEY- FULLER simple correspondants.
6-1 Choix du nombre optimal de retards (p)
Il existe différentes façons de choisir l’ordre optimal p
∗
des retards dans le modèle des tests
Dickey Fuller Augmentés.
Dans la pratique, on se limite souvent à l’observation des critères d’information et à la
vérification ex-post de l’absence d’autocorrélation des résidus.
Une méthode alternative consiste à observer les autocorrélations partielles de la série
différenciée et de même vérifier ex-post l’absence d’autocorrélation des résidus.
On retiendra comme critères d’information :
Pour un modèle, incluant k paramètres, estimé sur T périodes et dont la réalisation de
l’estimateur de la variance des résidus est σ2
εt le critère d’Akaike, ou AIC, est :
AIC (k) = T log σ2
εt + 2(k)
Le critère de Schwartz (1978) est défini par:
12
13. SC (k) = T log σ2
εt + k log (T)
On cherche le nombre de retard p qui minimise ces deux critères.
P SBC1 AIC1 SBC2 AIC2 SBC3 AIC3
1 73.133609 69.9117732 70.0566582 65.2239045 72.9399655 66.4962938
2 74.6094855 69.9434413 69.7238828 63.5024906 72.5944336 64.8176933
3 75.3219719 69.3359417 69.2524741 61.7699363 72.3981793 63.419134
4 74.8641724 67.6942364 69.7811809 61.1772577 73.1199641 63.0820536
5 71.9353761 63.7316012 69.2498925 59.6788217 72.616932 61.6785653
Les autocorrélations partielles de la série différenciée apparaissent dans le tableau suivant :
Autocorrélations Partielles
P Corrélation-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1 0.29524 | . |****** |
2 -0.12641 | . ***| . |
3 0.11419 | . |** . |
4 -0.23751 | .*****| . |
5 0.06312 | . |* . |
6 0.00406 | . | . |
7 0.03213 | . |* . |
8 -0.15395 | . ***| . |
9 0.05140 | . |* . |
En combinant les informations ainsi obtenues, on retiendra donc un nombre de retards
p∗ = 1.
La procédure séquentielle du test ADF débutera donc par le modèle 3 incluant une constante,
une tendance.
Δxt = φxt−1 + Ψ1Δxt−1 + βt + c+ μt
13
14. Test de racine unitaire augmenté de Dickey-Fuller
Type Lags Rho Pr < Rho Tau Pr < Tau F Pr > F
Zero Mean
(Modèle 1)
1 0.4389 0.7825 0.64 0.8492
Single Mean
(Modèle 2)
1 -6.6328 0.2732 -2.39 0.1521 3.60 0.1819
Trend
(Modèle 3)
1 -8.7714 0.4747 -2.37 0.3883 3.15 0.5650
La probabilité critique associée au test ADF dans le modèle 3 (incluant une tendance)
(Pr<Tau=0.3883) conduit à accepter l’hypothèse nulle de racine unitaire. On effectue alors le
test conjoint de présence d’une racine unitaire et la nullité du coefficient de la tendance (test
F3) afin de s’assurer que le modèle 3 est le bon.
La probabilité critique du test est (Pr>F=0.5650) conduit à accepter l’hypothèse nulle, on a
bien une racine unitaire et le coefficient de la tendance est nul.
Il faut donc refaire le test de ADF dans le modèle 2 (incluant une constante) : la probabilité
critique du test ADF (Pr<Tau=0.1521) conduit à accepter l’hypothèse nulle de racine
unitaire. On effectue alors le test conjoint de présence d’une racine unitaire et la nullité de la
constante (test F2) afin de s’assurer que le modèle 2 est le bon.
La probabilité critique de ce test (Pr>F=0.1819) conduit à accepter l’hypothèse nulle, on a
bien une racine unitaire et le coefficient de la constante est nul.
On retiendra donc le modèle 1 pour la suite, on a un processus intégré d’ordre 1 sans
tendance et sans constante.
14
15. 7- MODELISATION DU PROCESSUS ET ESTIMATIONS
Les étapes précédentes nous ont permis de conclure quant à la nature du processus aléatoire.
7-1 Représentation graphique de la série différenciée
DUn
-2
-1
0
1
2
t
7-2 Qualification du processus ARMA (p,q)
Rappels
Pour un processus de type AR(p) :
- On peut montrer que la fonction d’autocorrélations (ACF) décroît
exponentiellement vite vers 0 pour un processus de type AR(p).
- La fonction d’autocorrélations partielles (PACF) d’un processus AR(p) est
nulle pour k ≥ p+ 1.
Pour un processus de type MA(q) :
- Pour (r ≥ 0) et Xt étant un MA(q) on peut dire que la fonction
d’autocorrélations (ACF) est quasiment nulle ( ~ 0) quand r ≥ q.
Pour un processus de type ARMA(p,q) :
- Pour un ARMA, les trois fonctions : ACF, PACF et fonction inverse
d’autocorrélations IACF tendent exponentiellement vers 0.
15
17. Critères d’informations Minimum
p,q MA 0 MA 1 MA 2 MA 3 MA 4 MA 5
AR 0 -1.07995 -1.13668 -1.05828 -1.04695 -1.00659 -0.93032
AR 1 -1.07799 -1.05701 -0.96808 -0.9515 -0.9233 -0.83468
AR 2 -1.01089 -0.97103 -0.87932 -0.86013 -0.84767 -0.75222
AR 3 -1.02105 -0.9485 -0.85509 -0.79513 -0.78014 -0.69909
AR 4 -1.0175 -0.922 -0.82915 -0.73406 -0.70909 -0.61602
AR 5 -0.92254 -0.82741 -0.73733 -0.69119 -0.61722 -0.597
Valeur minimale de la table: BIC(0,1) = -1.13668
Notre choix se portera donc sur un MA(1).
7-3 Estimation du processus MA (q=1)
Nous allons à présent, toujours à l’aide de SAS, estimer notre série. On obtient le tableau
suivant pour les coefficients estimés :
Moving Average Factors
Factor 1: 1 + 0.43404 B**(1)
Test d’autocorrélation pour les résidus
Au retard Chi-Square DF Pr > ChiSq Autocorrélations
6 2.81 5 0.7296 -0.064 -0.055 0.141 -0.185 -0.033 0.038
12 5.58 11 0.9000 0.028 -0.079 -0.064 0.180 -0.026 0.082
18 14.04 17 0.6645 0.106 -0.329 0.045 -0.091 0.040 -0.035
24 18.40 23 0.7353 -0.008 -0.036 -0.096 0.052 -0.146 -0.096
Pour tous les retards considérés dans le tableau, l’hypothèse de bruit blanc est bien retenue
pour la série des résidus du modèle estimé.
7-4 Prévision pour le processus MA (q=1)
Nous allons à présent effectuer la prévision en prenant comme horizon une période (1 an), les
résultats sont présentés dans le tableau et graphique suivants.
Prévisions pour la variable Un
Obs Prévision Std Error
Limite de confiance à
95% Réel Résidu
2 3.4745 0.5815 2.3348 4.6141 3.7000 0.2255
3 3.9724 0.5815 2.8327 5.1120 4.2000 0.2276
4 4.4733 0.5815 3.3336 5.6129 4.3000 -0.1733
5 4.3993 0.5815 3.2596 5.5389 4.9000 0.5007
6 5.2918 0.5815 4.1521 6.4315 5.2000 -0.0918
7 5.3346 0.5815 4.1950 6.4743 6.1000 0.7654
8 6.6067 0.5815 5.4670 7.7463 6.6000 -0.0067
9 6.7716 0.5815 5.6319 7.9112 6.9000 0.1284
17
19. Dans le tableau précédent, la prévision pour l’année suivante (2014) correspond à
l’observation (40), sont reprises également, les bornes supérieures et inférieures de l’intervalle
de confiance à 95 % (bande bleue du graphique).
Le modèle prévoit donc un taux de chômage de 10.0795 % avec un intervalle de confiance à
95% donné par [8.9399 – 11.2192].
19
20. CONCLUSION
A la vue des tests précédents on peut dire que pour le chômage français, on a à faire à un
processus intégré d’ordre un et de catégorie Difference Stationary.
En utilisant ces résultats, les implications au niveau théorique comme nous l’avons vu c’est
qu’il semble y avoir en France une persistance très forte voir infinie après les chocs qui ont
touché le chômage.
Conclusions à nuancer, dans la mesure où les tests que nous avons utilisés sont soumis à de
nombreuses critiques.
Il serait ensuite très intéressant pour l’analyse de comparer l’évolution conjointe, (en
introduisant le concept de cointégration), du chômage et des salaires et/ou de l’inflation en
France par exemple pour analyser tout lien de causalité ce qui pourrait permettre de conforter
ou d’infirmer certaines théories.
20
21. BIBLIOGRAPHIE
- ABRAHAM-FROIS (G.), Dynamique économique (6ème
édition), éd. Dalloz,
p 438-456, Paris, 2002
- BEAN (C.R.), European unemployment: A Survey, in Journal of Economic
Literature, vol.32, No. 2, p573-619, juin 1994
- BLANCHARD (O.J.) et SUMMERS (L.H.), Hysteresis in unemployment, in
European Economic Review, vol. 31, p288-295, 1987
- HAIRAULT (J.O.), Analyse macroéconomique 2, éd. La découverte, chap.
22, Paris, 2000
- MITCHELL (W.F.), Testing for unit roots and persistence in O.E.C.D.
unemployment rates, in Applied Economics, vol. 25, p1489-1501, 1993
- ROED (K.), Unemployment Hysteresis – Macro Evidence from 16 O.E.C.D.
Countries, in Empirical Economics, vol. 21, p589-600, 1996
21