Persistance contre Hystérèse
pour les données du
chômage en France
Ahmed Pierre SAIZONOU
MASTER 2 Ingénierie Economique
Un...
INTRODUCTION
De nombreuses tentatives ont été menées pour rendre compte du caractère cyclique
des séries chronologiques en...
Le ralentissement de la productivité et l’augmentation des prix du pétrole pourraient expliquer
la situation des années 70...
2.1.1- Sur le plan économique…
Il s’agit de distinguer la composante longue associée à la tendance de la composante
transi...
La distinction entre les processus TS et DS permet de présenter plus clairement le
phénomène d’hystérèse, notamment les hy...
globale et l’emploi. Chaque firme a des rendements d’échelle constants, un coût marginal et
une élasticité de la demande c...
→ En situation de chômage fort, remplacer les insiders par des outsiders qui
accepteraient un salaire plus faible serait u...
On retrouve ainsi le résultat de départ, une marche aléatoire, cependant ici on tient
compte du comportement des insiders ...
remet surtout en cause le test de racine unitaire de DICKEY et FULLER, en prenant comme
exemple un processus TS pour leque...
La statistique de ce test se construit de façon standard par la relation :
(SCR3,c − SCR3)/2
F3 =
SCR3/ (T − 3)
où SCR3,c ...
où SCR2,c est la somme des carrés des résidus du modèle 2 contraint sous H2
0 et SCR2 est la
somme des carrés des résidus ...
6- TEST DE DICKEY-FULLER AUGMENTE, POUR LE CHOMAGE EN FRANCE
L’intuition de la démarche du test de DICKEY FULLER Augmenté ...
SC (k) = T log σ2
εt + k log (T)
On cherche le nombre de retard p qui minimise ces deux critères.
P SBC1 AIC1 SBC2 AIC2 SB...
Test de racine unitaire augmenté de Dickey-Fuller
Type Lags Rho Pr < Rho Tau Pr < Tau F Pr > F
Zero Mean
(Modèle 1)
1 0.43...
7- MODELISATION DU PROCESSUS ET ESTIMATIONS
Les étapes précédentes nous ont permis de conclure quant à la nature du proces...
Ces différentes notions nous aideront dans notre diagnostique, pour procéder
commençons par représenter ces différentes fo...
Critères d’informations Minimum
p,q MA 0 MA 1 MA 2 MA 3 MA 4 MA 5
AR 0 -1.07995 -1.13668 -1.05828 -1.04695 -1.00659 -0.930...
Prévisions pour la variable Un
Obs Prévision Std Error
Limite de confiance à
95% Réel Résidu
10 7.1302 0.5815 5.9905 8.269...
Dans le tableau précédent, la prévision pour l’année suivante (2014) correspond à
l’observation (40), sont reprises égalem...
CONCLUSION
A la vue des tests précédents on peut dire que pour le chômage français, on a à faire à un
processus intégré d’...
BIBLIOGRAPHIE
- ABRAHAM-FROIS (G.), Dynamique économique (6ème
édition), éd. Dalloz,
p 438-456, Paris, 2002
- BEAN (C.R.),...
Prochain SlideShare
Chargement dans…5
×

Persistance contre Hystérèse pour les données du chômage en France

314 vues

Publié le

0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
314
Sur SlideShare
0
Issues des intégrations
0
Intégrations
4
Actions
Partages
0
Téléchargements
2
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Persistance contre Hystérèse pour les données du chômage en France

  1. 1. Persistance contre Hystérèse pour les données du chômage en France Ahmed Pierre SAIZONOU MASTER 2 Ingénierie Economique Université Montesquieu Bordeaux IV 1
  2. 2. INTRODUCTION De nombreuses tentatives ont été menées pour rendre compte du caractère cyclique des séries chronologiques en macroéconomie. Les chocs, qui constituent un événement aléatoire venant frapper l’économie, modifient l’environnement des agents. Leurs actions futures en réaction à cette perturbation, feront que les effets du choc se propageront. Ces phénomènes considérés dans leur ensemble induisent donc une véritable dynamique pour l’économie. La distinction faite en macroéconomie entre l’analyse des fluctuations et celle de la croissance, correspond en statistique à la décomposition cycle/tendance, laquelle suppose une non-permanence des chocs. Cette décomposition a cependant été soumise à de nombreuses critiques, suite à des travaux empiriques effectués entre le milieu des années soixante-dix et le milieu des années quatre vingt. Ces travaux tendent à révéler l’existence d’un phénomène de persistance, on ne peut plus ainsi, faire l’hypothèse d’une tendance de long terme sur laquelle les aléas de l’économie n’ont aucun effet. La persistance du chômage en Europe va conduire les économistes à expliquer comment les aléas conjoncturels peuvent avoir un effet permanent sur le niveau du chômage. Une autre distinction se dégage, à savoir la nécessité de différencier la persistance de l’hystérèse. Autrement la nécessité de savoir si, dans l’économie il y a une mémoire infinie des chocs, ou plutôt si le retour à un équilibre, même si le délai est très long, est possible. Pour ce faire, en appliquant ces théories au cadre du chômage français, nous serons amenés à distinguer deux hypothèses fortes. En effet l’hypothèse du taux naturel renvoie à la persistance longue, tandis que celle de l’hystérèse correspond plus à une persistance infinie. En statistique, cette distinction conduit à considérer deux types de processus, les processus ‘‘Trend Stationnary’’ (TS) et les processus ‘’Difference Stationnary’’ (DS). Dans notre étude, nous serons donc amenés dans un premier temps à présenter un cadre historique avant de s’intéresser au cadre théorique ensuite nous présenterons un cadre théorique de référence pour le chômage, à savoir le modèle de BLANCHARD et SUMMERS (1987). Ensuite nous nous intéresserons au test proprement dit de racine unitaire, en présentant aussi toute la controverse qui l’entoure, cela sur les données françaises. Enfin nous conclurons sur les résultats de ce test et les conséquences pour le chômage en France. 1-CADRE HISTORIQUE Le chômage a augmenté tandis que le chômage d’équilibre, estimé à travers la courbe de PHILLIPS a augmenté en tandem. En Europe, le taux dépasse les onze pour cent, si ce n’était la chute du prix du pétrole et la dépréciation du dollar l’inflation serait constante. Autrement dit, le taux de chômage actuel semble être le taux d’équilibre. L’augmentation des deux taux (actuel et d’équilibre) pourrait être expliquée par les chocs, mais toutes les tentatives pour identifier ces chocs de manière empirique ont échoué. 2
  3. 3. Le ralentissement de la productivité et l’augmentation des prix du pétrole pourraient expliquer la situation des années 70 mais il y a peu de chocs identifiables pouvant expliquer un doublement du chômage d’équilibre dans les années 80. L’emploi en France est un sujet très important tant au niveau politique que social, quand on tient des nombreuses décisions économiques et politiques visant à réduire le chômage et soumises à de nombreuses controverses. A l’aide des données fournies par l’INSEE nous allons essayer de mettre en évidence pour la France un caractère persistant du chômage. Les données utilisées sont trimestrielles et couvrent la période. Le graphe suivant décrit alors l’allure du chômage en France. 2- CADRE THEORIQUE L’approche dominante pour l’analyse des séries macroéconomiques, consistait en une décomposition cycle/tendance. Une telle décomposition nécessitait l’identification de deux types de processus, à savoir les processus de type ‘‘Trend Stationnary’’ et les processus de type ‘’Difference Stationnary’’. 2.1- Cycle et tendance Une série chronologique a souvent trois composantes : une tendance, une composante cyclique et une composante saisonnière. Pour des séries désaisonnalisées, la dissociation du cycle et de la tendance revêt un double intérêt. 3
  4. 4. 2.1.1- Sur le plan économique… Il s’agit de distinguer la composante longue associée à la tendance de la composante transitoire associée au cycle. En somme, on fait l’hypothèse, pour les séries macroéconomiques, d’une tendance de long terme autour de laquelle apparaissent des fluctuations plus ou moins régulières, dont l’impact sur la tendance de long terme est nul. 2.1.2- Sur le plan statistique… Il faut savoir que l’on ne peut travailler que sur des séries stationnaires. C’est à dire des séries avec trois caractéristiques : une espérance ne dépendant pas du temps, une variance et une covariance constantes au cours du temps. La majeure partie des séries chronologiques étant non-stationnaire, avant toute étude, il faut procéder à une stationnarisation, et pour ce faire, on distingue deux méthodes pour les deux cas suivants : le cas des processus stationnaires en tendance et le cas des processus stationnaires en différence. 2.2- Processus TS et processus DS La distinction a été étudiée par NELSON et PLOSSER en 1982. Ils précisent que la macroéconomie sépare une composante croissante non-stationnaire, d’une composante cyclique stationnaire. Cette distinction est effectuée quand on décompose les séries chronologiques en économie. Les perturbations transitoires sont dues à des chocs monétaires, cette représentation étant nommée processus ‘‘Trend Stationnary’’, ou stationnaire en tendance. Les processus ‘’Difference Stationnary’’, ou stationnaire en différence, intégrés, affichent une non-stationnarité qui est, elle, stochastique, et ne présentent donc aucune tendance à retourner automatiquement à un trend déterministe. Les processus DS ne permettent pas d’effectuer des prévisions à long terme basées sur la moyenne des séries. A l’inverse, l’histoire passée du processus TS n’a aucune influence sur sa valeur de long terme. Les valeurs prises par une variable suivant un processus DS résultent de la somme des événements passés. Pour la formalisation, on pourra retenir comme exemple de processus TS un processus avec une tendance linéaire du type : X(t) = μ + βt + ε(t) ε(t) → bb (0,σ²) Comme exemple de processus DS on prendra l’exemple d’une marche aléatoire pure : X(t) = X(t-1) + ε(t) ε(t) → bb (0,σ²) 4
  5. 5. La distinction entre les processus TS et DS permet de présenter plus clairement le phénomène d’hystérèse, notamment les hypothèses sous-jacentes, et de l’opposer à la notion de persistance. 2.3- Persistance contre hystérèse La persistance : Un choc transitoire est persistant si, suite à son observation dans l’économie, le mécanisme de propagation implique un délai avant le retour à l’équilibre initial. Plus ce délai de retour à l’équilibre est long, plus le choc est persistant. L’hystérèse : Il y a hystérèse si suite à un choc transitoire dans l’économie le mécanisme de propagation ne permet pas de revenir à l’équilibre initial. On envisage ici que l’économie s’est dirigée vers un nouvel équilibre, la propriété d’unicité de l’équilibre est donc fortement remise en cause. De plus, l’équilibre atteint est conditionné par la somme des événements antérieurs, il y a donc ici une dépendance au sentier. 3- APPLICATION AU CHOMAGE Notre cadre de référence sera ici celui développé par BLACNCHARD et SUMMERS (1987). Les auteurs reviennent sur la dichotomie présente en macroéconomie entre : → Chômage d’équilibre : déterminé sur le marché du travail, il bouge lentement et n’est pas affecté par l’évolution du chômage actuel. → Chômage actuel : diffère du chômage d’équilibre à cause des mouvements inattendus de l’offre et de la demande, l’écart par rapport au taux d’équilibre modifie à son tour le taux d’inflation et ainsi on a un retour vers le taux de chômage d’équilibre. Les auteurs présentent ensuite une illustration, tendant à montrer que le taux de chômage actuel, bien qu’élevé, semble bien être le taux de chômage d’équilibre en Europe. Le but des deux auteurs est d’expliquer la persistance d’un chômage élevé en Europe. Pour ce faire, ils utilisent les deux courants les plus intéressants dans la recherche sur l’hystérèse. Cette recherche étant basée sur l’analyse du marché du travail, plus précisément sur l’étude de la relation entre le chômage et l’établissement des salaires. Ces deux courants sont : - le courant de l’appartenance - le courant de la durée Dans le premier on oppose les ‘‘insiders’’ aux ‘’outsiders’’, l’établissement des salaires dépend plutôt des salariés en exercice plutôt que des chômeurs. Dans le second cas l’accent est mis sur la différence entre les chômeurs à court terme et les chômeurs à long terme, avec comme idée que le chômeur de court terme exerce une pression sur l’établissement des salaires. Dans leur étude, les deux auteurs fixent un certain nombre d’hypothèses comportementales. 3.1- Les firmes Les firmes font face à une demande qui est fonction de la demande agrégée (celle-ci dépendant des encaisses réelles), laquelle quand les prix ne s’ajustent pas, affecte la demande 5
  6. 6. globale et l’emploi. Chaque firme a des rendements d’échelle constants, un coût marginal et une élasticité de la demande constants. 3.2- Les insiders Les insiders sont les seuls à être représentés lors des négociations salariales, et sont prioritaires pour l’emploi. Ce pouvoir s’explique par le fait que l’emploi d’un nouveau travailleur serait un coût supérieur pour l’entreprise, ne serai ce que pour la formation de ce dernier. BLANCHARD et SUMMERS supposent que dans chaque firme, le groupe des insiders est assez influent pour établir les salaires de manière unilatérale. Cet établissement se faisant sur la base d’une anticipation de l’emploi égale au nombre des insiders. Les insiders représentés par des syndicats s’assurent ainsi une pérennisation de leurs emplois. En se basant sur une homogénéité des groupes de travailleurs, et sur une nature nominale des chocs, les auteurs précisent que si les syndicats s’occupent uniquement des travailleurs en exercice, on a : n = nt-1 + (m- Em) (1) où : n → emploi à la période actuelle nt-1 → emploi à la période précédente m → masse monétaire ( en nominal) Em → masse monétaire anticipée Il s’agit ainsi d’une marche aléatoire simple, où le terme d’erreur ou innovation résulte d’une mauvaise anticipation ou de fluctuations imprévues de la masse monétaire. Donc avec toutes les implications vues précédemment, on peut dire qu’il n’y aura aucune tendance dans l’emploi à un retour vers une situation d’équilibre. Les auteurs poursuivent en précisant qu’à la suite d’un choc négatif sur l’emploi, les travailleurs en exercice n’ont aucune intention de réduire le salaire nominal afin d’augmenter l’emploi. A la suite d’un choc positif sur l’emploi, des outsiders sont maintenant employés, et ils n’ont pas intérêt à exercer une pression à la hausse sur les salaires, cela afin de conserver leur emploi. 3.3- Les outsiders L’hypothèse faite plutôt selon laquelle les outsiders n’ont aucune influence sur l’établissement des salaires est trop forte. Les auteurs précisent qu’à travers le jeu de la concurrence, les nouvelles firmes qui emploient des outsiders peuvent pousser les insiders dans les firmes préexistantes, à accepter une réduction de leurs salaires pour que l’entreprise réduise ses coûts et reste compétitive. D’autres considérations sont à prendre en compte pour illustrer l’influence des outsiders : → Plus le chômage est important, plus la probabilité d’être employé est faible et là le pouvoir de négociation des salaires bascule en faveur des firmes. 6
  7. 7. → En situation de chômage fort, remplacer les insiders par des outsiders qui accepteraient un salaire plus faible serait une tentation forte pour la firme. Cependant on doit prendre en compte le fait que des conflits au sein de l’entreprise entre les insiders et les outsiders récemment employés puissent être des sources de coûts supplémentaires. De plus l’option de remplacement de toute la main d’œuvre n’est pas envisageable, simplement à cause de la spécificité de cette dernière et donc du coût et du délai que cela représenterait. En tenant compte de ces nouvelles hypothèses on arrive à : 1 n- n* = ———— [ nt-1 – n*] + (m – Em) (2) 1 + b où: n*→ population active totale b > 0 On a maintenant à faire à un processus du premier ordre pour décrire l’évolution de l’emploi. Si (n*) est stable dans le temps, le chômage suit à peu prés un processus auto régressif d’ordre un. Si (b) est égal à zéro, on se retrouve dans le cas précédent où l’emploi suit une marche aléatoire. Quand (b) augmente, le degré de persistance tel que nous l’avons décrit plus haut, diminue. 3.4- La durée du chômage Ce modèle correspond à une position intermédiaire par rapport aux deux situations précédentes. En effet, ici l’accent est mis sur le fait que seuls les chômeurs à court terme exercent une pression à la baisse sur les salaires. Les travaux empiriques de LAYARD et NICKELL (1986) confortent cette hypothèse en précisant que pour le Royaume Uni l’effet des chômeurs à long terme sur l’établissement des salaires est très faible. D’autres faits tendent à prouver que l’influence des chômeurs à court terme est plus importante. On peut par exemple se dire que plus la durée du chômage est importante, plus la productivité est faible, car on a perdu la plupart des aptitudes requises. On peut aussi tenir compte du salaire de réservation, en supposant qu’il diminue avec la durée du chômage, on retrouve aussi le fameux arbitrage entre loisir et recherche active d’un emploi (sous réserve qu’il existe des aides financières pour les chômeurs). Les auteurs posent l’hypothèse selon laquelle le chômage de court terme est assimilable aux changements dans la structure du chômage. De plus ils supposent que la pression sur les salaires de la part des outsiders ne dépend pas du chômage dans sa globalité, mais plutôt du chômage de court terme anticipé. Ainsi si on maintient l’hypothèse selon laquelle les syndicats ne s’occupent que des travailleurs déjà en poste on retrouve l’égalité (1) : n = nt-1 + (m- Em) 7
  8. 8. On retrouve ainsi le résultat de départ, une marche aléatoire, cependant ici on tient compte du comportement des insiders et de l’influence des chômeurs de court terme. Pour conclure sur ces différents modèles les auteurs mettent le doigt sur la nécessité d’envisager des structures de négociation plus complexes. Ils proposent aussi de tenir compte des disparités sectorielles pour ce qui est de l’établissement des salaires. Quant à la politique économique, on aboutit à des résultats différents de ceux des théories niant l’influence du chômage actuel sur le chômage d’équilibre. Dans le cas de l’Europe, le taux de chômage devrait rester élevé, toute politique tendant à réduire le taux actuel, réduirait aussi le chômage d’équilibre. 4- TEST D’UNE RACINE UNITAIRE Il s ‘agit d’un test souvent utilisé pour identifier la nature du processus et donc l’existence ou non de persistance. Cependant ces tests sont soumis à de nombreuses critiques : - MANKIW et CAMPBELL (1987) Ils précisent que la présence d’une racine unitaire est compatible avec une persistance faible ou élevée. Pour eux, la présence d’une racine unitaire est une condition nécessaire mais pas suffisante pour la persistance. - COCHRANE (1988) Il opère à une remise en cause de l’article de NELSON et PLOSSER, la distinction court terme long terme est maintenue. Quand on a à faire à une marche aléatoire X(t), la grandeur se présente sous la forme de: Var [X(t) – X(t-k)] (3) La grandeur va alors croître avec (k) tandis que dans le cas d’un processus TS cette grandeur est indépendante de (k). Pour les processus auto régressifs de type : X(t) = αX(t-1) + ε(t) (4) COCHRANE insiste surtout sur la nécessité de distinguer les cas où α = 0,95 ou α = 0,99 de ceux où α = 1. Le premier cas suggérant une mémoire certes longue, mais pas infinie, alors que le deuxième renvoie plutôt à l’hypothèse de l’existence d’une racine unitaire et donc d’hystérèse. - PERRON (1989) Il remet aussi en cause les idées de NELSON et PLOSSER, en niant la présence de racines unitaires dans les séries chronologiques macroéconomiques, il penche donc pour des phénomènes transitoires. Pour lui seuls la crise de 1929 et le choc pétrolier de 1973 ont eu des effets permanents. La crise, à travers un changement de l’ordonnée à l’origine de la tendance déterministe et le choc pétrolier à travers un changement de pente de cette même tendance. PERRON 8
  9. 9. remet surtout en cause le test de racine unitaire de DICKEY et FULLER, en prenant comme exemple un processus TS pour lequel il y a un changement dans la tendance au milieu de l’échantillon. Il montre qu'on conclut à tort à l’existence d’une tendance stochastique ! Notre démarche pour tester la présence ou non d’une racine unitaire, dans la série du chômage français suivra la méthode de DICKEY et FULLER. Nous allons plus précisément effectuer un test joint mené à partir de trois régressions. 5- MISE EN ŒUVRE DU TEST DE DICKEY-FULLER Nous allons à présent proposer une stratégie de tests de DICKEY-FULLER permettant de tester la non stationnarité conditionnellement à la spécification du modèle utilisé. On considère trois modèles définis comme suit : Modèle 1 : Δxt = φxt−1 + εt (5) Modèle 2 : Δxt = φxt−1 + c + εt (6) Modèle 3 : Δxt = φxt−1 + c + βt + εt (7) avec εt i.i.d. (0, σ2 ). On cherche à tester l’hypothèse de racine unitaire : H0 : φ = 0 H1 : φ < 0 On commence par tester la racine unitaire à partir du modèle le plus général, à savoir le modèle 3. On compare la réalisation de la statistique de Student t􀁥 φ=0 aux seuils C3 (α) tabulés par DICKEY et FULLER, ou McKINNON pour le modèle 3 (par exemple −3.41 à 5%, pour T → ∞). Si la réalisation de t φ=0 est supérieure au seuil C3 (α), on accepte l’hypothèse nulle de non stationnarité. Une fois que le diagnostic est établi, on cherche à vérifier si la spécification du modèle 3, incluant une constante et un trend, était une spécification compatible avec les données. On teste alors la nullité du coefficient β de la tendance. Deux choses l’une : • Soit on a rejeté au préalable l’hypothèse de racine unitaire, dans ce cas on teste la nullité de β par un simple test de Student avec des seuils standards (test symétrique, donc seuil de 1.96 à 5%). Si l’on rejette l’hypothèse β = 0, cela signifie que le modèle 3 est retenu pour tester la racine unitaire, puisque la présence d’une tendance n’est pas rejetée. Dans ce cas, on conclut que la racine unitaire est rejetée, la série est TS, du fait de la présence de la tendance. Cependant, si l’on accepte l’hypothèse β = 0, le modèle n’est pas adapté puisque la présence d’une tendance est rejetée. On doit refaire le test de racine unitaire à partir du modèle 2, qui ne comprend qu’une constante. • Soit, au contraire, on avait au préalable, accepté l’hypothèse de racine unitaire, et dans ce cas, on doit construire un test de Fischer de l’hypothèse jointe φ = 0 et β = 0. On teste ainsi la nullité de la tendance, conditionnellement à la présence d’une racine unitaire: H3 0 : (c; b; φ) = (c; 0; 0) contre H3 1 9
  10. 10. La statistique de ce test se construit de façon standard par la relation : (SCR3,c − SCR3)/2 F3 = SCR3/ (T − 3) où SCR3,c est la somme des carrés des résidus du modèle 3 contraint sous H3 0 : Δxt = c + εt et SCR3 est la somme des carrés des résidus du modèle 3 non contraint (équation 7) Si F3 est supérieur à la valeur φ3 lue dans la table de DICKEY ET FULLER à un seuil α%, on rejette l’hypothèse H3 0 . Dans ce cas, le modèle 3 est retenu et la série xt est intégrée d’ordre 1. Par contre, si l’on accepte H3 0 , le coefficient de la tendance est nul, le modèle 3 n’est pas le ”bon” modèle, on doit donc effectuer à nouveau le test de non stationnarité dans le modèle 2. Si l’on a accepté la nullité du coefficient β de la tendance, on doit alors effectuer à nouveau les tests de non stationnarité à partir cette fois-ci du modèle 2 (équation 6) incluant uniquement une constante. On compare alors la réalisation de la statistique de Student tφ=0 aux seuils C2 (α) dans la DICKEY et FULLER, ou MckINNON pour le modèle 2. Si la réalisation de t φ=0 est supérieure au seuil C2 (α), on accepte l’hypothèse nulle de non stationnarité. Une fois que le diagnostic est établi, on cherche à vérifier si le modèle 2, incluant une constante, est une compatible avec les données. On teste alors la nullité du coefficient c de la constante. Deux choses l’une : • Soit on a rejeté au préalable l’hypothèse de racine unitaire, dans ce cas on teste la nullité de c par un simple test de Student avec des seuils standard. Si on rejette l’hypothèse c = 0, on retiendra le modèle 2 pour tester la racine unitaire, puisque la présence d’une constante n’est pas rejetée. Dans ce cas, on conclut que la racine unitaire est rejetée, la série est stationnaire I (0) + c. En revanche, si l’on accepte l’hypothèse c = 0, le modèle 2 n’est pas adapté puisque la présence d’une constante est rejetée. On doit refaire le test de racine unitaire à partir du modèle 1, qui ne comprend ni constante ni trend. • Soit, au contraire, on avait au préalable, accepté l’hypothèse de racine unitaire, et dans ce cas, on doit construire un test de Fischer de l’hypothèse jointe φ = 0 et c = 0. On teste ainsi la nullité de la constante, conditionnellement à la présence d’une racine unitaire: La statistique est : (SCR2,c – SCR2)/2 F2 = SCR2/ (T − 2) 10
  11. 11. où SCR2,c est la somme des carrés des résidus du modèle 2 contraint sous H2 0 et SCR2 est la somme des carrés des résidus du modèle 2 non contraint (équation 6). Si F2 est supérieur à la valeur φ1 de la table à un seuil α, on rejette l’hypothèse H2 0 pour ce seuil. Dans ce cas, le modèle 2 est retenu et la série xt est intégrée d’ordre 1, I (1)+c. Par contre, si on accepte H2 0 , le coefficient de la constante est nul, le modèle 2 n’est pas le bon, on doit donc effectuer à nouveau le test de non stationnarité dans le modèle 1. Enfin, si l’on a accepté la nullité du coefficient c de la constante, on doit alors effectuer à nouveau les tests de non stationnarité à partir cette fois-ci du modèle 1 (équation 5) sans constante ni trend. On compare alors la réalisation de la statistique de Student tφ=0 aux seuils de la table de DICKEY-FULLER ou McKINNON. Si la réalisation de tφ=0 est supérieure au seuil C1 (α), on accepte l’hypothèse nulle de non stationnarité. Dans ce cas la série xt est I (1) et correspond à une pure marche aléatoire, xt = xt−1 + εt. Si l’hypothèse nulle est rejetée, la série est stationnaire, I (0) de moyenne nulle xt = ρxt−1 + εt, avec |ρ| < 1. Critique de ce test: Il arrive parfois que les résidus εt du modèle de Dickey Fuller soient autocorrélés, les tests effectués seraient alors faux. Il existe alors deux approches différentes pour tenir de cette éventuelle autocorrélation. • La première approche, proposée par PHILLIPS (1987) et PHILLIPS et PERRON (1988) consiste à proposer une correction des estimateurs des MCO et des statistiques de Student associées à ces estimateurs prenant en compte la possible autocorrélation des résidus. • La seconde approche, développée par DICKEY et FULLER (1979), consiste à contrôler directement l’autocorrélation dans le modèle (et non au niveau des estimateurs) en incluant un ou plusieurs termes autorégressifs différenciés. Une telle approche permet en de ”blanchir” les résidus et se ramener à une représentation similaire à celle du test de Dickey Fuller Simple. Dès lors, l’application de cette nouvelle stratégie est identique à celle présentée précédemment et l’on retrouve les mêmes distributions asymptotiques. 11
  12. 12. 6- TEST DE DICKEY-FULLER AUGMENTE, POUR LE CHOMAGE EN FRANCE L’intuition de la démarche du test de DICKEY FULLER Augmenté (ADF) consiste à postuler un modèle de type AR(p) afin de corriger une éventuelle autocorrélation d’ordre p − 1 des innovations d’une représentation de type AR(1), le terme (p) constituant le nombre de retards. Ainsi, pour un choix de (p) retards, correspondant à une autocorrélation d’ordre p + 1 des innovations dans une représentation AR(1), les trois modèles utilisés pour développer le test ADF sont les suivants : Modèle 1 : Δxt = φxt−1+ ∑p j=1 ΨjΔxt−j + μt (8) Modèle 2 : Δxt = φxt−1+ ∑p j=1 ΨjΔxt−j + c + μt (9) Modèle 3 : Δxt = φxt−1 + ∑p j=1 ΨjΔxt−j +c + βt + μt (10) La stratégie de test ADF consiste dans un premier temps à déterminer le nombre de retards p nécessaire pour blanchir les résidus. Dans la seconde étape, il suffit d’appliquer la stratégie séquentielle du test de Dickey Fuller Simple aux modèles (8), (9) et (10). Les distributions asymptotiques des statistiques de test tφ obtenues dans ces trois modèles sont alors identiques à celles obtenues dans les modèles de DICKEY- FULLER simple correspondants. 6-1 Choix du nombre optimal de retards (p) Il existe différentes façons de choisir l’ordre optimal p ∗ des retards dans le modèle des tests Dickey Fuller Augmentés. Dans la pratique, on se limite souvent à l’observation des critères d’information et à la vérification ex-post de l’absence d’autocorrélation des résidus. Une méthode alternative consiste à observer les autocorrélations partielles de la série différenciée et de même vérifier ex-post l’absence d’autocorrélation des résidus. On retiendra comme critères d’information : Pour un modèle, incluant k paramètres, estimé sur T périodes et dont la réalisation de l’estimateur de la variance des résidus est σ2 εt le critère d’Akaike, ou AIC, est : AIC (k) = T log σ2 εt + 2(k) Le critère de Schwartz (1978) est défini par: 12
  13. 13. SC (k) = T log σ2 εt + k log (T) On cherche le nombre de retard p qui minimise ces deux critères. P SBC1 AIC1 SBC2 AIC2 SBC3 AIC3 1 73.133609 69.9117732 70.0566582 65.2239045 72.9399655 66.4962938 2 74.6094855 69.9434413 69.7238828 63.5024906 72.5944336 64.8176933 3 75.3219719 69.3359417 69.2524741 61.7699363 72.3981793 63.419134 4 74.8641724 67.6942364 69.7811809 61.1772577 73.1199641 63.0820536 5 71.9353761 63.7316012 69.2498925 59.6788217 72.616932 61.6785653 Les autocorrélations partielles de la série différenciée apparaissent dans le tableau suivant : Autocorrélations Partielles P Corrélation-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 1 0.29524 | . |****** | 2 -0.12641 | . ***| . | 3 0.11419 | . |** . | 4 -0.23751 | .*****| . | 5 0.06312 | . |* . | 6 0.00406 | . | . | 7 0.03213 | . |* . | 8 -0.15395 | . ***| . | 9 0.05140 | . |* . | En combinant les informations ainsi obtenues, on retiendra donc un nombre de retards p∗ = 1. La procédure séquentielle du test ADF débutera donc par le modèle 3 incluant une constante, une tendance. Δxt = φxt−1 + Ψ1Δxt−1 + βt + c+ μt 13
  14. 14. Test de racine unitaire augmenté de Dickey-Fuller Type Lags Rho Pr < Rho Tau Pr < Tau F Pr > F Zero Mean (Modèle 1) 1 0.4389 0.7825 0.64 0.8492 Single Mean (Modèle 2) 1 -6.6328 0.2732 -2.39 0.1521 3.60 0.1819 Trend (Modèle 3) 1 -8.7714 0.4747 -2.37 0.3883 3.15 0.5650 La probabilité critique associée au test ADF dans le modèle 3 (incluant une tendance) (Pr<Tau=0.3883) conduit à accepter l’hypothèse nulle de racine unitaire. On effectue alors le test conjoint de présence d’une racine unitaire et la nullité du coefficient de la tendance (test F3) afin de s’assurer que le modèle 3 est le bon. La probabilité critique du test est (Pr>F=0.5650) conduit à accepter l’hypothèse nulle, on a bien une racine unitaire et le coefficient de la tendance est nul. Il faut donc refaire le test de ADF dans le modèle 2 (incluant une constante) : la probabilité critique du test ADF (Pr<Tau=0.1521) conduit à accepter l’hypothèse nulle de racine unitaire. On effectue alors le test conjoint de présence d’une racine unitaire et la nullité de la constante (test F2) afin de s’assurer que le modèle 2 est le bon. La probabilité critique de ce test (Pr>F=0.1819) conduit à accepter l’hypothèse nulle, on a bien une racine unitaire et le coefficient de la constante est nul. On retiendra donc le modèle 1 pour la suite, on a un processus intégré d’ordre 1 sans tendance et sans constante. 14
  15. 15. 7- MODELISATION DU PROCESSUS ET ESTIMATIONS Les étapes précédentes nous ont permis de conclure quant à la nature du processus aléatoire. 7-1 Représentation graphique de la série différenciée DUn -2 -1 0 1 2 t 7-2 Qualification du processus ARMA (p,q) Rappels Pour un processus de type AR(p) : - On peut montrer que la fonction d’autocorrélations (ACF) décroît exponentiellement vite vers 0 pour un processus de type AR(p). - La fonction d’autocorrélations partielles (PACF) d’un processus AR(p) est nulle pour k ≥ p+ 1. Pour un processus de type MA(q) : - Pour (r ≥ 0) et Xt étant un MA(q) on peut dire que la fonction d’autocorrélations (ACF) est quasiment nulle ( ~ 0) quand r ≥ q. Pour un processus de type ARMA(p,q) : - Pour un ARMA, les trois fonctions : ACF, PACF et fonction inverse d’autocorrélations IACF tendent exponentiellement vers 0. 15
  16. 16. Ces différentes notions nous aideront dans notre diagnostique, pour procéder commençons par représenter ces différentes fonctions avec un nombre de retard fixé à 8. Autocorrélations p Covariance Corrélation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 Erreur Std 0 0.362992 1.00000 | |********************| 0 1 0.107170 0.29524 | . |****** | 0.162221 2 -0.010244 -.02822 | . *| . | 0.175794 3 0.020278 0.05586 | . |* . | 0.175913 4 -0.055475 -.15283 | . ***| . | 0.176379 5 -0.033180 -.09141 | . **| . | 0.179830 6 0.013977 0.03850 | . |* . | 0.181049 7 0.0052325 0.01442 | . | . | 0.181264 8 -0.034980 -.09636 | . **| . | 0.181294 Autocorrélations Partielles p Corrélation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 1 0.29524 | . |****** | 2 -0.12641 | . ***| . | 3 0.11419 | . |** . | 4 -0.23751 | .*****| . | 5 0.06312 | . |* . | 6 0.00406 | . | . | 7 0.03213 | . |* . | 8 -0.15395 | . ***| . | Autocorrélations Inverses p Corrélation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 1 -0.46850 | *********| . | 2 0.30617 | . |****** | 3 -0.30463 | ******| . | 4 0.30543 | . |****** | 5 -0.12443 | . **| . | 6 0.08008 | . |** . | 7 -0.10950 | . **| . | 8 0.11048 | . |** . | Ces différents résultats nous conduisent à choisir entre un processus AR(1) et un processus MA(1). Pour statuer, nous allons nous servir du critère à nouveau des critères d’information. 16
  17. 17. Critères d’informations Minimum p,q MA 0 MA 1 MA 2 MA 3 MA 4 MA 5 AR 0 -1.07995 -1.13668 -1.05828 -1.04695 -1.00659 -0.93032 AR 1 -1.07799 -1.05701 -0.96808 -0.9515 -0.9233 -0.83468 AR 2 -1.01089 -0.97103 -0.87932 -0.86013 -0.84767 -0.75222 AR 3 -1.02105 -0.9485 -0.85509 -0.79513 -0.78014 -0.69909 AR 4 -1.0175 -0.922 -0.82915 -0.73406 -0.70909 -0.61602 AR 5 -0.92254 -0.82741 -0.73733 -0.69119 -0.61722 -0.597 Valeur minimale de la table: BIC(0,1) = -1.13668 Notre choix se portera donc sur un MA(1). 7-3 Estimation du processus MA (q=1) Nous allons à présent, toujours à l’aide de SAS, estimer notre série. On obtient le tableau suivant pour les coefficients estimés : Moving Average Factors Factor 1: 1 + 0.43404 B**(1) Test d’autocorrélation pour les résidus Au retard Chi-Square DF Pr > ChiSq Autocorrélations 6 2.81 5 0.7296 -0.064 -0.055 0.141 -0.185 -0.033 0.038 12 5.58 11 0.9000 0.028 -0.079 -0.064 0.180 -0.026 0.082 18 14.04 17 0.6645 0.106 -0.329 0.045 -0.091 0.040 -0.035 24 18.40 23 0.7353 -0.008 -0.036 -0.096 0.052 -0.146 -0.096 Pour tous les retards considérés dans le tableau, l’hypothèse de bruit blanc est bien retenue pour la série des résidus du modèle estimé. 7-4 Prévision pour le processus MA (q=1) Nous allons à présent effectuer la prévision en prenant comme horizon une période (1 an), les résultats sont présentés dans le tableau et graphique suivants. Prévisions pour la variable Un Obs Prévision Std Error Limite de confiance à 95% Réel Résidu 2 3.4745 0.5815 2.3348 4.6141 3.7000 0.2255 3 3.9724 0.5815 2.8327 5.1120 4.2000 0.2276 4 4.4733 0.5815 3.3336 5.6129 4.3000 -0.1733 5 4.3993 0.5815 3.2596 5.5389 4.9000 0.5007 6 5.2918 0.5815 4.1521 6.4315 5.2000 -0.0918 7 5.3346 0.5815 4.1950 6.4743 6.1000 0.7654 8 6.6067 0.5815 5.4670 7.7463 6.6000 -0.0067 9 6.7716 0.5815 5.6319 7.9112 6.9000 0.1284 17
  18. 18. Prévisions pour la variable Un Obs Prévision Std Error Limite de confiance à 95% Réel Résidu 10 7.1302 0.5815 5.9905 8.2699 8.1000 0.9698 11 8.6954 0.5815 7.5557 9.8351 8.6000 -0.0954 12 8.7331 0.5815 7.5934 9.8727 8.6000 -0.1331 13 8.7167 0.5815 7.5770 9.8564 8.8000 0.0833 14 9.0106 0.5815 7.8709 10.1503 8.5000 -0.5106 15 8.4528 0.5815 7.3132 9.5925 7.9000 -0.5528 16 7.8345 0.5815 6.6948 8.9742 7.7000 -0.1345 17 7.8161 0.5815 6.6764 8.9557 7.8000 -0.0161 18 7.9675 0.5815 6.8278 9.1071 8.7000 0.7325 19 9.1924 0.5815 8.0527 10.3321 9.7000 0.5076 20 10.0948 0.5815 8.9551 11.2344 10.3000 0.2052 21 10.5635 0.5815 9.4239 11.7032 9.7000 -0.8635 22 9.4997 0.5815 8.3600 10.6393 10.2000 0.7003 23 10.6784 0.5815 9.5388 11.8181 10.3000 -0.3784 24 10.3102 0.5815 9.1705 11.4499 9.9000 -0.4102 25 9.8964 0.5815 8.7568 11.0361 9.6000 -0.2964 26 9.6458 0.5815 8.5061 10.7855 8.2000 -1.4458 27 7.7469 0.5815 6.6073 8.8866 7.4000 -0.3469 28 7.4239 0.5815 6.2842 8.5635 7.6000 0.1761 29 7.8509 0.5815 6.7112 8.9906 8.2000 0.3491 30 8.5260 0.5815 7.3863 9.6656 8.5000 -0.0260 31 8.6632 0.5815 7.5235 9.8028 8.5000 -0.1632 32 8.6036 0.5815 7.4640 9.7433 8.5000 -0.1036 33 8.6295 0.5815 7.4898 9.7691 7.7000 -0.9295 34 7.4710 0.5815 6.3314 8.6107 7.1000 -0.3710 35 7.1134 0.5815 5.9738 8.2531 8.8000 1.6866 36 9.7065 0.5815 8.5668 10.8462 8.9000 -0.8065 37 8.7244 0.5815 7.5847 9.8641 8.8000 0.0756 38 9.0073 0.5815 7.8676 10.1469 9.5000 0.4927 39 9.8883 0.5815 8.7487 11.0280 9.9000 0.0117 40 10.0795 0.5815 8.9399 11.2192 . . 18
  19. 19. Dans le tableau précédent, la prévision pour l’année suivante (2014) correspond à l’observation (40), sont reprises également, les bornes supérieures et inférieures de l’intervalle de confiance à 95 % (bande bleue du graphique). Le modèle prévoit donc un taux de chômage de 10.0795 % avec un intervalle de confiance à 95% donné par [8.9399 – 11.2192]. 19
  20. 20. CONCLUSION A la vue des tests précédents on peut dire que pour le chômage français, on a à faire à un processus intégré d’ordre un et de catégorie Difference Stationary. En utilisant ces résultats, les implications au niveau théorique comme nous l’avons vu c’est qu’il semble y avoir en France une persistance très forte voir infinie après les chocs qui ont touché le chômage. Conclusions à nuancer, dans la mesure où les tests que nous avons utilisés sont soumis à de nombreuses critiques. Il serait ensuite très intéressant pour l’analyse de comparer l’évolution conjointe, (en introduisant le concept de cointégration), du chômage et des salaires et/ou de l’inflation en France par exemple pour analyser tout lien de causalité ce qui pourrait permettre de conforter ou d’infirmer certaines théories. 20
  21. 21. BIBLIOGRAPHIE - ABRAHAM-FROIS (G.), Dynamique économique (6ème édition), éd. Dalloz, p 438-456, Paris, 2002 - BEAN (C.R.), European unemployment: A Survey, in Journal of Economic Literature, vol.32, No. 2, p573-619, juin 1994 - BLANCHARD (O.J.) et SUMMERS (L.H.), Hysteresis in unemployment, in European Economic Review, vol. 31, p288-295, 1987 - HAIRAULT (J.O.), Analyse macroéconomique 2, éd. La découverte, chap. 22, Paris, 2000 - MITCHELL (W.F.), Testing for unit roots and persistence in O.E.C.D. unemployment rates, in Applied Economics, vol. 25, p1489-1501, 1993 - ROED (K.), Unemployment Hysteresis – Macro Evidence from 16 O.E.C.D. Countries, in Empirical Economics, vol. 21, p589-600, 1996 21

×