Leçon 4: Stationnarité, Cointégration et Modèles à Correction d'Erreurs

La cointégration : définition statistique et signification économique

Notion et tests de stationarité

La stationnarité renvoie à l'invariance temporelle des propriétés des séries temporelles. L'économétrie appliquée utilise une notion moins restrictive de la stationnarité que l'on qualifie de faible ou de stationnarité de second ordre. Une série yt est faiblement stationnaire lorsque ses deux premiers moments (espérance et variance) sont finis et indépendants du temps. En conséquence, une série pour laquelle l'espérance et la variance sont modifiées dans le temps est non stationnaire.

En pratique, les cas de non-stationnarité sont analysés à partir de deux types de processus. Les processus TS (Trend Stationary) caractérisés par une non stationnarité de nature déterministe, et les processus DS (Difference Stationary) présentant une non stationnarité de nature stochastique. Dans le cas de processus TS, les données suivent une tendance qui a une fonction définie (linéaire, quadratique, etc.). Afin de résoudre ce problème, il suffit d'inclure une variable de tendance dans le modèle de régression. Toutefois, en pratique, il convient de ne pas traiter une tendance stochastique comme une tendance déterministe. Dans le cas de processus DS, les données suivent une marche aléatoire avec ou sans dérive avec un coefficient de 1 pour le terme retardé : yt = yt-1 + ut  où est stationnaire. Il y a non-stationnarité de car on montre que la variance n'est pas constante.

La distinction entre ces deux types de stationnarité est fondamentale sur le plan économique dans la mesure où ces deux types de processus sont caractérisés par des comportements très différents. L'effet d'un choc sur un processus TS est transitoire (la série a une mémoire finie des chocs), alors que sur un processus DS cet effet est permanent (mémoire infinie des chocs), aucune force ne le ramènera à son niveau antérieur, sauf occurrence d'un choc de signe opposé et de même magnitude. Sur le plan statistique, il est important d'identifier correctement la nature de la non-stationnarité d'une série avant de la rendre stationnaire. En effet, une méthode de stationnarisation inappropriée peut engendrer des artefacts statistiques. Un processus TS est rendu stationnaire par une régression sur une tendance déterministe, alors qu'un processus DS devient stationnaire par différenciation. Quand un processus TS linéaire est statistiquement traité comme un processus DS, cela crée artificiellement dans la série un mouvement cyclique court. A l'inverse, lorsqu'un processus est traité comme un processus TS, cela génère un mouvement cyclique long (Nelson et Kang, 1981).

L'identification et la caractérisation de la non-stationnarité peuvent être effectuées par le biais de tests statistiques. A cet égard, il existe un grand nombre de tests dont les plus utilisés en raison de leur simplicité sont les tests de Dickey et Fuller (1979, 1981), le test de Phillips-Perron (1988) et le test de KPSS.

  • Tests de Dickey et Fuller

Les tests de Dickey-Fuller (DF) testent l'existence d'une racine unitaire dans le processus générateur des données. Ce sont des tests paramétriques qui sont basés sur l'estimation d'un modèle autorégressif. La loi du test DF sur laquelle est basé le test diffère selon l'hypothèse alternative. Le choix de l'hypothèse alternative est donc primordial pour la validité du test.

Dans le test de Dickey-Fuller augmenté, le modèle prend la forme suivante:

Suivant les termes déterministes inclus dans , on aboutit aux trois modèles sur lesquels est basé le test de Dickey-Fuller Augmenté:

Dans ces modèles autorégressifs, le choix de p est très important pour l'issue du test. Comme dans les modèles à décalages temporels, on peut utiliser les critères d'information (Akaike, Schwarz, Hannan-Quinn, ...).

La question se pose toujours de savoir laquelle des trois spécifications précédentes retenir pour conduire le test de racine unitaire. Il est fondamental de retenir le modèle le plus adéquat car l'introduction de termes déterministes non pertinents réduit la puissance du test. En pratique, on adopte une approche séquentielle descendante pour traiter cette question. Celle-ci consiste à partir du modèle le plus large (avec constante et tendance déterministe – modèle [3]) jusqu'au plus spécifique (sans tendance, ni constante – modèle [1]). Pour chaque modèle, on teste la significativité des termes déterministes en utilisant les tables de Dickey-Fuller. C'est une fois l'équation de test déterminée qu'on peut lire le test de racine unitaire.

Le test est basé sur la statistique de student associée au coefficient de yt-1 . Toutefois, Dickey et Fuller (1981) ont montré que sous l'hypothèse nulle de racine unitaire, ne suit pas sa loi conventionnelle, même asymptotiquement. La distribution a été simulée par Dickey et Fuller (1981) et par Mackinnon (1991). On rejette l'hypothèse nulle si la statistique calculée est inférieure à la valeur critique tabulée. Si la statistique calculée est supérieure à la valeur critique, on accepte l'hypothèse d'une racine unitaire, ce qui implique que la série n'est pas stationnaire.

En dépit des tentatives de sophistication, le test de racine unitaire de Dickey-Fuller reste marqué par une limite essentielle. L'hypothèse nulle suppose en effet que la tendance de la série ne change pas sur toute la période. Or on sait que quelques chocs ponctuels peuvent influencer, même sensiblement, la tendance des séries. Il apparaît donc que le test de Dickey-Fuller est biaisé en faveur de l'hypothèse nulle de racine unitaire (Perron, 1989, 1992 ; Rappoport et Reichlin, 1989) . Ces critiques ont conduit à l'élaboration d'autres tests de racine unitaire et de stationnarité dont ceux de Phillips et Perron (1988) et Kwiatkowski, Phillips, Schmidt et Shin (1992) (noté KPSS par la suite).

  • Test de Phillips-Perron

Le test de Phillips-Perron (1988) est construit sur une correction non paramétrique de la statistique de Dickey-Fuller pour prendre en compte des erreurs hétéroscédastiques. Il se déroule en deux étapes : on estime par MCO les trois modèles de base du test de Dickey-Fuller et on calcule les statistiques associées, puis on estime un facteur correctif établi à partir de la structure de covariance des résidus de telle sorte que les transformations réalisées conduisent à des distributions identiques à celles du Dickey-Fuller standard. Ce test se ramène donc au test de Dickey-Fuller simple dans le cas où les erreurs seraient homoscédastiques. Ce test est non paramétrique car aucune modélisation du processus générateur des aléas n'est formulée, il est plus robuste à une autocorrélation (mais également à une hétéroscédasticité) de forme inconnue. La mise en œuvre du test est identique à celle du test de Dickey-Fuller : on suit la même procédure séquentielle descendante.

  • Test de KPSS

Le test de Kwiatkowski, Phillips, Schmidt, Shin (1992) (noté KPSS) a la particularité de poser l'hypothèse de stationnarité comme hypothèse nulle. Il teste l'hypothèse de stationnarité en niveau ou autour d'une tendance contre l'alternative de non stationnarité. Le test KPSS repose sur la décomposition de la série étudiée en une partie déterministe, une marche aléatoire et un bruit blanc. On régresse la série sur une constante ou sur une constante et une tendance et on détermine la série des résidus estimés . La statistique de test est définit par:

est la somme partielle des résidus et l'estimateur de la variance de long terme de êt . La règle de décision est que si alors la série est stationnaire, où est la valeur critique. Dans le cas contraire, on considère que la série est non stationnaire. Pour choisir entre le modèle avec constante et le modèle avec trend linéaire, on peut s'aider de la représentation graphique de la série ou utiliser les résultats des tests de Dickey-Fuller.

Les tests de stationarité en pratique...

Pour réaliser les tests de stationnarité d'une série en pratique, on visualise la série (par un double clic sur la série) et on sélectionne à partir du menu de la fenêtre, Unit Root Test...

Les résultats du test de Dickey-Fuller pour la série LPIB sont présentés dans les tableaux suivants:

Tableau 14.1a : Résultats du test de Dickey-Fuller

Tableau 14.1b : L'équation du test de Dickey-Fuller

Le deuxième tableau indique le modèle à partir duquel le test est réalisé. On peut ainsi juger de la pertinence des termes déterministes à inclure dans la régression auxiliaire.

Le premier tableau donne les statistiques de test ADF, les valeurs critiques et les probabilités associées. La statistique de test reporte ici une valeur de -2,72106 supérieure aux valeurs critiques aux seuils de 1% et 5%, ce qui nous conduit à accepter l'hypothèse nulle. La série admet une racine unitaire et ne peut donc être stationnaire. Le test est effectué suivant la même démarche pour les tests PP et KPSS. Il est important de toujours se rappeler que l'hypothèse nulle du test KPSS est la stationnarité.

Le tableau suivant synthétise les résultats des tests ADF, PP et KPSS pour les huit variables en niveau et en différence première.

Tableau 14.2 : Résultats des tests de stationnarité

Les différentes statistiques de tests conduisent à des résultats différents. Les tests ADF et KPSS concluent à la non-stationnarité de LPIBR tandis que le test PP conclue à la stationnarité de cette série. Selon les statistiques ADF et PP, la série LI est non stationnaire en niveau. En revanche, le test KPSS indique que cette variable est stationnaire en niveau. Quant à la série LC, le test PP rejette l'hypothèse de non stationnarité tandis que les tests ADF et KPSS rejettent l'hypothèse de stationnarité. En d'autres termes, la série LC est stationnaire selon la statistique PP, et non stationnaire selon les statistiques ADF et KPSS. Selon les trois statistiques de test, les séries LG et LIPC sont non stationnaires en niveau et stationnaires lorsqu'on considère les différences premières. Les trois statistiques de test indiquent que la série R est stationnaire.

En définitive, nous retenons que toutes les séries, à l'exception de R, sont non stationnaires en niveau et stationnaires en différences premières. En d'autres termes, les séries LPIBR, LI, LC, LG et LIPC sont intégrées d'ordre un.

Corrections à apporter au modèle : La façon de corriger un modèle comportant des variables intégrées d'ordre un est de différencier les variables, c'est-à-dire soustraire à chaque observation la valeur de la période précédente ( Δyt = yt - yt-1 ) Cependant, si les séries sont cointégrées la spécification du modèle en différence première est biaisée du fait de l'oubli d'une variable explicative importante. La théorie de la cointégration que nous verrons dans le chapitre suivant indique les conditions sous lesquelles l'on est autorisé à différencier les variables.

Interprétation du modèle après différenciation : Un modèle différencié s'interprète comme l'impact d'une variation de la variable indépendante sur la variation de la variable dépendante. Si les variables sont en log, la variation s'interprète comme un taux de croissance. Ainsi, si le modèle cherche à trouver les déterminants de la consommation et qu'on a dû le différencier, on pourrait interpréter le résultat comme «une hausse de croissance du revenu a un impact positif sur le taux de croissance de la consommation». En pratique l'analyse se fait en termes de variation en points de pourcentage.

Deux mises en garde: Premièrement, il ne faut pas différencier un modèle avec tendance déterministe. Deuxièmement, sur-différencier enlève tout potentiel d'interprétation au modèle. Vous aurez beau dire que votre modèle est stationnaire, mais si vous ne pouvez pas l'interpréter, vous n'êtes pas avancé. Le plus souvent les modèles différenciés ont un pouvoir explicatif (R2) très faible comparé à celui du modèle en niveau.

Séries cointégrées, c'est quoi ?

La régression d'une série non stationnaire sur des séries non stationnaires peut donner une régression n'ayant aucun sens économique. C'est ce qu'on appelle les régressions fallacieuses (Granger et Newbold, 1974). L'estimation de modèles impliquant des variables non stationnaires soulève plusieurs problèmes assez sérieux. Premièrement, les estimateurs des coefficients ne sont pas convergents. Deuxièmement, les statistiques des tests conventionnels, tels que le t de Student et le F de Fisher, ne suivent plus leur distribution habituelle sous l'hypothèse nulle, même asymptotiquement. En conséquence, les valeurs critiques habituelles ne sont plus appropriées. Troisièmement, les modèles présenteront une apparente bonne adéquation reflétée par un coefficient de détermination très élevé, mais la statistique de Durbin-Watson convergera vers zéro au fur à mesure que le nombre d'observations augmente (Granger et Newbold, 1974).

Néanmoins, il arrive que des séries non stationnaires et intégrées d'ordre un forment une combinaison linéaire stationnaire. Cette situation particulièrement intéressante signifierait que, bien que chacune des séries ait tendance à "errer", elles "marchent ensemble" suivant une relation commune. On dit qu'elles sont cointégrées. Economiquement, cela signifie qu'il existe une relation de long terme stable qui unit ces variables.

Nous allons maintenant donner la définition formelle d'Engle et Granger (1987). Considérons un vecteur de variables non stationnaires. Les composantes de sont dites cointégrées si premièrement elles sont intégrées de même ordre d (I(d)), et s'il existe une combinaison linéaire de ces variables d'ordre d'intégration inférieur, c'est-à-dire s'il existe un vecteur β non nul tel que Zt = βXt est I(d-b) avec 0 b a . Le vecteur β est le vecteur cointégrant. Dans le cas où d = 1, la cointégration implique que Zt = βXt est stationnaire.

Si nous considérons deux variables X et Y intégrées d'ordre un (I(1), l'existence d'une relation de cointégration implique qu'il existe un coefficient tel que Yt - Xt = Zt est stationnaire (I(0)).

L'ordre d'intégration d'une variable est le nombre de fois qu'il faut la différencier pour la rendre stationnaire. La cointégration se présente ainsi comme une propriété de réduction de l'ordre d'intégration d'une combinaison linéaire de variables intégrées du même ordre.

Remarque

  1. En cas de cointégration, le vecteur cointégrant n'est pas unique. En effet, si β est un vecteur cointégrant, βØ ( ØR ) est aussi un vecteur cointégrant.

  2. Entre variables toutes non stationnaires, il existe au plus p - 1 relations distinctes de cointégration. Par conséquent dans une relation bivariée, le rang de la cointégration ne peut excéder 1. Un raisonnement par l'absurde permet de montrer ce résultat. Le nombre de relations de cointégration est appelé rang de cointégration.

Spécification d'un modèle à correction d'erreurs

Lorsque deux variables sont cointégrées, elles sont liées par une relation de long terme. Cependant, elles peuvent s'écarter de temps en temps (à court terme) de cette relation d'équilibre. On peut interpréter l'écart entre et sa valeur de long terme Yt = a + βX , comme une "erreur d'équilibre" et utiliser cet écart pour lier le comportement de court terme des deux variables à leur comportement de long terme. On définit ainsi le modèle suivant:

Cette représentation est communément appelée modèle à correction d'erreurs. Le coefficient mesure la force de rappel vers l'équilibre de long terme ; il doit être négatif pour que le mécanisme de correction ait lieu. En effet, supposons que Xt est constant et que l'écart à l'équilibre et-1 = Yt-1 - α-βXt-1 est positif. Cela signifie que Yt-1 est supérieure à sa valeur d'équilibre Yt-1 = α + βXt-1 . En supposant que le coefficient est négatif, le terme est aussi négatif et, par conséquent, ΔYt = Yt - Yt-1 sera négatif. La valeur de Yt à la période t sera inférieure à la valeur Yt-1 de sorte à corriger l'erreur d'équilibre. Si l'erreur et-1 = Yt-1 - α - βXt-1 est négative, alors Yt-1 sera en deçà de sa valeur d'équilibre. Le terme étant positif ( étant supposé toujours négatif), la différence ΔYt = Yt - Yt-1 sera également positive. Cela implique que Yt prendra une valeur supérieure à la valeur de Yt-1 permettant de réaliser l'équilibre. En d'autres termes, lorsqu'à un moment donné Yt s'écarte de sa valeur d'équilibre, la période suivante, elle y revient : il y a un mécanisme à correction qui gouverne la dynamique des variables et qui fait que ces dernières ne peuvent pas s'écarter durablement de la relation d'équilibre. Si les séries sont cointégrées, les déviations par rapport à la relation de long terme ont pour effet, à court terme, d'induire des variations dans l'évolution de l'une ou de toutes les variables de façon à forcer le système à retourner vers son équilibre de long terme.

Pour illustrer le concept de cointégration et de modèle à correction d'erreurs, considérons l'exemple d'un couple. L'union entre les deux partenaires impose à chacun un mode de vie caractérisé par une harmonie et une complicité entre les conjoints. Cette vie de bonne entente et d'harmonie représente la situation de long terme, c'est-à-dire la relation qui devrait normalement lier les deux partenaires. Cependant, de temps en temps, la vie de couple peut connaitre des moments de disharmonie caractérisés par une divergence des comportements individuels. Mais avec le temps, les deux conjoints finissent par s'entendre et à revenir à la situation normale. Il y a comme une force invisible qui restaure, de jour en jour, l'harmonie dans le couple.

Engle et Granger (1987) ont montré que tout ensemble de variables cointégrées peut être mis sous la forme d'un modèle à correction d'erreurs où toutes les variables sont stationnaires:

La différence avec le modèle VAR usuel réside dans la présence du terme d'erreur et-1 = Yt-1 - α - βXt-1. Remarquons que les équations d'erreurs (14.7) et (14.8) ne font intervenir que des termes stationnaires. Par conséquent, les procédures habituelles d'estimation et d'inférence statistique sont applicables sans risque de corrélation fallacieuse.

La vitesse d'ajustement ou force de rappel vers l'équilibre est mesurée par les coefficients et . Suivant le même raisonnement, l'un au moins de ces deux paramètres doit être significatif et négatif pour valider la représentation sous forme à correction d'erreurs. Si l'hypothèse nulle H0 : = = 0 est acceptée, cela signifie qu'aucun terme à correction d'erreurs n'est significatif. Dans ce cas, il convient de rejeter la spécification à correction d'erreurs. En revanche, si l'hypothèse est rejetée, alors au moins un terme à correction d'erreurs est significativement différent de zéro. Cela traduit un retour vers la trajectoire de long terme : les séries sont alors cointégrées. Il est possible d'ajouter aux équations de court terme d'autres variables explicatives supplémentaires à condition que celles-ci soient déterministes ou bien stationnaires.

PrécédentPrécédentSuivantSuivant
AccueilAccueilImprimerImprimerRéalisé avec Scenari (nouvelle fenêtre)