Série d'Edgeworth

La série A de Gram-Charlier (nommée en l'honneur de Jørgen Pedersen Gram et Carl Charlier) et la série d'Edgeworth (nommée en l'honneur de Francis Ysidro Edgeworth) sont des séries qui se rapprochent d'une distribution de probabilité exprimée à partir de ses cumulants [1]. Les séries sont identiques, mais l'arrangement des termes (et donc la précision de la troncature de la série) diffère[2]. Le principe de ces développements est d'écrire la fonction caractéristique de la distribution dont la fonction de densité de probabilité f doit être approchée en fonction de la fonction caractéristique d'une distribution avec des propriétés connues et appropriées, et de récupérer f par une transformée de Fourier inverse.

Série A de Gram-Charlier

On considère une variable aléatoire continue. On note f ^ {\displaystyle {\hat {f}}} la fonction caractéristique de sa distribution dont la fonction de densité est f, et κ r {\displaystyle \kappa _{r}} ses cumulants. On développe en termes de distribution connue avec la fonction de densité de probabilité ψ, sa fonction caractéristique ψ ^ {\displaystyle {\hat {\psi }}} , et ses cumulants γ r {\displaystyle \gamma _{r}} . La densité ψ est généralement choisie comme étant celle de la distribution normale, mais d'autres choix sont également possibles. Par la définition des cumulants, on a (voir Wallace, 1958) [3]:

f ^ ( t ) = exp [ r = 1 κ r ( i t ) r r ! ] {\displaystyle {\hat {f}}(t)=\exp \left[\sum _{r=1}^{\infty }\kappa _{r}{\frac {(\mathrm {i} t)^{r}}{r!}}\right]} et
ψ ^ ( t ) = exp [ r = 1 γ r ( i t ) r r ! ] , {\displaystyle {\hat {\psi }}(t)=\exp \left[\sum _{r=1}^{\infty }\gamma _{r}{\frac {(\mathrm {i} t)^{r}}{r!}}\right],}

qui donne l'identité formelle suivante :

f ^ ( t ) = exp [ r = 1 ( κ r γ r ) ( i t ) r r ! ] ψ ^ ( t ) . {\displaystyle {\hat {f}}(t)=\exp \left[\sum _{r=1}^{\infty }(\kappa _{r}-\gamma _{r}){\frac {(\mathrm {i} t)^{r}}{r!}}\right]{\hat {\psi }}(t)\,.}

Par les propriétés de la transformée de Fourier, ( i t ) r ψ ^ ( t ) {\displaystyle (\mathrm {i} t)^{r}{\hat {\psi }}(t)} est la transformée de Fourier de ( 1 ) r [ D r ψ ] ( x ) {\displaystyle (-1)^{r}[D^{r}\psi ](-x)} , où D est l'opérateur différentiel par rapport à x . Ainsi, après avoir changé x {\displaystyle x} avec x {\displaystyle -x} des deux côtés de l'équation, on trouve pour f le développement formel

f ( x ) = exp [ r = 1 ( κ r γ r ) ( D ) r r ! ] ψ ( x ) . {\displaystyle f(x)=\exp \left[\sum _{r=1}^{\infty }(\kappa _{r}-\gamma _{r}){\frac {(-D)^{r}}{r!}}\right]\psi (x)\,.}

Si ψ est choisi comme la densité normale

ϕ ( x ) = 1 σ 2 π exp [ ( x μ ) 2 2 σ 2 ] {\displaystyle \phi (x)={\frac {1}{\sigma {\sqrt {2\pi }}}}\exp \left[-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}\right]}

avec la moyenne et la variance données par f, c'est-à-dire comme moyenne μ = κ 1 {\displaystyle \mu =\kappa _{1}} et comme variance σ 2 = κ 2 {\displaystyle \sigma ^{2}=\kappa _{2}} , alors le développement devient

f ( x ) = exp [ r = 3 κ r ( D ) r r ! ] ϕ ( x ) , {\displaystyle f(x)=\exp \left[\sum _{r=3}^{\infty }\kappa _{r}{\frac {(-D)^{r}}{r!}}\right]\phi (x),}

puisque γ r = 0 {\displaystyle \gamma _{r}=0} pour tout r > 2, car les cumulants d'ordres supérieurs de la distribution normale sont nuls. En développant les termes exponentiels et réunissant les termes selon l'ordre des dérivées, on arrive à la série A de Gram-Charlier. Un tel développement peut être écrit de manière compacte avec les polynômes de Bell ainsi :

exp [ r = 3 κ r ( D ) r r ! ] = n = 0 B n ( 0 , 0 , κ 3 , , κ n ) ( D ) n n ! . {\displaystyle \exp \left[\sum _{r=3}^{\infty }\kappa _{r}{\frac {(-D)^{r}}{r!}}\right]=\sum _{n=0}^{\infty }B_{n}(0,0,\kappa _{3},\ldots ,\kappa _{n}){\frac {(-D)^{n}}{n!}}.}

Puisque la dérivée n-ième de la fonction gaussienne ϕ {\displaystyle \phi } est donnée en termes de polynôme d'Hermite par

ϕ ( n ) ( x ) = ( 1 ) n σ n H e n ( x μ σ ) ϕ ( x ) , {\displaystyle \phi ^{(n)}(x)={\frac {(-1)^{n}}{\sigma ^{n}}}He_{n}\left({\frac {x-\mu }{\sigma }}\right)\phi (x),}

on obtient l'expression finale de la série A de Gram-Charlier comme

f ( x ) = ϕ ( x ) n = 0 1 n ! σ n B n ( 0 , 0 , κ 3 , , κ n ) H e n ( x μ σ ) . {\displaystyle f(x)=\phi (x)\sum _{n=0}^{\infty }{\frac {1}{n!\sigma ^{n}}}B_{n}(0,0,\kappa _{3},\ldots ,\kappa _{n})He_{n}\left({\frac {x-\mu }{\sigma }}\right).}

L'intégration de la série donne la fonction de répartition :

F ( x ) = x f ( u ) d u = Φ ( x ) ϕ ( x ) n = 3 1 n ! σ n 1 B n ( 0 , 0 , κ 3 , , κ n ) H e n 1 ( x μ σ ) , {\displaystyle F(x)=\int _{-\infty }^{x}f(u)\,\mathrm {d} u=\Phi (x)-\phi (x)\sum _{n=3}^{\infty }{\frac {1}{n!\sigma ^{n-1}}}B_{n}(0,0,\kappa _{3},\ldots ,\kappa _{n})He_{n-1}\left({\frac {x-\mu }{\sigma }}\right),}

Φ {\displaystyle \Phi } est la fonction de répartition de la loi normale.

Si on n'inclut que les deux premiers termes de correction à la loi normale, il vient :

f ( x ) 1 2 π σ exp [ ( x μ ) 2 2 σ 2 ] [ 1 + κ 3 3 ! σ 3 H e 3 ( x μ σ ) + κ 4 4 ! σ 4 H e 4 ( x μ σ ) ] , {\displaystyle f(x)\approx {\frac {1}{{\sqrt {2\pi }}\sigma }}\exp \left[-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}\right]\left[1+{\frac {\kappa _{3}}{3!\sigma ^{3}}}He_{3}\left({\frac {x-\mu }{\sigma }}\right)+{\frac {\kappa _{4}}{4!\sigma ^{4}}}He_{4}\left({\frac {x-\mu }{\sigma }}\right)\right]\,,}

avec H e 3 ( x ) = x 3 3 x {\displaystyle He_{3}(x)=x^{3}-3x} et H e 4 ( x ) = x 4 6 x 2 + 3 {\displaystyle He_{4}(x)=x^{4}-6x^{2}+3} .

On notera que cette expression n'est pas assurée d'être positive et ne définit donc pas une loi de probabilité valide. La série A de Gram – Charlier diverge dans de nombreux cas classiques - elle ne converge que si f ( x ) {\displaystyle f(x)} décroit plus vite que exp ( ( x 2 ) / 4 ) {\displaystyle \exp(-(x^{2})/4)} à l'infini (Cramér 1957). Lorsqu'elle ne converge pas, la série n'est pas non plus un véritable développement asymptotique, car il n'est pas possible d'estimer l'erreur du développement. Pour cette raison, la série d'Edgeworth est généralement préférée à la série A de Gram-Charlier.

Série d'Edgeworth

Edgeworth a établi un développement similaire en tant qu'amélioration du théorème central limite[4]. L'avantage de la série d'Edgeworth est que l'erreur est contrôlée, de sorte qu'il s'agit d'un véritable développement asymptotique.

Soient { Z i } {\displaystyle \{Z_{i}\}} une suite de variables aléatoires indépendantes et identiquement distribuées de moyenne μ {\displaystyle \mu } et variance σ 2 {\displaystyle \sigma ^{2}} , et soient X n {\displaystyle X_{n}} leurs sommes standardisées :

X n = 1 n i = 1 n Z i μ σ . {\displaystyle X_{n}={\frac {1}{\sqrt {n}}}\sum _{i=1}^{n}{\frac {Z_{i}-\mu }{\sigma }}.}

On note F n {\displaystyle F_{n}} les fonctions de répartition des variables X n {\displaystyle X_{n}} . Alors par le théorème central limite,

lim n F n ( x ) = Φ ( x ) x 1 2 π e 1 2 q 2 d q {\displaystyle \lim _{n\to \infty }F_{n}(x)=\Phi (x)\equiv \int _{-\infty }^{x}{\tfrac {1}{\sqrt {2\pi }}}e^{-{\frac {1}{2}}q^{2}}dq}

pour chaque x {\displaystyle x} , tant que la moyenne et la variance sont finies.

La standardisation de { Z i } {\displaystyle \{Z_{i}\}} assure que les deux premiers cumulants de X n {\displaystyle X_{n}} valent κ 1 F n = 0 {\displaystyle \kappa _{1}^{F_{n}}=0} et κ 2 F n = 1. {\displaystyle \kappa _{2}^{F_{n}}=1.} On suppose maintenant que, en plus d'avoir une moyenne μ {\displaystyle \mu } et une variance σ 2 {\displaystyle \sigma ^{2}} finies, les variables aléatoires iid Z i {\displaystyle Z_{i}} ont des cumulants plus élevés κ r {\displaystyle \kappa _{r}} bien définis. A partir des propriétés d'additivité et d'homogénéité des cumulants, les cumulants de X n {\displaystyle X_{n}} en termes de cumulants de Z i {\displaystyle Z_{i}} sont pour r 2 {\displaystyle r\geq 2} ,

κ r F n = n κ r σ r n r / 2 = λ r n r / 2 1 w h e r e λ r = κ r σ r . {\displaystyle \kappa _{r}^{F_{n}}={\frac {n\kappa _{r}}{\sigma ^{r}n^{r/2}}}={\frac {\lambda _{r}}{n^{r/2-1}}}\quad \mathrm {where} \quad \lambda _{r}={\frac {\kappa _{r}}{\sigma ^{r}}}.}

Si on développe l'expression formelle de la fonction caractéristique f ^ n ( t ) {\displaystyle {\hat {f}}_{n}(t)} de F n {\displaystyle F_{n}} en termes de distribution normale standard, c'est-à-dire si l'on pose

ϕ ( x ) = 1 2 π exp ( 1 2 x 2 ) , {\displaystyle \phi (x)={\frac {1}{\sqrt {2\pi }}}\exp(-{\tfrac {1}{2}}x^{2}),}

alors les différences entre cumulants dans le développement sont

κ 1 F n γ 1 = 0 , {\displaystyle \kappa _{1}^{F_{n}}-\gamma _{1}=0,}
κ 2 F n γ 2 = 0 , {\displaystyle \kappa _{2}^{F_{n}}-\gamma _{2}=0,}
κ r F n γ r = λ r n r / 2 1 ; r 3. {\displaystyle \kappa _{r}^{F_{n}}-\gamma _{r}={\frac {\lambda _{r}}{n^{r/2-1}}};\qquad r\geq 3.}

La série A de Gram-Charlier pour la fonction de densité de X n {\displaystyle X_{n}} est maintenant

f n ( x ) = ϕ ( x ) r = 0 1 r ! B r ( 0 , 0 , λ 3 n 1 / 2 , , λ r n r / 2 1 ) H e r ( x ) . {\displaystyle f_{n}(x)=\phi (x)\sum _{r=0}^{\infty }{\frac {1}{r!}}B_{r}\left(0,0,{\frac {\lambda _{3}}{n^{1/2}}},\ldots ,{\frac {\lambda _{r}}{n^{r/2-1}}}\right)He_{r}(x).}

La série d'Edgeworth est développée de manière similaire à la série A de Gram-Charlier, sauf que maintenant les termes sont regroupés en fonction des puissances de n. Les coefficients du terme n-m/2 peuvent être obtenus en rassemblant les monômes des polynômes de Bell correspondant aux partitions entières de m. Ainsi, on obtient la fonction caractéristique :

f ^ n ( t ) = [ 1 + j = 1 P j ( i t ) n j / 2 ] exp ( t 2 / 2 ) , {\displaystyle {\hat {f}}_{n}(t)=\left[1+\sum _{j=1}^{\infty }{\frac {P_{j}(\mathrm {i} t)}{n^{j/2}}}\right]\exp(-t^{2}/2)\,,}

P j ( x ) {\displaystyle P_{j}(x)} est un polynôme de degré 3 j {\displaystyle 3j} . Ainsi, après transformée de Fourier inverse, la fonction de densité f n {\displaystyle f_{n}} s'exprime comme suit :

f n ( x ) = ϕ ( x ) + j = 1 P j ( D ) n j / 2 ϕ ( x ) . {\displaystyle f_{n}(x)=\phi (x)+\sum _{j=1}^{\infty }{\frac {P_{j}(-D)}{n^{j/2}}}\phi (x)\,.}

De même, en intégrant la série, on obtient la fonction de répartition :

F n ( x ) = Φ ( x ) + j = 1 1 n j / 2 P j ( D ) D ϕ ( x ) . {\displaystyle F_{n}(x)=\Phi (x)+\sum _{j=1}^{\infty }{\frac {1}{n^{j/2}}}{\frac {P_{j}(-D)}{D}}\phi (x)\,.}

On peut écrire explicitement le polynôme P m ( D ) {\displaystyle P_{m}(-D)} comme

P m ( D ) = i 1 k i ! ( λ l i l i ! ) k i ( D ) s , {\displaystyle P_{m}(-D)=\sum \prod _{i}{\frac {1}{k_{i}!}}\left({\frac {\lambda _{l_{i}}}{l_{i}!}}\right)^{k_{i}}(-D)^{s},}

où la sommation est sur toutes les partitions entières de m telles que i i k i = m {\displaystyle \sum _{i}ik_{i}=m} et l i = i + 2 {\displaystyle l_{i}=i+2} et s = i k i l i . {\displaystyle s=\sum _{i}k_{i}l_{i}.}

Par exemple, si m = 3, alors il y a trois façons de partitionner ce nombre : 1 + 1 + 1 = 2 + 1 = 3. Il faut donc examiner trois cas :

  • 1 + 1 + 1 = 1 · k1, ce qui donne k1 = 3, l1 = 3 et s = 9.
  • 1 + 2 = 1 · k1 + 2 · k2, ce qui donne k1 = 1, k2 = 1, l1 = 3, l2 = 4 et s = 7.
  • 3 = 3 · k3, ce qui donne k3 = 1, l3 = 5 et s = 5.

Ainsi, le polynôme recherché est

P 3 ( D ) = 1 3 ! ( λ 3 3 ! ) 3 ( D ) 9 + 1 1 ! 1 ! ( λ 3 3 ! ) ( λ 4 4 ! ) ( D ) 7 + 1 1 ! ( λ 5 5 ! ) ( D ) 5 = λ 3 3 1296 ( D ) 9 + λ 3 λ 4 144 ( D ) 7 + λ 5 120 ( D ) 5 . {\displaystyle {\begin{aligned}P_{3}(-D)&={\frac {1}{3!}}\left({\frac {\lambda _{3}}{3!}}\right)^{3}(-D)^{9}+{\frac {1}{1!1!}}\left({\frac {\lambda _{3}}{3!}}\right)\left({\frac {\lambda _{4}}{4!}}\right)(-D)^{7}+{\frac {1}{1!}}\left({\frac {\lambda _{5}}{5!}}\right)(-D)^{5}\\&={\frac {\lambda _{3}^{3}}{1296}}(-D)^{9}+{\frac {\lambda _{3}\lambda _{4}}{144}}(-D)^{7}+{\frac {\lambda _{5}}{120}}(-D)^{5}.\end{aligned}}}

Les cinq premiers termes du développement sont

f n ( x ) = ϕ ( x ) 1 n 1 2 ( 1 6 λ 3 ϕ ( 3 ) ( x ) ) + 1 n ( 1 24 λ 4 ϕ ( 4 ) ( x ) + 1 72 λ 3 2 ϕ ( 6 ) ( x ) ) 1 n 3 2 ( 1 120 λ 5 ϕ ( 5 ) ( x ) + 1 144 λ 3 λ 4 ϕ ( 7 ) ( x ) + 1 1296 λ 3 3 ϕ ( 9 ) ( x ) ) + 1 n 2 ( 1 720 λ 6 ϕ ( 6 ) ( x ) + ( 1 1152 λ 4 2 + 1 720 λ 3 λ 5 ) ϕ ( 8 ) ( x ) + 1 1728 λ 3 2 λ 4 ϕ ( 10 ) ( x ) + 1 31104 λ 3 4 ϕ ( 12 ) ( x ) ) + O ( n 5 2 ) . {\displaystyle {\begin{aligned}f_{n}(x)&=\phi (x)\\&\quad -{\frac {1}{n^{\frac {1}{2}}}}\left({\tfrac {1}{6}}\lambda _{3}\,\phi ^{(3)}(x)\right)\\&\quad +{\frac {1}{n}}\left({\tfrac {1}{24}}\lambda _{4}\,\phi ^{(4)}(x)+{\tfrac {1}{72}}\lambda _{3}^{2}\,\phi ^{(6)}(x)\right)\\&\quad -{\frac {1}{n^{\frac {3}{2}}}}\left({\tfrac {1}{120}}\lambda _{5}\,\phi ^{(5)}(x)+{\tfrac {1}{144}}\lambda _{3}\lambda _{4}\,\phi ^{(7)}(x)+{\tfrac {1}{1296}}\lambda _{3}^{3}\,\phi ^{(9)}(x)\right)\\&\quad +{\frac {1}{n^{2}}}\left({\tfrac {1}{720}}\lambda _{6}\,\phi ^{(6)}(x)+\left({\tfrac {1}{1152}}\lambda _{4}^{2}+{\tfrac {1}{720}}\lambda _{3}\lambda _{5}\right)\phi ^{(8)}(x)+{\tfrac {1}{1728}}\lambda _{3}^{2}\lambda _{4}\,\phi ^{(10)}(x)+{\tfrac {1}{31104}}\lambda _{3}^{4}\,\phi ^{(12)}(x)\right)\\&\quad +O\left(n^{-{\frac {5}{2}}}\right).\end{aligned}}}

Ici, ϕ(j)(x) est la dérivée j -ième de ϕ(·) au point x. En rappelant que les dérivées de la densité de la distribution normale sont liées à la densité normale par ϕ ( n ) ( x ) = ( 1 ) n H e n ( x ) ϕ ( x ) {\displaystyle \phi ^{(n)}(x)=(-1)^{n}He_{n}(x)\phi (x)} , (où H e n {\displaystyle He_{n}} est le polynôme d'Hermite d'ordre n), ceci explique les représentations alternatives en termes de fonction de densité. Blinnikov et Moessner (1998) ont donné un algorithme simple pour calculer les termes d'ordre supérieur du développement.

Il faut noter que dans le cas d'une distribution de réseau (qui a des valeurs discrètes), le développement d'Edgeworth doit être ajusté pour tenir compte des sauts discontinus entre les points du réseau[5].

Illustration : densité de la moyenne d'échantillon de trois distributions χ2

Densité de la moyenne de l'échantillon de trois variables χ2. Le graphique compare la densité réelle, l'approximation normale et deux développements d'Edgeworth.

On prend l'exemple de trois variables iid suivant toutes la loi du χ2 à deux degrés de liberté :

X i χ 2 ( k = 2 ) , i = 1 , 2 , 3 ( n = 3 ) {\displaystyle X_{i}\sim \chi ^{2}(k=2),\,i=1,2,3\,(n=3)} et la moyenne de l'échantillon X ¯ = 1 3 i = 1 3 X i {\displaystyle {\overline {X}}={\frac {1}{3}}\sum _{i=1}^{3}X_{i}} .

On peut utiliser plusieurs distributions pour approcher X ¯ {\displaystyle {\overline {X}}}  :

  • la distribution exacte, qui suit une distribution gamma : X ¯ G a m m a ( α = n k / 2 , θ = 2 / n ) = G a m m a ( α = 3 , θ = 2 / 3 ) {\displaystyle {\overline {X}}\sim \mathrm {Gamma} \left(\alpha =n\cdot k/2,\theta =2/n\right)=\mathrm {Gamma} \left(\alpha =3,\theta =2/3\right)} .
  • la distribution normale asymptotique : X ¯ n N ( k , 2 k / n ) = N ( 2 , 4 / 3 ) {\displaystyle {\overline {X}}\xrightarrow {n\to \infty } {\mathcal {N}}(k,2\cdot k/n)={\mathcal {N}}(2,4/3)} .
  • deux développements d'Edgeworth, de degrés 2 et 3.

Discussion des résultats

  • Pour les échantillons finis, une série d'Edgeworth n'est pas garantie d'être une loi de probabilité appropriée car les valeurs de la fonction de répartition à certains points peuvent aller au-delà de l'intervalle [ 0 , 1 ] {\displaystyle [0,1]} .
  • Ils garantissent (asymptotiquement) des erreurs absolues, mais les erreurs relatives peuvent être facilement évaluées en comparant le terme principal d'Edgeworth dans le reste avec le terme principal global [6].

Voir aussi

Références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Edgeworth series » (voir la liste des auteurs).
  1. (en) A. Stuart et M.G. Kendall, The advanced theory of statistics, Hafner Publishing Company, .
  2. (en) J.E. Kolassa, Series approximation methods in statistics, vol. 88, Springer Science & Business Media, .
  3. D.L. Wallace, « Asymptotic Approximations to Distributions », Annals of Mathematical Statistics, vol. 29, no 3,‎ , p. 635–654 (DOI 10.1214/aoms/1177706528, JSTOR 2237255)
  4. Hall, P. (2013). The bootstrap and Edgeworth expansion. Springer Science & Business Media.
  5. John E. Kolassa et Peter McCullagh, « Edgeworth series for lattice distributions », Annals of Statistics, vol. 18, no 2,‎ , p. 981–985 (DOI 10.1214/aos/1176347637, JSTOR 2242145)
  6. John E. Kolassa, Series approximation methods in statistics, 3rd, (ISBN 0387322272)

Bibliographie

  • (en) Harald Cramér, Mathematical Methods of Statistics, Princeton, Princeton University Press, .
  • (en) D.L. Wallace, « Asymptotic approximations to distributions », Annals of Mathematical Statistics, vol. 29, no 3,‎ , p. 635–654 (DOI 10.1214/aoms/1177706528 Accès libre)
  • (en) M. Kendall et A. Stuart, The advanced theory of statistics, vol. 1: Distribution theory, New York, Macmillan, .
  • (en) Peter McCullagh, Tensor Methods in Statistics, London, Chapman and Hall, .
  • (en) David Cox et Ole Barndorff-Nielsen, Asymptotic Techniques for Use in Statistics, London, Chapman and Hall, .
  • (en) P. Hall, The Bootstrap and Edgeworth Expansion, New York, Springer, .
  • (en) « Edgeworth series », dans Michiel Hazewinkel, Encyclopædia of Mathematics, Springer, (ISBN 978-1556080104, lire en ligne)
  • (en) S. Blinnikov et R. Moessner, « Expansions for nearly Gaussian distributions », Astronomy and Astrophysics Supplement Series, vol. 130,‎ , p. 193–205 (DOI 10.1051/aas:1998221, Bibcode 1998A&AS..130..193B, arXiv astro-ph/9711239, lire en ligne)
  • (en) Douglas Martin et Rohit Arora, « Inefficiency and bias of modified value-at-risk and expected shortfall », Journal of Risk, vol. 19, no 6,‎ , p. 59–84 (DOI 10.21314/JOR.2017.365)
  • (en) J.E. Kolassa, Series Approximation Methods in Statistics, New York, Springer, .
  • icône décorative Portail de l'analyse