Lemme de classe monotone

Le lemme de classe monotone, dû à Wacław Sierpiński[1] et popularisé par Eugene Dynkin[2], permet de démontrer, de manière économique, l'égalité entre deux lois de probabilité : de même que deux applications linéaires qui coïncident sur une base coïncident sur l'espace entier, deux mesures de probabilité qui coïncident sur un π-système, coïncident sur la tribu engendrée par ce π-système.

Dans certains ouvrages, le lemme de classe monotone apparaît sous le nom de « théorème pi-lambda de Dynkin ».

Classe monotone et π-système

Article détaillé : Pi-système.

Définition — 

  • Une classe C {\displaystyle {\mathcal {C}}} de parties d'un ensemble Ω est appelée π-système si cette classe est stable par intersection finie :
{ A C  et  B C } { A B C } . {\displaystyle \{A\in {\mathcal {C}}{\text{ et }}B\in {\mathcal {C}}\}\Rightarrow \{A\cap B\in {\mathcal {C}}\}.}
  • Une classe M {\displaystyle {\mathcal {M}}} de parties d'un ensemble Ω est appelée λ-système ou classe monotone si cette classe contient Ω et est stable par différence, et par réunion croissante :
{ A M  et  B M  et  A B } { B A M } , { n 0 , { A n M  et  A n A n + 1 } } { n 0 A n   M } . {\displaystyle {\begin{aligned}\{A\in {\mathcal {M}}{\text{ et }}B\in {\mathcal {M}}{\text{ et }}A\subset B\}\quad &\Rightarrow \quad \{B\setminus A\in {\mathcal {M}}\},\\\{\forall n\geq 0,\quad \{A_{n}\in {\mathcal {M}}{\text{ et }}A_{n}\subset A_{n+1}\}\}\quad &\Rightarrow \quad \left\{\bigcup _{n\geq 0}A_{n}\ \in {\mathcal {M}}\right\}.\end{aligned}}}
Exemples de π-systèmes :
  • une classe d'intervalles : C 1 = { ] , x ]   |   x R } . {\displaystyle {\mathcal {C}}_{1}=\{]-\infty ,\,x]\ |\ x\in \mathbb {R} \}.}
  • la classe des singletons : C 2 = { { x }   |   x Ω }     { } . {\displaystyle {\mathcal {C}}_{2}=\{\{x\}\ |\ x\in \Omega \}\ \cup \ \{\emptyset \}.}
  • la classe des pavés : C 3 = { A × B   |   A , B P ( Ω ) } . {\displaystyle {\mathcal {C}}_{3}=\{A\times B\ |\ A,B\in {\mathcal {P}}(\Omega )\}.}
Un exemple de classe monotone :

Soit deux mesures de probabilité P {\displaystyle \mathbb {P} } et Q {\displaystyle \mathbb {Q} } définies sur ( Ω , B ) . {\displaystyle (\Omega ,{\mathcal {B}}).} La classe M = { A B   |   P ( A ) = Q ( A ) } {\displaystyle {\mathcal {M}}=\{A\in {\mathcal {B}}\ |\ \mathbb {P} (A)=\mathbb {Q} (A)\}} est une classe monotone.

Énoncé et démonstration du lemme de classe monotone

Lemme de classe monotone —  La plus petite classe monotone contenant le π-système C {\displaystyle {\mathcal {C}}} est la tribu engendrée par C . {\displaystyle {\mathcal {C}}.}

Démonstration

On note M {\displaystyle \mathbb {M} } l'ensemble des classes monotones M {\displaystyle {\mathcal {M}}} telles que C M . {\displaystyle {\mathcal {C}}\subset {\mathcal {M}}.} Montrons d'abord que M {\displaystyle \mathbb {M} } possède un élément plus petit que (i.e. inclus dans) tous les autres (cet élément sera de plus unique). En effet :

  • M {\displaystyle \mathbb {M} } n'est pas vide, car il contient P ( Ω ) , {\displaystyle {\mathcal {P}}(\Omega ),} l'ensemble de toutes les parties de Ω   ; {\displaystyle \Omega \ ;}
  • ainsi l'intersection M C {\displaystyle {\mathcal {M}}_{\mathcal {C}}} de tous les éléments de M {\displaystyle \mathbb {M} } est bien définie et C     M C , {\displaystyle {\mathcal {C}}\ \subset \ {\mathcal {M}}_{\mathcal {C}},}
  • par ailleurs, l'intersection de n'importe quelle famille de classes monotones est encore une classe monotone, donc M C {\displaystyle {\mathcal {M}}_{\mathcal {C}}} est une classe monotone et par conséquent M C {\displaystyle {\mathcal {M}}_{\mathcal {C}}} appartient à M , {\displaystyle \mathbb {M} ,}
  • enfin M C {\displaystyle {\mathcal {M}}_{\mathcal {C}}} est par construction inclus dans tout élément de M . {\displaystyle \mathbb {M} .}

La classe M C {\displaystyle {\mathcal {M}}_{\mathcal {C}}} est donc le plus petit élément de M . {\displaystyle \mathbb {M} .}

On note σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} la tribu engendrée par C . {\displaystyle {\mathcal {C}}.} Comme toute tribu est une classe monotone, σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} est une classe monotone contenant C , {\displaystyle {\mathcal {C}},} donc M C σ ( C ) . {\displaystyle {\mathcal {M}}_{\mathcal {C}}\subset \sigma ({\mathcal {C}}).}

Dans la suite de la démonstration, on s'attache à montrer que M C {\displaystyle {\mathcal {M}}_{\mathcal {C}}} est une tribu (ce qui entrainera que σ ( C ) M C {\displaystyle \sigma ({\mathcal {C}})\subset {\mathcal {M}}_{\mathcal {C}}} [3]) . On utilise la proposition suivante :

Proposition —  Une classe monotone stable par intersection est une tribu. Ainsi, tout λ-système qui est aussi un π-système est une tribu.

Démonstration

En effet toute classe monotone M {\displaystyle {\mathcal {M}}} contient Ω {\displaystyle \Omega } et est stable par passage au complémentaire (puisque stable par différence et contenant Ω {\displaystyle \Omega } ). Si de plus M {\displaystyle {\mathcal {M}}} est stable par intersection, la version ensembliste des Lois de De Morgan entraîne qu'elle est stable par réunion :

{ A , B C } { A ¯ , B ¯ C } { A ¯ B ¯ C } { A ¯ B ¯ ¯ ( = A B ) C } . {\displaystyle {\begin{aligned}\{A,B\in {\mathcal {C}}\}&\Rightarrow \{{\overline {A}},{\overline {B}}\in {\mathcal {C}}\}\\&\Rightarrow \{{\overline {A}}\cap {\overline {B}}\in {\mathcal {C}}\}\\&\Rightarrow \{{\overline {{\overline {A}}\cap {\overline {B}}}}(=A\cup B)\in {\mathcal {C}}\}.\end{aligned}}}

Par une récurrence évidente, la réunion d'une famille finie d'éléments de M {\displaystyle {\mathcal {M}}} est encore un élément de M . {\displaystyle {\mathcal {M}}.} Soit alors une famille dénombrable d'éléments de M , {\displaystyle {\mathcal {M}},} notée ( A n ) n 1 . {\displaystyle (A_{n})_{n\geq 1}.} Posons

B n = 1 k n   A k . {\displaystyle B_{n}=\bigcup _{1\leq k\leq n}\ A_{k}.}

Alors ( B n ) n 1 {\displaystyle (B_{n})_{n\geq 1}} est une suite croissante d'éléments de M , {\displaystyle {\mathcal {M}},} donc

n 1   B n     M , {\displaystyle \bigcup _{n\geq 1}\ B_{n}\ \in \ {\mathcal {M}},}

mais par ailleurs, on peut démontrer, par exemple par double inclusion, que

n 1   B n   =   n 1   A n , {\displaystyle \bigcup _{n\geq 1}\ B_{n}\ =\ \bigcup _{n\geq 1}\ A_{n},}

La proposition est donc démontrée.

Il ne nous reste plus qu'à montrer que M C {\displaystyle {\mathcal {M}}_{\mathcal {C}}} est stable par intersection pour en conclure que M C {\displaystyle {\mathcal {M}}_{\mathcal {C}}} est une tribu. Pour cela, pour toute partie A {\displaystyle A} de Ω , {\displaystyle \Omega ,} on pose :

D A = { B M C   |   B A M C } . {\displaystyle {\mathcal {D}}_{A}=\left\{B\in {\mathcal {M}}_{\mathcal {C}}\ |\ B\cap A\in {\mathcal {M}}_{\mathcal {C}}\right\}.}

On montre facilement, d'une part que D A {\displaystyle {\mathcal {D}}_{A}} satisfait les deux dernières propriétés de classe monotone, car

( B 1 A ) ( B 2 A )   =   ( B 1 B 2 ) A et n 0 ( B n A )   =   ( n 0 B n ) A , {\displaystyle (B_{1}\cap A)\backslash (B_{2}\cap A)\ =\ (B_{1}\backslash B_{2})\cap A\quad {\text{et}}\quad \bigcup _{n\geq 0}(B_{n}\cap A)\ =\ \left(\bigcup _{n\geq 0}B_{n}\right)\cap A,}

d'autre part que si A M C , {\displaystyle A\in {\mathcal {M}}_{\mathcal {C}},} alors Ω D A . {\displaystyle \Omega \in {\mathcal {D}}_{A}.} Ainsi D A {\displaystyle {\mathcal {D}}_{A}} est une classe monotone dès que A M C . {\displaystyle A\in {\mathcal {M}}_{\mathcal {C}}.} Le raisonnement est alors en 2 étapes :

  • si A C , {\displaystyle A\in {\mathcal {C}},} alors la stabilité par intersection de C {\displaystyle {\mathcal {C}}} entraine que C D A , {\displaystyle {\mathcal {C}}\subset {\mathcal {D}}_{A},} donc que M C D A , {\displaystyle {\mathcal {M}}_{\mathcal {C}}\subset {\mathcal {D}}_{A},} donc que pour un élément B M C {\displaystyle B\in {\mathcal {M}}_{\mathcal {C}}} quelconque, on a B D A , {\displaystyle B\in {\mathcal {D}}_{A},} ou bien, de manière équivalente, A D B   ; {\displaystyle A\in {\mathcal {D}}_{B}\ ;}
  • ainsi, pour un élément B M C {\displaystyle B\in {\mathcal {M}}_{\mathcal {C}}} quelconque, on a C D B , {\displaystyle {\mathcal {C}}\subset {\mathcal {D}}_{B},} et finalement M C D B   : {\displaystyle {\mathcal {M}}_{\mathcal {C}}\subset {\mathcal {D}}_{B}\ :} en d'autre termes
B , B M C , B B M C . {\displaystyle \forall \,B,B^{\prime }\,\in {\mathcal {M}}_{\mathcal {C}},\qquad B\cap B^{\prime }\in {\mathcal {M}}_{\mathcal {C}}.}

Par application de la Proposition, M C {\displaystyle {\mathcal {M}}_{\mathcal {C}}} est donc une tribu. Comme M C {\displaystyle {\mathcal {M}}_{\mathcal {C}}} contient C , {\displaystyle {\mathcal {C}},} on en déduit que σ ( C ) M C . {\displaystyle \sigma ({\mathcal {C}})\subset {\mathcal {M}}_{\mathcal {C}}.} [4]

Applications

Lemme d'unicité des mesures de probabilité

Le lemme de classe monotone a une conséquence immédiate

Lemme d'unicité des mesures de probabilité —  Deux mesures de probabilité P {\displaystyle \mathbb {P} } et Q {\displaystyle \mathbb {Q} } définies sur l'espace probabilisable ( Ω , A ) , {\displaystyle (\Omega ,{\mathcal {A}}),} et coincidant sur le π-système C A , {\displaystyle {\mathcal {C}}\subset {\mathcal {A}},} coïncident aussi sur la tribu engendrée par C {\displaystyle {\mathcal {C}}}  :

{ A C , P ( A ) = Q ( A ) } { A σ ( C ) , P ( A ) = Q ( A ) } . {\displaystyle \{\forall A\in {\mathcal {C}},\quad \mathbb {P} (A)=\mathbb {Q} (A)\}\quad \Rightarrow \quad \{\forall A\in \sigma ({\mathcal {C}}),\quad \mathbb {P} (A)=\mathbb {Q} (A)\}.}
Démonstration

On pose

M = { A A | P ( A ) = Q ( A ) } . {\displaystyle {\mathcal {M}}=\{A\in {\mathcal {A}}\,|\,\mathbb {P} (A)=\mathbb {Q} (A)\}.}

On vérifie facilement que M {\displaystyle {\mathcal {M}}} est une classe monotone. Comme M {\displaystyle {\mathcal {M}}} est une classe monotone contenant C , {\displaystyle {\mathcal {C}},} M {\displaystyle {\mathcal {M}}} contient la plus petite classe monotone contenant C , {\displaystyle {\mathcal {C}},} à savoir σ ( C ) . {\displaystyle \sigma ({\mathcal {C}}).}

Parmi de nombreuses applications importantes du lemme d'unicité, citons celle qui est peut-être la plus importante :

Corollaire — Il suit que :

Démonstration

On pose

C = { ] , x ] | x R } . {\displaystyle {\mathcal {C}}=\{]-\infty ,\,x]\,|\,x\in \mathbb {R} \}.}

La classe C {\displaystyle {\mathcal {C}}} est un π-système, et σ ( C ) = B ( R ) . {\displaystyle \sigma ({\mathcal {C}})={\mathcal {B}}(\mathbb {R} ).} Comme les deux mesures de probabilité P {\displaystyle \mathbb {P} } et Q {\displaystyle \mathbb {Q} } ont même fonction de répartition, i.e.

x R , P ( ] , x ] ) = Q ( ] , x ] ) , {\displaystyle \forall x\in \mathbb {R} ,\qquad \mathbb {P} (]-\infty ,\,x])=\mathbb {Q} (]-\infty ,\,x]),}

P {\displaystyle \mathbb {P} } et Q {\displaystyle \mathbb {Q} } coïncident sur C , {\displaystyle {\mathcal {C}},} donc sur σ ( C ) = B ( R ) . {\displaystyle \sigma ({\mathcal {C}})={\mathcal {B}}(\mathbb {R} ).} Par définition, deux variables aléatoires réelles, X {\displaystyle X} et Y , {\displaystyle Y,} ont même fonction de répartition si leurs lois de probabilité, P X {\displaystyle \mathbb {P} _{X}} et P Y , {\displaystyle \mathbb {P} _{Y},} ont même fonction de répartition :

A B ( R ) , P X ( A ) = P ( X A ) , et  x R , P X ( ] , x ] ) = P ( X x ) . {\displaystyle \forall A\in {\mathcal {B}}(\mathbb {R} ),\quad \mathbb {P} _{X}(A)=\mathbb {P} (X\in A),\qquad {\text{et }}\forall x\in \mathbb {R} ,\quad \mathbb {P} _{X}(]-\infty ,\,x])=\mathbb {P} (X\leq x).}

Ainsi, si X {\displaystyle X} et Y , {\displaystyle Y,} ont même fonction de répartition, P X {\displaystyle \mathbb {P} _{X}} et P Y {\displaystyle \mathbb {P} _{Y}} coïncident sur C , {\displaystyle {\mathcal {C}},} donc P X = P Y . {\displaystyle \mathbb {P} _{X}=\mathbb {P} _{Y}.}

Expliquons brièvement pourquoi σ ( C ) = B ( R ) {\displaystyle \sigma ({\mathcal {C}})={\mathcal {B}}(\mathbb {R} )}  :

  • B ( R ) {\displaystyle {\mathcal {B}}(\mathbb {R} )} est par définition la tribu engendrée par les ouverts de R , {\displaystyle \mathbb {R} ,}
  • un ouvert O {\displaystyle {\mathcal {O}}} de R {\displaystyle \mathbb {R} } est réunion dénombrable d'intervalles ouverts, car, par densité de Q {\displaystyle \mathbb {Q} } dans R , {\displaystyle \mathbb {R} ,} on a
O = ( a , b ) E ] a , b [ , avec E = { ( a , b ) Q 2 | a < b ,   ] a , b [ O } , {\displaystyle {\mathcal {O}}=\bigcup _{(a,b)\in E}]a,b[,\qquad {\text{avec}}\qquad E=\{(a,b)\in \mathbb {Q} ^{2}\,|\,a<b,\ ]a,b[\subset {\mathcal {O}}\},}
  • et les intervalles ouverts appartiennent à σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} (donc les ouverts appartiennent à σ ( C ) , {\displaystyle \sigma ({\mathcal {C}}),} donc σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} contient B ( R ) {\displaystyle {\mathcal {B}}(\mathbb {R} )} ), car
] a , b [ = ] , a ] c ( n 1 ] , b 1 n ] ) . {\displaystyle ]a,b[=]-\infty ,a]^{c}\,\cap \,\left(\bigcup _{n\geq 1}]-\infty ,b-{\tfrac {1}{n}}]\right).}

Pour l'inclusion en sens inverse ( B ( R ) {\displaystyle {\mathcal {B}}(\mathbb {R} )} contient σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} ), notons que B ( R ) {\displaystyle {\mathcal {B}}(\mathbb {R} )} est la tribu engendrée par tous les fermés de R , {\displaystyle \mathbb {R} ,} alors que σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} est engendrée par certains fermés de R {\displaystyle \mathbb {R} } seulement.

Critères d'indépendance

Par exemple,

Critères — Soit X et Y deux variables aléatoires réelles définies sur un espace probabilisé ( Ω , A , P ) . {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} ).}

  • Si, pour tout couple (x,y) de nombres réels,
P ( X x  et  Y y )   =   P ( X x ) × P ( Y y ) , {\displaystyle \mathbb {P} \left(X\leq x{\text{ et }}Y\leq y\right)\ =\ \mathbb {P} \left(X\leq x\right)\times \mathbb {P} \left(Y\leq y\right),}
alors X et Y sont indépendantes.
  • Si Y est à valeurs dans N , {\displaystyle \mathbb {N} ,} et si, pour tout couple ( x , n ) R × N , {\displaystyle (x,n)\in \mathbb {R} \times \mathbb {N} ,}
P ( X x  et  Y = n )   =   P ( X x ) × P ( Y = n ) , {\displaystyle \mathbb {P} \left(X\leq x{\text{ et }}Y=n\right)\ =\ \mathbb {P} \left(X\leq x\right)\times \mathbb {P} \left(Y=n\right),}
alors X et Y sont indépendantes.
  • Bien sûr, si X et Y sont à valeurs dans N , {\displaystyle \mathbb {N} ,} et si, pour tout couple ( m , n ) N 2 , {\displaystyle (m,n)\in \mathbb {N} ^{2},}
P ( X = m  et  Y = n )   =   P ( X = m ) × P ( Y = n ) , {\displaystyle \mathbb {P} \left(X=m{\text{ et }}Y=n\right)\ =\ \mathbb {P} \left(X=m\right)\times \mathbb {P} \left(Y=n\right),}
alors X et Y sont indépendantes.

La démonstration du dernier critère ne nécessite pas le lemme de classe monotone, mais ce lemme est très utile pour la démonstration des deux premiers critères. On peut utiliser le deuxième critère pour démontrer, par exemple, que dans la méthode de rejet, le nombre d'itérations est indépendant de l'objet aléatoire (souvent un nombre aléatoire) engendré au terme de ces itérations. Pour la démonstration de ces critères, ainsi que pour la démonstration du lemme de regroupement, on a besoin de la définition et de la proposition[5] suivantes.

Théorème — Définition Dans un espace probabilisé ( Ω , A , P ) , {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} ),} une famille finie ( C i ) i I {\displaystyle ({\mathcal {C}}_{i})_{i\in I}} de classes incluses dans A {\displaystyle {\mathcal {A}}} est une famille mutuellement indépendante si et seulement si

J I , ( C j ) j J j J C j , P ( j J C j ) = j J   P ( C j ) . {\displaystyle \forall J\subset I,\forall (C_{j})_{j\in J}\in \prod _{j\in J}{\mathcal {C}}_{j},\qquad \mathbb {P} \left(\bigcap _{j\in J}C_{j}\right)=\prod _{j\in J}\ \mathbb {P} (C_{j}).}

Théorème — Proposition Si, dans un espace probabilisé ( Ω , A , P ) , {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} ),} une famille finie ( C i ) i I {\displaystyle ({\mathcal {C}}_{i})_{i\in I}} de π-systèmes inclus dans A {\displaystyle {\mathcal {A}}} est une famille mutuellement indépendante, alors la famille ( σ ( C i ) ) i I {\displaystyle \left(\sigma ({\mathcal {C}}_{i})\right)_{i\in I}} est une famille de tribus mutuellement indépendantes.

Démonstration

On pose

A j = { A A : J I { j } , ( A j ) j J j J C j , P ( A ( j J A j ) ) = P ( A ) j J P ( A j ) } {\displaystyle {\mathcal {A}}_{j}=\left\{A\in {\mathcal {A}}:\forall J\subset I\backslash \{j\},\forall (A_{j})_{j\in J}\in \prod _{j\in J}{\mathcal {C}}_{j},\quad \mathbb {P} \left(A\cap {\big (}\bigcap _{j\in J}A_{j}{\big )}\right)=\mathbb {P} (A)\cdot \prod _{j\in J}\mathbb {P} (A_{j})\right\}}


On vérifie facilement que A j {\displaystyle {\mathcal {A}}_{j}} est une classe monotone. Comme A j {\displaystyle {\mathcal {A}}_{j}} est une classe monotone contenant C j , {\displaystyle {\mathcal {C}}_{j},} A j {\displaystyle {\mathcal {A}}_{j}} contient la plus petite classe monotone contenant C j , {\displaystyle {\mathcal {C}}_{j},} à savoir C j = σ ( C j ) . {\displaystyle {\mathcal {C}}_{j}^{\prime }=\sigma ({\mathcal {C}}_{j}).} La nouvelle famille de π-systèmes obtenue en remplaçant C j {\displaystyle {\mathcal {C}}_{j}} par C j {\displaystyle {\mathcal {C}}_{j}^{\prime }} dans la famille ( C i ) i I {\displaystyle ({\mathcal {C}}_{i})_{i\in I}} est donc encore une famille de π-systèmes mutuellement indépendants. On peut par le même raisonnement remplacer successivement chaque C i {\displaystyle {\mathcal {C}}_{i}} par C i = σ ( C i ) , {\displaystyle {\mathcal {C}}_{i}^{\prime }=\sigma ({\mathcal {C}}_{i}),} dans la famille ( C i ) i I , {\displaystyle ({\mathcal {C}}_{i})_{i\in I},} sans que cette famille perde sa propriété de mutuelle indépendance. Notons qu'une tribu, et en particulier chaque C i , {\displaystyle {\mathcal {C}}_{i}^{\prime },} est aussi, nécessairement, un π-système.

Applications :
  • Posons C 1 = { X 1 ( ] , x ] )   |   x R } {\displaystyle {\mathcal {C}}_{1}=\{X^{-1}(]-\infty ,\,x])\ |\ x\in \mathbb {R} \}} et C 2 = { Y 1 ( ] , y ] )   |   y R } . {\displaystyle {\mathcal {C}}_{2}=\{Y^{-1}(]-\infty ,\,y])\ |\ y\in \mathbb {R} \}.} Alors, sous les hypothèses du premier critère, C 1 {\displaystyle {\mathcal {C}}_{1}} et C 2 {\displaystyle {\mathcal {C}}_{2}} sont des π-systèmes indépendants. En vertu de la proposition, σ ( C 1 ) {\displaystyle \sigma ({\mathcal {C}}_{1})} et σ ( C 2 ) {\displaystyle \sigma ({\mathcal {C}}_{2})} sont alors des tribus indépendantes. Mais σ ( C 1 ) = σ ( X ) {\displaystyle \sigma ({\mathcal {C}}_{1})=\sigma (X)} et σ ( C 2 ) = σ ( Y ) , {\displaystyle \sigma ({\mathcal {C}}_{2})=\sigma (Y),} ce qui assure bien l'indépendance du couple (X,Y).
  • Posons C 3 = { X 1 ( m )   |   m N } { } {\displaystyle {\mathcal {C}}_{3}=\{X^{-1}(m)\ |\ m\in \mathbb {N} \}\cup \{\emptyset \}} et C 4 = { Y 1 ( n )   |   n N } { } . {\displaystyle {\mathcal {C}}_{4}=\{Y^{-1}(n)\ |\ n\in \mathbb {N} \}\cup \{\emptyset \}.} Sous les hypothèses du deuxième critère, C 1 {\displaystyle {\mathcal {C}}_{1}} et C 4 {\displaystyle {\mathcal {C}}_{4}} sont des π-systèmes indépendants. Par ailleurs, σ ( C 1 ) = σ ( X ) {\displaystyle \sigma ({\mathcal {C}}_{1})=\sigma (X)} et σ ( C 4 ) = σ ( Y ) , {\displaystyle \sigma ({\mathcal {C}}_{4})=\sigma (Y),} et on conclut comme précédemment. Pour démontrer le troisième critère, on utilise cette fois C 3 {\displaystyle {\mathcal {C}}_{3}} et C 4 . {\displaystyle {\mathcal {C}}_{4}.}

Voir aussi

Notes et références

  1. 1928, Un théorème général sur les familles d'ensembles, Fund. Math, 12, 206-210,
  2. (en) Eugene Dynkin (dir.) (trad. D. E. Brown), Theory of Markov Processes, Dover Publications Inc., (1re éd. 1961), 224 p. (ISBN 978-0-486-45305-7 et 0-486-45305-7, lire en ligne), chap. 1, p. 1-2.
  3. Par définition de σ ( C ) , {\displaystyle \sigma ({\mathcal {C}}),} (voir tribu engendrée) σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} est la plus petite (pour l'inclusion) tribu contenant C , {\displaystyle {\mathcal {C}},} alors que M C {\displaystyle {\mathcal {M}}_{\mathcal {C}}} est une tribu contenant C . {\displaystyle {\mathcal {C}}.} Donc σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} est plus petite (pour l'inclusion) que M C , {\displaystyle {\mathcal {M}}_{\mathcal {C}},} autrement dit σ ( C ) M C . {\displaystyle \sigma ({\mathcal {C}})\subset {\mathcal {M}}_{\mathcal {C}}.}
  4. (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], démonstration développée à partir de la démonstration du Théorème 1.1, page 2.
  5. (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], Lemme 3.6, page 50.

Bibliographie

  • (en) Olav Kallenberg, Foundations of Modern Probability, New York, Springer, coll. « Probability and Its Applications », (réimpr. 2001), 638 p. (ISBN 0-387-95313-2, lire en ligne)

Pages liées

  • icône décorative Portail des probabilités et de la statistique