Paradoxe de Borel

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Borel.

Le paradoxe de Borel (parfois appelé le paradoxe de Borel-Kolmogorov) est un paradoxe de la théorie des probabilités en rapport avec les probabilités conditionnelles et les densités de probabilité.

Supposons que nous ayons deux variables aléatoires, X et Y, de densité de probabilité conjointe pX,Y(x,y). Nous pouvons former la densité conditionnelle de Y sachant X,

p Y | X ( y | x ) = p X , Y ( x , y ) p X ( x ) {\displaystyle p_{Y|X}(y|x)={\frac {p_{X,Y}(x,y)}{p_{X}(x)}}}

pX(x) est la loi marginale appropriée.

En utilisant le théorème du changement de variable, nous pouvons paramétrer la loi conjointe avec les fonctions U= f(X,Y), V = g(X,Y), et pouvons alors former la densité conditionnelle de V sachant U.

p V | U ( v | u ) = p V , U ( u , v ) p U ( u ) {\displaystyle p_{V|U}(v|u)={\frac {p_{V,U}(u,v)}{p_{U}(u)}}}

Étant donné une condition particulière sur X et la condition équivalente sur U, l’intuition nous suggère que les densités conditionnelles pY|X(y|x) et pV|U(v|u) devraient être identiques. Ce n’est pas le cas en général.

Un exemple concret

Une loi uniforme

Soit la densité de probabilité conjointe

p X , Y ( x , y ) = { 1 , 0 < y < 1 , y < x < 1 y 0 , sinon {\displaystyle p_{X,Y}(x,y)=\left\{{\begin{matrix}1,&0<y<1,\quad -y<x<1-y\\0,&{\mbox{sinon}}\end{matrix}}\right.}

La densité marginale de X se calcule

p X ( x ) = { 1 + x , 1 < x 0 1 x , 0 < x < 1 0 , sinon {\displaystyle p_{X}(x)=\left\{{\begin{matrix}1+x,&-1<x\leq 0\\1-x,&0<x<1\\0,&{\mbox{sinon}}\end{matrix}}\right.}

Ainsi la densité conditionnelle de Y sachant X est

p Y | X ( y | x ) = { 1 1 + x , 1 < x 0 , x < y < 1 1 1 x , 0 < x < 1 , 0 < y < 1 x 0 , sinon {\displaystyle p_{Y|X}(y|x)=\left\{{\begin{matrix}{\frac {1}{1+x}},&-1<x\leq 0,\quad -x<y<1\\\\{\frac {1}{1-x}},&0<x<1,\quad 0<y<1-x\\\\0,&{\mbox{sinon}}\end{matrix}}\right.}

qui est uniforme suivant y.

Nouveau paramétrage

Maintenant, appliquons la transformation suivante :

U = X Y + 1 V = Y . {\displaystyle U={\frac {X}{Y}}+1\qquad \qquad V=Y.}

En utilisant le théorème du changement de variable, nous obtenons

p U , V ( u , v ) = { v , 0 < v < 1 , 0 < u v < 1 0 , sinon {\displaystyle p_{U,V}(u,v)=\left\{{\begin{matrix}v,&0<v<1,\quad 0<u\cdot v<1\\0,&{\mbox{sinon}}\end{matrix}}\right.}

La distribution marginale se calcule et est égale à

p U ( u ) = { 1 2 , 0 < u 1 1 2 u 2 , 1 < u < + 0 , sinon {\displaystyle p_{U}(u)=\left\{{\begin{matrix}{\frac {1}{2}},&0<u\leq 1\\\\{\frac {1}{2u^{2}}},&1<u<+\infty \\\\0,&{\mbox{sinon}}\end{matrix}}\right.}

Ainsi la densité conditionnelle de V sachant U est

p V | U ( v | u ) = { 2 v , 0 < u 1 , 0 < v < 1 2 u 2 v , 1 < u < + , 0 < v < 1 u 0 , sinon {\displaystyle p_{V|U}(v|u)=\left\{{\begin{matrix}2v,&0<u\leq 1,\quad 0<v<1\\2u^{2}v,&1<u<+\infty ,\quad 0<v<{\frac {1}{u}}\\0,&{\mbox{sinon}}\end{matrix}}\right.}

qui n’est pas uniforme suivant v.

Le résultat non intuitif

D'après ce qui précède, nous avons

p Y | X ( y | x = 0 ) = { 1 , 0 < y < 1 0 , sinon {\displaystyle p_{Y|X}(y|x=0)=\left\{{\begin{matrix}1,&0<y<1\\0,&{\mbox{sinon}}\end{matrix}}\right.}

La condition équivalente dans le système de coordonnées u-v est U = 1, et la densité conditionnelle de V sachant U = 1 est

p V | U ( v | u = 1 ) = { 2 v , 0 < v < 1 0 , sinon {\displaystyle p_{V|U}(v|u=1)=\left\{{\begin{matrix}2v,&0<v<1\\0,&{\mbox{sinon}}\end{matrix}}\right.}

Paradoxalement, V = Y et X = 0 est identique à U = 1, mais

p Y | X ( y | x = 0 ) p V | U ( v | u = 1 ) . {\displaystyle p_{Y|X}(y|x=0)\neq p_{V|U}(v|u=1).}

Voir aussi

  • icône décorative Portail des probabilités et de la statistique
  • icône décorative Portail des mathématiques