Soit $X$ et $Y$ deux variables aléatoires définies sur $(\Omega,{\cal A},P)$. On dit que $X$ est stochastiquement inférieur à $Y$ lorsque pour tout réel $x$, on a : $P([X\geq x])\leq P([Y\geq x])$.
7. Montrer que si les deux variables aléatoires $X$ et $Y$ vérifient pour tout $\omega\in\Omega$ l'inégalité $X(\omega)\leq Y(\omega)$, alors $X$ est stochastiquement inférieur à $Y$.
Puisque pour tout $\omega\in\Omega$ l'inégalité $X(\omega)\leq Y(\omega)$, on a $$X(\omega)\geq x\Longrightarrow Y(\omega)\geq x,$$ ce qui s'interpréte en terme d'inclusion : $$\{\omega\in\Omega/X(\omega)\geq x\}\subset \{\omega\in\Omega/Y(\omega)\geq x\}$$ donc par croissance de la mesure de probabilité $P([X\geq x])\leq P([Y\geq x])$, d'où le résultat.
8. On suppôse que $X$ suit la loi normale d'espérance égale à $-1$ et de variance égale à $1$, que $Y$ suit la loi normale d'espérance égale à $1$ et de variance $1$ et que $X$ et $Y$ sont indépendantes.
a) Exprimer $P([X\geq 0]\cap[Y<\! 0])$ à l'aide de la fonction de répartition $\Phi$ de la loi normale centrée réduite.
Par indépendance : $$P([X\geq 0]\cap[Y<\! 0])=P([X\geq 0])P([Y<\! 0])$$ Or $X\sim{\cal N}(-1,1)$ donc $X+1\sim{\cal N}(0,1)$ et $Y\sim{\cal N}(1,1)$ donc $Y-1\sim{\cal N}(0,1)$. Il suit que : $$P([X\geq 0]\cap[Y<\! 0])=P([X+1\geq 1])P([Y-1<\! -1])=(1-\Phi(1))\Phi(-1)=(\Phi(-1))^2.$$
b) Montrer que $X$ est stochastiquement inférieur à $Y$.
$P(X\geq x)=P(X+1\geq x+1)=1-\Phi(x+1)$ et $P(Y\geq x)=P(Y-1\geq x-1)=1-\Phi(x-1)$. Par croissance de $\Phi$, on a $\Phi(x-1)\leq\Phi(x+1)$ et donc $P(X\geq x)\leq P(Y\geq x)$. $X$ est donc stochastiquement inférieur à $Y$.
c) A-t-on pour tout $\omega\in\Omega$, l'inégalité $X(\omega)\leq Y(\omega)$?
Si c'était le cas nous devrions avoir $P([X\geq 0]\cap[Y<\! 0])=0$, or ce n'est pas le cas d'après 8)a).
9. On suppose que $X$ et $Y$ sont discrètes à valeurs dans $\mathbb N$. Montrer que $X$ est stochastiquement inférieur à $Y$ si et seulement si, pour tout $k\in\mathbb N$, on a : $P([X\leq k])\geq P([Y\leq k])$.
Supposons que $X$ est stochastiquement inférieur à Y et posons $k<\! x<\! k+1$. Alors comme $X$ et $Y$ sont discrètes on a $P(X\leq k)=P(X<\! x)$ et $P(Y\leq k)=P(Y<\! x)$ et donc comme $X$ est stochastiquement inférieur à $Y$, on a $$P(X\leq k)=P(X<\! x)=1-P(X\geq k)\geq 1-P(Y\geq k)=P(Y<\! x),$$ d'où la première implication.
Réciproquement, supposons que $\forall k\in\mathbb N, P([X\leq k])\geq P([Y\leq k])$. Soit $x\in\mathbb R$, on distingue deux cas de figure. Soit $x\in\mathbb Z$ et posons $x=k$ alors comme $X$ et $Y$ sont discrètes $$P(X\geq x)=P(X\geq k)=1-P(X<\! k)=1-P(X\leq k-1)\leq 1-P(Y\leq k-1)=1-P(X<\! k)=P(Y\geq k)=P(Y\geq x).$$ Donc on a bien $P(X\geq x)\leq P(Y\geq x)$. Supposons maintenant que $x\in\mathbb R\backslash \mathbb Z$ alors si on pose $k=[x]$, comme $X$ et $Y$ sont discrètes on a : $$P(X\geq x)=P(X>k)=1-P(X\leq k)\leq 1-P(Y\leq k)=P(Y>k)=P(Y\geq x).$$ Donc on a bien aussi $P(X\geq x)\leq P(Y\geq x)$. L'implication réciproque est donc démontrée.
10. Soit $\theta$ et $\lambda$ deux réels vérifiant $0<\! \theta<\! \lambda$, et soit $X$ et $Z$ deux variables aléatoires indépendantes suivant respectivement la loi de Poisson de paramètre $\theta$ et la loi de Poisson de paramètre $\lambda-\theta$.
a) Rappeler la loi de $X+Z$ en citant précisément le résultat de cours utilisé.
$X$ et $Z$ étant des lois de Poisson indépendantes, on a : $$X+Z\sim{\cal P}(\theta+(\lambda-\theta))={\cal P}(\lambda).$$
b) Soit $Y$ une variable aléatoire suivant la loi de Poisson de paramètre $\lambda$. Montrer que $X$ est stochastiquement inférieur à $Y$.
On observe que $[X+Z\leq k]\subset[X\leq k]$, par conséquent $P([X\leq k])\geq P([X+Z\leq k])$, mais d'après la question précédente $X+Z$ suit la même loi que $Y$ donc on a aussi $P([X\leq k])\geq P([Y\leq k])$ ce qui prouve le résultat d'après 9.
11. Pour tout $k\in\mathbb N$ et pour tout réel $t>0$, on pose : $F(t,k)=\sum_{j=0}^k\frac{t^j}{j!}e^{-t}$.
a) Ecrire en Pascal une fonction d'en-tête function suite (k : integer; t : real) : real ; qui permet de calculer $F(t,k)$.
b) Etablir pour tout $k\in\mathbb N$ et pour tout réel $\beta\in]0,1[$, l'existence d'un unique réel strictement positif $M(\beta,k)$ vérifiant l'égalité suivante : $F(M(\beta,k),k)=\beta$.
Pour $k\in\mathbb N$ fixé, la fonction $t\maptso F(t,k)$ est continue, décroissante (on le prouve en dérivant par exemple) et vérifie $F(0,k)=1$ (ne pas oublier que $j=0$ est un cas spécial de la somme!) et $\lim_{t\to+\infty}F(t,k)=0$ (par croissance comparée). Donc par le théorème de la bijection, il existe bien un unique $M(\beta,k)$ vérifiant $F(M(\beta,k),k)=\beta$.
12. Soit $X$ une variable aléatoire discrète à valeurs dans $\mathbb N$ de fonction de répartition $G$.
On note $V$ et $W$ les deux application de $\Omega$ dans $[0,1]$, définies par : $\forall\omega\in\Omega,\ \begin{cases}V(\omega)=G(X(\omega)-1)\\ W(\omega)=G(X(\omega))\end{cases}$.
Soit $\alpha$ un réel vérifiant $0<\! \alpha<\! 1$.
a) Justifier l'existence de $L_{\alpha}=\min\{k\in\mathbb N;G(k)\geq \alpha\}$ et comparer les réels $\alpha,\ G(L_\alpha-1)$ et $G(L_\alpha)$.
$\{k\in\mathbb N;G(k)\geq \alpha\}$ est un sous ensemble de $\mathbb Z$ minoré par $0$ donc admet un minimum. D'autre part, par défintion $L_\alpha$ est le plus petit entier $k$ vérifiant $G(k)\geq \alpha$ donc $G(L_\alpha)\geq\alpha>G(L_\alpha-1)$ donc $G(L_\alpha)>G(L_\alpha-1)$.
b) Montrer que $[W<\! \alpha]$ et $[V\geq \alpha]$ sont des évènements. Qu'en déduit-on pour les applications $V$ et $W$?
On a par croissance de $G$ et définition de $L_\alpha$ que : $$[W<\! \alpha]=[G(X)<\! \alpha]=[X<\! L_\alpha].$$ $X$ étant une variable aléatoire, $[X<\! L_\alpha]\in{\cal A}$ et donc $[W<\! \alpha]$ est un évènement. De même toujours par croissance de $G$ : $$[V\geq\alpha]=[X-1\geq L_\alpha]\in{\cal A},$$ donc $[V\geq\alpha]$ est aussi un évènement.
On en déduit que $V$ et $W$ sont des variables aléatoires.
c) Exprimer $P([W<\! \alpha])$ et $P([V\geq \alpha])$ à l'aide de $G$ et $L_{\alpha}$.
En reprenant la résolution de 12)b), on a : $$P([W<\! \alpha])=P([X<\! L_\alpha])=G(L_\alpha-1),$$ $$P([V\geq \alpha])=P([X-1\geq L_\alpha])=1-P(X<\! L_\alpha+1)=1-G(L_\alpha).$$
d) Soit $U$ une variable aléatoire à densité qui suit la loi uniforme sur le segment $[0,1]$. Montrer que $V$ est stochastiquement inférieur à $U$ et que $U$ est stochastiquement inférieur à $W$.
Pour $x<\! 0$ on a $P(V\geq x)=P(U\geq x)=1$ et pour $x>1$ on a $P(V\geq x)=P(U\geq x)=0$, il nous reste donc à prouver que pour $x\in[0,1],\ P(V\geq x)\leq P(U\geq x)$. Or d'après 12)c) $P(V\geq x)=1-G(L_x)$. Mais par définition de $L_x$, on a $G(L_x)\geq x$ donc $$P(V\geq x)=1-G(L_x)\leq 1-x=P(U\geq x).$$ $V$ est donc bien stochastiquement inférieur à $U$.
13. Pour $n$ entier supérieur ou égal à 2, soit $(X_1,X_2,\dots,X_n)$ un $n$-échantillon i.i.d (indépendant identiquement distribué) de la loi de Poisson de paramètre inconnu $\theta>0$. On pose pour tout $n\geq 2$ : $S_n=\sum_{k=1}^nX_k$.
Les notations $F$ et $M$ sont celles de la question 11.
a) Proposer un estimateur sans biais de $\theta$.
$\frac{S_n}{n}$ est un estimateur sans biais de $\theta$ car : $$E\left(\frac{S_n}{n}\right)=\frac{1}{n}\sum_{k=1}^nE(S_k)=\frac{n\theta}{n}=\theta.$$
b) Soit $\alpha$ un réel tel que $0<\! \alpha <\! 1$. A l'aide de la question 12, établir les deux inégalités suivantes : $$P\left(\left[F(n\theta,S_n)<\! \frac{\alpha}{2}\right]\right)\leq\frac{\alpha}{2}\text{ et }P\left(\left[F(n\theta,S_n-1)\geq 1-\frac{\alpha}{2}\right]\right)\leq\frac{\alpha}{2}$$
$S_n$ est à valeur dans $\mathbb N$, pour $t$ donné $k\in\mathbb N\mapsto F(t,k)$ est la fonction de répartition d'une loi de Poisson, donc si on pose $\forall k\in \mathbb N,\ G(k)=F(n\theta,k)$ nous sommes dans les hypothèses de la question 12). On a alors que $W=F(n\theta,S_n)$ et par 12)c) $$P\left(\left[F(n\theta,S_n)<\! \frac{\alpha}{2}\right]\right)=P\left(W<\! \frac{\alpha}{2}\right)=G\left(L_{\alpha/2}-1\right)\leq\frac{\alpha}{2},$$ où la dernière inégalité provient de la définition de $L_\alpha$. D'autre part on a aussi que $F(n\theta,S_n-1)=V$ donc par 12)c) et définition de $L_\alpha$ : $$P\left(\left[F(n\theta,S_n-1)\geq 1-\frac{\alpha}{2}\right]\right)=P\left(V\geq 1-\frac{\alpha}{2}\right)=1-G(L_{\alpha/2})\leq\frac{\alpha}{2}.$$
c) On pose : $J(X_1,X_2,\dots,X_n)=\frac{1}{n}M\left(\frac{\alpha}{2},S_n\right)$ et $I(X_1,X_2,\dots,X_n)=\begin{cases}\frac{1}{n}M\left(1-\frac{\alpha}{2},S_n-1\right) & \text{ si } & S_n\geq 1\\ 0 & \text{ si } & S_n=0\end{cases}$. Déduire des questions précédentes que $I(X_1,X_2,\dots,X_n)$ et $J(X_1,X_2,\dots,X_n)$ sont les bornes d'un intervalle de confiance de risque inférieur ou égal à $\alpha$ pour le paramètre inconnu $\theta$.
On doit prouver que $P("\theta\text{ est entre I et J}")\geq 1-\alpha$. On observe déjà que $$\{I\leq \theta\leq J\}\subset\{"\theta\text{ est entre I et J}"\},$$ donc $P(I\leq \theta\leq J)\leq P("\theta\text{ est entre I et J}")$. Pour prouver le résultat il suffit donc de prouver que $P(I\leq \theta\leq J)\geq 1-\alpha$ ce que nous allons faire. Observons maintenant que : $${\bf (\star)}:\ P(I\leq \theta\leq J)=1-P([\theta>J]\cup[\theta<\! I])\geq 1-P([\theta>J])-P([\theta<\! I]).$$ Or d'une part on a que $$[\theta>J]=\left[n\theta>M\left(\frac{\alpha}{2},S_n\right)\right]=\left[F(n\theta,S_n)<\! \frac{\alpha}{2}\right],$$ où la dernière inégalité provient de la définition de $M$ et de la stricte décroissance de $F$ en sa première variable. Il suit donc d'après 13)b) que : $${\bf (1)}:\ P(\theta>J)=P\left(F(n\theta,S_n)<\! \frac{\alpha}{2}\right)\leq\frac{\alpha}{2}.$$ D'autre part, par définition de $I$, on a aussi que : $$P(\theta<\! I)=P_{[S_n=0]}(\theta<\! 0)P(S_n=0)+P_{[S_n>1]}\left(n\theta<\! M\left(1-\frac{\alpha}{2},S_n-1\right)\right)P(S_n>1).$$ Mais comme $\theta>0$ ceci donne $$\begin{align} P(\theta<\! I)&=P_{[S_n>1]}\left(n\theta<\! M\left(1-\frac{\alpha}{2},S_n-1\right)\right)P(S_n>1)\\ &=P\left(\left[n\theta<\! M\left(1-\frac{\alpha}{2},S_n-1\right)\right]\cap[S_n>1]\right)\\ &\leq P\left(\left[n\theta<\! M\left(1-\frac{\alpha}{2},S_n-1\right)\right]\right). \end{align}$$ Toujours par définition de $M$ et stricte décroissance de $F$ en sa première variable, on a : $$\left[n\theta<\! M\left(1-\frac{\alpha}{2},S_n-1\right)\right]=\left[F(n\theta,S_n-1)\geq 1-\frac{\alpha}{2}\right],$$ donc la question 13)b) nous donne : $${\bf (2)}:\ P(\theta<\! I)\leq P\left(n\theta<\! M\left(1-\frac{\alpha}{2},S_n-1\right)\right)=P\left(F(n\theta,S_n-1)\geq 1-\frac{\alpha}{2}\right)\leq\frac{\alpha}{2}.$$ Le résultat que nous cherchions à prouver suit en injectant (1) et (2) dans $(\star)$.
Pour afficher le fil des commentaires : Commentaires.
Pour poster un commentaire ou obtenir de l'aide : c'est ici!
L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :
Contacter l'auteur du site : frederic.millet @ math-sup.fr