Dans toute cette partie, $(Y_1,Y_2,\dots,Y_k)$ désigne un vecteur aléatoire discret, à valeurs dans $\mathbb R^k$, dont chaque composante admet une espérance et une variance. On rappelle que $Y$ est la matrice-colonne de ${\cal M}_{k,1}(\mathbb R)$ de composantes $Y_1,Y_2,\dots,Y_k$.
7. On appelle support vectoriel de $Y$, tout sous-espace vectoriel $F$ de ${\cal M}_{k,1}(\mathbb R)$ tel que $P(Y-{\cal E}(Y)\in F)=1$. On note ${\cal S}(Y)$ l'ensemble des supports vectoriels de $Y$.
a) Justifier l'existence d'un plus petit élément de l'ensemble des dimensions des éléments de ${\cal S}(Y)$. Ce plus petit élément est appelé rang stochastique et noté $R_s(Y)$.
Comme il s'agit de sous espaces vectoriels de $\mathbb R^k$, l'ensemble des dimension des espaces de ${\cal S}(Y)$ est un sous ensemble $[\![0,k]\!]$ et admet donc un plus petit élément.
b) Dans quels cas le rang stochastique $R_s(Y)$ est-il nul?
$R_s(Y)=0$ veut donc dire que $\{0\}\in {\cal S}(Y)$, soit encore par définition $P(Y-{\cal E}(Y)=0)=1$. Cela veut donc dire que $Y$ est constante presque sûrement.
c) Montrer que l'intersection de deux supports vectoriels $F_1$ et $F_2$ de $Y$ est un support vectoriel de $Y$.
Par définition $P(Y-{\cal E}(Y)\in F_1)=1$ et $P(Y-{\cal E}(Y)\in F_2)=1$ donc forcément, on a $$P\left([Y-{\cal E}(Y)\in F_1]\cup[Y-{\cal E}(Y)\in F_2]\right)=1.$$ Il suit que : $$\begin{align} 1&=P([Y-{\cal E}(Y)\in F_1]\cup[Y-{\cal E}(Y)\in F_2])\\ &=P(Y-{\cal E}(Y)\in F_1)+P(Y-{\cal E}(Y)\in F_2)-P([Y-{\cal E}(Y)\in F_1]\cap[Y-{\cal E}(Y)\in F_2])\\ &=1+1-P([Y-{\cal E}(Y)\in F_1]\cap[Y-{\cal E}(Y)\in F_2]), \end{align}$$ et par conséquent $P([Y-{\cal E}(Y)\in F_1]\cap[Y-{\cal E}(Y)\in F_2])=1$, c'est à dire $$P(Y-{\cal E}(Y)\in F_1\cap F_2)=1,$$ donc $F_1\cap F_2\in{\cal E}(Y)$.
d) En déduire l'existence d'un unique élément $F$ de $S(Y)$ tel que la dimension de $F$ soit égale à $R_s(Y)$. L'espace vectoriel $F$ est appelé support stochastique de $Y$.
Si $R_s(Y)=0$, il n'y en a forcément qu'un c'est $F=\{0\}$. Supposons maintenant que $R_s(Y)\neq 0$ et supposons par l'absurde qu'il existe deux éléments $F_1$ et $F_2$ de ${\cal S}(Y)$ de dimension $R_s(Y)$. Alors d'après 7.d) $F_1\cap F_2\in{\cal S}(Y)$, mais comme $F_1$ et $F_2$ sont distincts, $F_1\cap F_2$ est de dimension strictement plus petite que celle de $F_1$ et $F_2$ c'est à dire $R_s(Y)$. Or $R_s(Y)$ est la plus petite dimension admissible des espaces de ${\cal S}(Y)$ donc $F_1\cap F_2$ ne peut être dans ${\cal S}(Y)$, d'où la contradiction et le résultat.
8. Soit $u$ une matrice colonne aléatoire de ${\cal M}_{k,1}(\mathbb R)$ de composante $u_1,u_2,\dots,u_k$.
a) Montrer que la variable aléatoire $\sum_{i=1}^ku_iY_i$ admet une variance égale à $^t\!u{\cal V}(Y)u$.
Il suffit de se souvenir que : $$V\left(\sum_{i=1}^ku_iY_i\right)=Cov\left(\sum_{i=1}^ku_iY_i,\sum_{j=1}^ku_jY_j\right)=\sum_{i=1}^k\sum_{j=1}^ku_iu_jCov(Y_i,Y_j),$$ Puis en calculant $^t\!u{\cal V}(Y)u$, on trouve la même expression.
b) Etablir l'existence d'un unique vecteur $(\lambda_1,\lambda_2,\dots,\lambda_k)$ de $\mathbb R^k$ tel que ${\cal V}(Y)$ soit semblable à la matrice $Diag(\lambda)$ et pour lequel $\lambda_1\geq\lambda_2\geq\dots\geq\lambda_k\geq 0$ (on note $Diag(\lambda)$ la matrice de ${\cal M}_k(\mathbb R)$ de coefficients diagonaux $\lambda_1,\lambda_2,\dots,\lambda_k$).
${\cal V}(Y)$ est symétrique donc diagonalisable, donc semblable à une matrice diagonale. L'unicité du vecteur $\lambda$ provient du fait qu'il n'y a qu'une seule façon d'ordonner de façon décroissante les valeurs propres. Enfin les valeurs propres sont positives car si $u$ est un vecteur propre de valeur propre $\lambda_i$, on a d'après 8.a) : $$0\leq V(\sum_{i=1}^ku_iY_i)= ^t\!u{\cal V}(Y)u= \lambda ^t\!uu=\lambda \Vert u\Vert^2,$$ ce qui implique $\lambda= \frac{V(\sum_{i=1}^ku_iY_i)}{\Vert u\Vert^2}\geq 0$.
c) On pose : $\Vert Y-{\cal E}(Y)\Vert^2=\sum_{i=1}^k(Y_i-E(Y_i))^2$. Montrer que $E(\Vert Y-{\cal E}(Y)\Vert^2)=\sum_{i=1}^k\lambda_i$.
Il faut se souvenir de la propriété de la trace suivente $Tr(AB)=Tr(BA)$. Comme ${\cal V}(Y)$ est semblable à $Diag(\lambda)$, on a : $$Tr({\cal V}(Y))=Tr(P^{-1}Diag(\lambda)P)=Tr(P^{-1}PDiag(\lambda))=Tr(Diag(\lambda))=\sum_{i=1}^k\lambda_i.$$ Une fois vu cela on a : $$E(\Vert Y-{\cal E}(Y)\Vert^2)=\sum_{i=1}^kE((Y_i-E(Y_i))^2)=\sum_{i=1}^kV(Y_i)=Tr({\cal V}(Y))=\sum_{i=1}^k\lambda_i,$$ d'où le résultat.
9. Soit $q\in[\![1,k]\!]$, $F$ un sous -espace vectoriel de ${\cal M}_{k,1}(\mathbb R)$ de dimension $q$ et $(f^{(1)},f^{(2)},\dots,f^{(q)})$ une base orthonormale de $F$.
a) Soit $\omega\in\Omega$. Justifier l'existence de $Q_F(\omega)=\inf\{\Vert Y(\omega)-{\cal E}(Y)-x\Vert^2;x\in F\}$ et montrer que : $$\Vert Y(\omega)-{\cal E}(Y)\Vert^2=Q_F(\omega)+\sum_{j=1}^q\langle Y(\omega)-{\cal E}(Y),f^{(j)}\rangle^2.$$
$Q_F(\omega)$ est distance au carré entre $F$ et $Y(\omega)-{\cal E}(Y)$, son existence découle du théorème de la projection.
Pour montrer l'égalité, on se souvient que par le théorème de la projection, que la distance minimale est atteinte pour $x_0$ le projeté orthogonal de $Y(\omega)-{\cal E}(Y)$ sur $F$, c'est à dire en utilisant la base orthogonale donnée par : $$x_0=\sum_{i=1}^q\langle Y(\omega)-{\cal E}(Y),f^{(i)}\rangle f^{(i)}.$$ D'autre part toujours par le théorème de la projection, nous savons que $Y(\omega)-{\cal E}(Y)-x_0$ est orthogonal à $F$, donc en particulier $Y(\omega)-{\cal E}(Y)-x_0$ et $x_0$ sont orthogonaux. Grâce au théorème de Pythagore, on en déduit que : $$\Vert Y(\omega)-{\cal E}(Y)\Vert^2=\Vert Y(\omega)-{\cal E}(Y)-x_0+x_0\Vert^2=\Vert Y(\omega)-{\cal E}(Y)-x_0\Vert^2+\Vert x_0\Vert^2=Q_F(\omega)+\Vert x_0\Vert^2.$$ Calculons maintenant $\Vert x_0\Vert^2$, comme $f^{(i)}$ est une base orthonormale, on a par le théorème de Pythagore : $$\begin{align} \Vert x_0\Vert^2&=\Vert \sum_{i=1}^q\langle Y(\omega)-{\cal E}(Y),f^{(i)}\rangle f^{(i)}\Vert^2\\ &=\sum_{i=1}^q\Vert \langle Y(\omega)-{\cal E}(Y),f^{(i)}\rangle f^{(i)}\Vert^2\\ &=\sum_{i=1}^q\langle Y(\omega)-{\cal E}(Y),f^{(i)}\rangle^2\Vert f^{(i)}\Vert^2\\ &=\sum_{i=1}^q\langle Y(\omega)-{\cal E}(Y),f^{(i)}\rangle^2, \end{align}$$ et le résultat suit.
b) A l'aide de la question 8, établir l'égalité : $E(Q_F)=\sum_{i=1}^k\lambda_i-\sum_{j=1}^q\ ^t\!f^{(j)}{\cal V}(Y)f^{(j)}$.
D'après 8.b) on a déjà : $$E(Q_F)=E(\Vert Y-{\cal E}(Y)\Vert^2)-E\left(\sum_{j=1}^q\langle Y-{\cal E}(Y),f^{(j)}\rangle^2\right)=\sum_{i=1}^k\lambda_i-E\left(\sum_{j=1}^q\langle Y-{\cal E}(Y),f^{(j)}\rangle^2\right).$$ Maintenant si on note $f^{(j)}_i$ les coordonnées de $f^{(j)}$, on a : $$\begin{align} E\left(\sum_{j=1}^q\langle Y-{\cal E}(Y),f^{(j)}\rangle^2\right)&=\sum_{j=1}^qE\left(\left(\sum_{i=1}^k(Y_i-E(Y_i))f_i^{(j)}\right)^2\right)\\ &=\sum_{j=1}^qE\left(\sum_{i=1}^k(Y_i-E(Y_i))f_i^{(j)} \sum_{l=1}^k(Y_l-E(Y_l))f_l^{(j)}\right)\\ &=\sum_{j=1}^q\sum_{i=1}^k\sum_{l=1}^kE\left((Y_i-E(Y_i)) (Y_l-E(Y_l))\right)f_i^{(j)}f_l^{(j)}\\ &=\sum_{j=1}^q\sum_{i=1}^k\sum_{l=1}^kCov(Y_i,Y_l)f_i^{(j)}f_l^{(j)}. \end{align}$$ Enfin en développant $\sum_{j=1}^q\ ^t\!f^{(j)}{\cal V}(Y)f^{(j)}$, on retrouve l'expression ci dessus, ce qui finit de prouver le résultat.
c) Que devient l'égalité précédente lorsque $F={\cal M}_{k,1}(\mathbb R)$?
$F={\cal M}_{k,1}(\mathbb R)$ est l'espace tout entier et la distance entre un point et l'espace tout entier est nécessairement nul, donc $Q_F=0$ et $E(Q_F)=0$. L'égalité devient donc : $$\sum_{i=1}^k\lambda_i=\sum_{j=1}^k\ ^t\!f^{(j)}{\cal V}(Y)f^{(j)}$$
10. a) Montrer que pour toute matrice-colonne $f$ de ${\cal M}_{k,1}(\mathbb R)$ vérifiant $\Vert f\Vert=1$, on a : $^t\!f{\cal V}(Y)f\leq \lambda_1$.
${\cal V}(Y)$ est symétrique donc il existe une base orthonormale constituée de vecteurs propres de ${\cal V}(Y)$, notons là $\{f^{(i)}\}$. On décompose alors $f$ dans cette base $f=\sum_{i=1}^k\alpha_if^{(i)}$. On observe alors que : $$\begin{align} ^t\!f{\cal V}(Y)f&=\langle f,{\cal V}(Y)f\rangle\\ &=\langle \sum_{i=1}^k\alpha_if^{(i)},{\cal V}(Y)\sum_{j=1}^k\alpha_jf^{(j)}\rangle\\ &=\langle \sum_{i=1}^k\alpha_if^{(i)},\sum_{j=1}^k\alpha_j\lambda_jf^{(j)}\rangle\text{ car }f^{(j)}\text{ est valeur propre.}\\ &=\sum_{i=1}^k\alpha_i\sum_{j=1}^k\alpha_j\lambda_j\langle f^{(i)},f^{(j)}\rangle\\ &=\sum_{i=1}^k\alpha_i^2\lambda_i\text{ par orthonormalité}\\ &\leq \lambda_1\sum_{i=1}^k\alpha_i^2\text{ car }\lambda_1\text{ est la plus grande valeur propre.} \end{align}$$ Enfin on observe que $$1=\Vert f\Vert^2=\ ^t\!ff=\langle f,f\rangle=\langle \sum_{i=1}^k\alpha_if^{(i)}, \sum_{j=1}^k\alpha_jf^{(j)}\rangle=\sum_{i=1}^k\alpha_i\sum_{j=1}^k\alpha_j\langle f^{(i)},f^{(j)}\rangle=\sum_{i=1}^k\alpha_i^2,$$ donc $\sum_{i=1}^k\alpha_i^2=1$ et le résultat suit en remplaçant dans l'inégalité obtenue.
b) En déduire la borne inférieure de $E(Q_F)$ lorsque $F$ décrit l'ensemble des droites vectorielles de ${\cal M}_{k,1}(\mathbb R)$.
Si $F$ est une droite vectorielle, il existe un vecteur $f$ tel que $F=Vect\{f\}$. On peut aussi choisir $f$ tel que $\Vert f\Vert=1$ de sorte que $\{f\}$ constitue une base orthonormée de $f$. On a en particulier d'après 10.a) que $^t\!f{\cal V}(Y)f\leq \lambda_1$. D'après 9.b), on en déduit alors que : $$E(Q_F)=\sum_{i=1}^k\lambda_i-\ ^t\!f{\cal V}(Y)f\geq \sum_{i=1}^k\lambda_i-\lambda_1=\sum_{i=2}^k\lambda_i.$$ Par conséquent $\sum_{i=2}^k\lambda_i$ est un minorant de $E(Q_F)$ lorsque $F$ décrit les droites vectorielles. D'autre part si $f_1$ est un vecteur propre de valeur propre $\lambda_1$ de ${\cal V(Y)}$ et de norme 1, toujours grâce à 9.b) on a $$E(Q_F)=\sum_{i=1}^k\lambda_i-\ ^t\!f_1{\cal V}(Y)f_1=\sum_{i=1}^k\lambda_i-\lambda_1\ ^tf_1f_1=\sum_{i=1}^k\lambda_i-\lambda_1\Vert f_1\Vert^2=\sum_{i=1}^k\lambda_i-\lambda_1=\sum_{i=2}^k\lambda_i.$$ Par conséquent $\sum_{i=2}^k\lambda_i$ est un minorant atteint, c'est donc le minimum et aussi la borne inf de $E(Q_F)$ quand $F$ parcours les droites vectorielles.
c) Dans cette question, on suppose que $(Y_1,Y_2,\dots,Y_k)$ suit la loi ${\cal B}_k(p)$, où pour tout $i\in[\![1,k]\!]$, on a $p_i=\frac{1}{k}$. Calculer les valeurs propres de ${\cal V}(Y)$ et la borne inférieure de $E(Q_F)$ pour l'ensemble des droites vectorielles $F$ de ${\cal M}_{k,1}(\mathbb R)$, puis préciser pour quelle(s) droite(s) cette borne est atteinte.
D'après 2.d) et en utilisant les notations de la partie I on a : $${\cal V}(X)=\begin{pmatrix} \frac{1}{k}(1-\frac{1}{k}) & -\frac{1}{k^2} & \dots & -\frac{1}{k^2}\\ -\frac{1}{k^2} & \frac{1}{k}(1-\frac{1}{k}) & \dots & -\frac{1}{k^2}\\ \vdots & \vdots & \ddots & \vdots\\ -\frac{1}{k^2} & \dots & \dots & \frac{1}{k}(1-\frac{1}{k}) \end{pmatrix}=\frac{1}{k}(I_k-M(p)),$$ où $p=\frac{1}{k}u$. Or d'après 1.c) les valeurs propres de $M(p)$ sont 0 et 1 ($\alpha=1$ ici), donc les valeurs propres de $\frac{1}{k}(I_k-M(p))$ sont 0 et $\frac{1}{k}$.
D'après 9.b) on en déduit alors que la borne inférieur de $E(Q_F)$ lorsque $F$ parcours les droites vectorielles est $\frac{k-1}{k}$. En résolvant 9.b), nous avons également vu que cette borne était atteinte lorsque $F$ est engendré par un vecteur propre de valeur propre maximale, donc ici de valeur propre $\frac{1}{k}$. J'ignore si la question sous-entend de trouver les dits vecteurs propres, mais on peut préciser que l'espace propre associé à $\frac{1}{k}$ est $Ker(M(p))$ dont on a donné une expression en 1.f).
11. On suppose que le rang $r$ de ${\cal V}(Y)$ est non nul. On note $F_0$ la somme des sous-espaces propres associés aux valeurs propres non nulles de ${\cal V}(Y)$ et $F$ un sous-espace vectoriel de ${\cal M}_{k,1}(\mathbb R)$ tel que $F\subset F_0$ et $F\neq F_0$.
a) Calculer $E(Q_{F_0})$ et en déduire que $F_0$ est un support vectoriel de $Y$.
Soit $f^{(i)},\ i\in[\![1,r]\!]$ une famille orthonormée de vecteurs propres de ${\cal V}(Y)$ de valeurs propres associées non nulles et constituant une base de $F_0$. Alors par 9.b) on a : $$E(Q_F)=\sum_{i=1}^k\lambda_i-\sum_{i=1}^r\ ^t\!f^{(i)}{\cal V}(Y)f^{(i)}=\sum_{i=1}^k\lambda_i-\sum_{i=1}^r\lambda_i\ ^t\!f^{(i)}f^{(i)}=\sum_{i=1}^k\lambda_i-\sum_{i=1}^r\lambda_i\Vert f^{(i)}\Vert^2=\sum_{i=1}^k\lambda_i-\sum_{i=1}^r\lambda_i.$$ Or si on retire les valeurs propres nulles de la première somme on a $\sum_{i=1}^k\lambda_i=\sum_{i=1}^r\lambda_i$, par conséquent : $$E(Q_F)=0.$$
Maintenant rappellons que $Q_{F_0}(\omega)$ représente la distance au carrée entre $Y-{\cal E}(Y)$ et $F_0$, Donc $$\forall\epsilon >0,P(Q_{F_0}(\omega)>\epsilon)=P(Y-{\cal E}(Y)\not\in F_0),$$ mais par l'inégalité de Markov : $$P(Q_{F_0}(\omega)>\epsilon)\leq\frac{E(Q_{F_0})}{\epsilon}=0,$$ alors $P(Y-{\cal E}(Y)\not\in F_0)=0$ soit encore $P(Y-{\cal E}(Y)\in F_0)=1$ donc $F_0$ est un support vectoriel de $Y$.
b) Justifier l'existence d'un vecteur $f^{(r)}$ de $F_0$, orthogonal à $F$ et de norme 1.
$F_0$ étant distinct de $F$, son orthogonal en tant que sous espace vectoriel de $F$ est alors non réduit à $\{0\}$. Il suffit de prendre un vecteur de cet orthogonal et de le normaliser.
c) Montrer que $^t\!f^{(r)}{\cal V}(Y)f^{(r)}>0$ et en déduire que $E(Q_F)\neq 0$.
On procède comme dans la question 10.a) en décomposant $f^{(r)}$ dans une base orthonormale de $F_0$ constituée de vecteurs propres et on a en suivant les mêmes notations : $$^t\!f^{(r)}{\cal V}(Y)f^{(r)}=\sum_{i=1}^{dim(F_0)}\alpha_i^2\lambda_i\geq \lambda_{dim(F_0)}\sum_{i=1}^{dim(F_0)}\alpha_i^2=\lambda_{dim(F_0)}>0,$$ où on a utilisé le fait que les $\lambda$ sont ordonnés par ordre décroissants et que les vecteurs propres dans $F_0$ on des valeurs propres strictements positives. Par conséquent on a bien $^t\!f^{(r)}{\cal V}(Y)f^{(r)}>0$.
Maintenant si on considère $f^{(1)},\dots,f^{(dim(F))}$ une base orthonormale de $F$, on peut la compléter en une base orthonormale de $F_0$ : $f^{(1)},\dots,f^{(dim(F))},\dots,f^{(dim(F_0)}$. D'après ce qu'on vient de démontrer on a alors : $$\sum_{i=1}^k\ ^t\!f^{(i)}{\cal V}(Y)f^{(i)}>\sum_{i=1}^{dim(F)}\ ^t\!f^{(i)}{\cal V}(Y)f^{(i)},$$ et donc d'après 9.b) et 11.a, on a : $$E(Q_F)=\sum_{i=1}^k\lambda_i-\sum_{i=1}^{dim(F)}\ ^t\!f^{(i)}{\cal V}(Y)f^{(i)}>\sum_{i=1}^k\lambda_i-\sum_{i=1}^{dim(F_0)}\ ^t\!f^{(i)}{\cal V}(Y)f^{(i)}=E(Q_F)=0,$$ Il suit que $E(Q_F)\neq 0$.
d) Montrer que le rang stochastique $R_s(Y)$ de $Y$ est égal à $r$.
On a que $E(Q_F)\neq 0$ et que $Q_F$ est une variable aléatoire positive, par conséquent $Q_F$ ne peut pas être nulle presque partout (sinon nous aurions $E(Q_F)=0$), dans ce cas $P(Q_F>0)\neq 0$, ce qui veut dire que $F$ ne peut être un support vectoriel de $Y$. D'autre part si $G$ est un support vectoriel autre que $F_0$, nous avons vu en 7.c) que $G\cap F_0$ est aussi un support vectoriel. Il suit que s'il y a un support vectoriel de plus petite dimension que $F_0$, c'est aussi un sous espace vectoriel de $F_0$. Or $F_0$ n'admet aucun sous espace vectoriel support vectoriel de $Y$. Par conséquent $F_0$ est un support de plus petite dimension possible et $$R_s(Y)=dim(F_0)=r.$$
12. dans cette question, on reprend les définitions et notations de la question 6.
a) A l'aide de la question 6.d), montrer que le rang stochastique $R_s(T)$ de $T$ est égale à $k$.
Supposons que $T$ admet un support vectoriel $F\neq{\cal M}_{k,1}$, prenons alors un vecteur non nul de $v\in F^\bot$ et nous aurions pour preque tout $\omega$ : $\langle v,T\rangle=0,$ soit encore si on note $v_i$ les coordonnées de $v$ : $$\sum_{i=1}^kv_iT_i=0.$$ Or d'après 6.d) et le fait que toutes les coordonnées de $v$ ne sont pas nulles (car $v$ non nulle), $V\left(\sum_{i=1}^kv_iT_i\right)>0$ ce qui rend impossible la dernière égalité. Par conséquent $T$ n'admet pas d'autres support vectoriel que ${\cal M}_{k,1}$.
b) Montrer que pour tout $i\in\mathbb N^*$, on a : $E(T_1T_2|[T_1=i]\cap[T_2>i])=i\left(i+\frac{1}{p_2}\right)$.
On a : $$\begin{align} E(T_1T_2|[T_1=i]\cap[T_2>i])&=E(iT_2|[T_1=i]\cap[T_2>i])\\ &=iE(T_2|[T_1=i]\cap[T_2>i]). \end{align},$$ Maitnenant sachant que $[T_1=i]\cap[T_2>i]$, tout se passe comme si nous avions décalé l'expérience de $i$ dans le temps pour $T_2$ donc : $$E(T_2|[T_1=i]\cap[T_2>i])=E(T_2+i)=E(T_2)+i=\frac{1}{p_2}+i,$$ et le résultat suit.
c) Etablir la relation : $E(T_1T_2)=\frac{1}{p_1p_2}-\frac{1}{p_1+p_2}$.
On observe en premier lieu que : $$\Omega=\{T_2>T_1\}\cup\{T_1>T_2\}=\bigcup_{i=1}^{+\infty}\left(\{T_1=i\}\cap\{T_2>i\}\right)\cup\left(\{T_2=i\}\cap\{T_1>i\}\right).$$ Cette dernière réunion forme un système complet d'évènements. On peut alors appliquer la formule de l'espérance totale : $$E(T_1T_2)=\sum_{i=1}^{+\infty}E(T_1T_2|[T_1=i]\cap[T_2>i])P([T_1=i]\cap[T_2>i])+E(T_1T_2|[T_2=i]\cap[T_1>i])P([T_2=i]\cap[T_1>i]).$$ Or $P([T_1=i]\cap[T_2>i])=P(T_1=i)P_{T_1=i}(T_2>i)=(1-p_2)^{i-1}(1-p_1)^{i-1}p_1$ et de même pour $P([T_2=i]\cap[T_1>i])$, alors grâce à la question 12.b), on a : $$\begin{align} E(T_1T_2)&=\sum_{i=1}^{+\infty}i\left(i+\frac{1}{p_2}\right)(1-p_2)^{i-1}(1-p_1)^{i-1}p_1+i\left(i+\frac{1}{p_1}\right)(1-p_1)^{i-1}(1-p_2)^{i-1}p_2\\ &=\sum_{i=1}^{+\infty}i^2\left((1-p_1)(1-p_2)\right)^{i-1}(p_1+p_2)+\sum_{i=1}^{+\infty}i\left((1-p_1)(1-p_2)\right)^{i-1}\left(\frac{p_1}{p_2}+\frac{p_2}{p_1}\right). \end{align}$$ Enfin on termine en reconnaissant une série géométrique dérivée et une série géométrique dérivée seconde.
d) On note $\Pi=(\pi_{i,j})_{1\leq i,j\leq k}$ la matrice de ${\cal M}_k(\mathbb R)$ définie par : $\pi_{i,j}=\begin{cases}\frac{1-p_i}{p_i^2}\text{ si }i=j\\ -\frac{1}{p_i+p_j}\end{cases}\text{ si }i\neq j$.
Montrer que la matrice $\Pi$ est inversible.
Grâce à la question 12.c) on peut calculer $Cov(T_i,T_j)=E(T_iT_j)-E(T_i)E(T_j)$ avec $i\neq j$ et on trouve $Cov(T_i,T_j)=-\frac{1}{p_i+p_j}$. Avec ce calcul, on peut alors obtenir ${\cal V}(T)$ et en fait observer que ${\cal V}(T)=\Pi$. D'autre part nous avons vu en 11.d) que le rang stochastique est égal au rang de ${\cal V}$, c'est à dire ici : $$rg(\Pi)=rg({\cal V}(T))=R_s(T).$$ Mais d'après 12.a) $R_s(T)=k$ donc $\Pi$ est de rang $k=dim({\cal M}_{k,1})$, c'est à dire que $\Pi$ est inversible. CQFD.
Pour afficher le fil des commentaires : Commentaires.
Pour poster un commentaire ou obtenir de l'aide : c'est ici!
L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :
Contacter l'auteur du site : frederic.millet @ math-sup.fr