Dans tout le problème, les lettres $m$ et $n$ désignent des entiers naturels supérieurs ou égaux à 1. Par ailleurs on note :
1) Qestion préliminaire.
Soit $F$ un sous-espace vectoriel de ${\cal M}_{n,1}(\mathbb R)$ de dimension $k$ non nulle et $(U_1,U_2,\dots,U_k)$ une base orthonormée de vecteurs colonnes de $F$.
On envisage la projection orthogonale sur $F$ représentée par sa matrice $P$ dans la base canonique de ${\cal M}_{n,1}(\mathbb R)$.
Montrer que $P=\sum_{i=1}^kU_i^tU_i$ et vérifier que $P$ est une matrice symétrique.
On peut par exemple raisonner comme suit. Soit $X$ un vecteur de ${\cal M}_{n,1}(\mathbb R)$, il se décompose de façon unique en $X=X_F+X_\bot$ où $X_F\in F$ et $X_\bot$ est orthogonal à $F$. Comme les $U_i$ forment une base de $F$, on peut décomposer $X_F$ sur cette base de la façon suivante $X_F=\lambda_1U_1+\dots+\lambda_kU_k$. Maintenant en utilisant le fait que les $U_i$ sont orthonormés et que $X_\bot$ est orthogonal à chacun des $U_i$ on a $$\begin{align} PX&=\sum_{i=1}^kU_i^tU_iX_F+\sum_{i=1}^kU_i^tU_iX_\bot\\ &=\sum_{i=1}^kU_i^tU_i(\sum_{j=1}^k\lambda_jU_j)+0\\ &=\sum_{i=1}^k\lambda_iU_i(^tU_iU_i)\\ &=\sum_{i=1}^k\lambda_iU_i\\ &=X_F. \end{align}$$ Donc $P$ est bien la matrice de projection orthogonale sur $F$. D'autre part $P$ est symétrique car $$^tP=^t(\sum_{i=1}^kU_i^tU_i)=\sum_{i=1}^k\ ^t(U_i^tU_i)=\sum_{i=1}^k\ ^t(^tU_i)^tU_i=\sum_{i=1}^kU_i^tU_i=P.$$
On envisage dans toute cette partie une matrice $A$ appartenant à ${\cal M}_{m,n}(\mathbb R)$.
2) (a) Préciser la taille de la matrice $^tAA$ et vérifier que $KerA\subset Ker\ ^tAA$.
$^tAA$ est de taille $n\times n$. D'autre part si $X\in Ker A$ alors $AX=0$ et donc $^tAAX=0$ et donc $X\in Ker ^tAA$ d'où l'inclusion.
(b) Montrer que si $X\in Ker\ ^tAA$ alors $\Vert AX\Vert_m=0$ et établir que $KerA=Ker\ ^tAA$.
Pour $X\in Ker ^tAA$, on a $\Vert AX\Vert_m^2=^t(AX)AX=^tX^tAAX=0$ donc $\Vert AX\Vert_m=0$. D'autre part $\Vert AX\Vert_m=0$ implique $AX=0$ donc $X\in Ker A$. Par conséquent on a l'inclusion $Ker^tAA\subset Ker A$. Mais d'après 2)(a) l'inclusion dans l'autre sens est vraie donc $Ker\ ^tAA= Ker A$.
Montrer que $A$ et $^tAA$ sont nulles simultanément.
Comme $Ker\ ^tAA= Ker A$, on a simplement $$A=0\Longleftrightarrow Ker A={\cal M}_{m,1}(\mathbb R)\Longleftrightarrow Ker\ ^tAA={\cal M}_{m,1}(\mathbb R)\Longleftrightarrow ^tAA=0$$
(c) Justifier l'égalité : $Im\ ^tA=Im\ ^tAA$.
On a clairement que $Im\ ^tAA\subset Im\ ^tA$. D'autre part comme $Ker\ ^tAA= Ker A$ on a $dim(Ker\ ^tAA)= dim(Ker A)$, et en appliquant le théorème du rang on a $dim(Im\ ^tAA)=dim(Im\ ^tA)$ donc $Im\ ^tAA=Im\ ^tA$.
3) (a) Etablir que la matrice $^tAA$ est diagonalisable et en calculant $\Vert AX\Vert_m^2$ pour $X$ vecteur propre de la matrice $^tAA$, montrer que ses valeurs propres sont des réels positifs.
$^t(^tAA)=^tAA$ donc $^tAA$ est symétrique et diagonalisable. De plus si $X$ est un vecteur propre de valeur propre $\lambda$ on a $$0\leq \Vert AX\Vert_m^2=^tX^tAAX=\lambda\ ^tXX=\lambda \Vert X\Vert_n.$$ Or $X$ est un vecteur propre donc il est non nul et $\Vert X\Vert_n>0$ donc $\lambda\geq 0$.
(b) On désigne par $(\lambda_1,\lambda_2,\dots,\lambda_p)$ la liste des valeurs propres distinctes de la matrice $^tAA$, classée dans l'ordre croissant.
On rappelle que ${\cal M}_{n,1}(\mathbb R)=\bigoplus_{i=1}^pE_{\lambda_i}(^tAA)$ où $E_{\lambda_i}(^tAA)=Ker(^tAA-\lambda_iI_n)$.
Pour $i$ entier naturel compris entre 1 et p, on note $P_i$ la matrice de la projection orthogonale sur $E_{\lambda_i}(^tAA)$ dans la base canonique de ${\cal M}_{n,1}(\mathbb R)$.
Vérifier que pour tout $i$ et $j$ distincts compris entre $1$ et $p$, $P_iP_j$ est la matrice nulle.
$^tAA$ est symétrique donc ses sous-espaces propres sont orthogonaux par conséquent $Im P_j$ est orthogonal à $E_{\lambda_i}$ donc $P_iP_j=0$.
Justifier les relations : $I_n=\sum_{i=1}^pP_i$ et $^tAA=\sum_{i=1}^p\lambda_iP_i$. Cette dernière écriture s'appelle la décomposition spectrale de $^tAA$.
Soit $X\in{\cal M}_{n,1}(\mathbb R)=\bigoplus_{i=1}^pE_{\lambda_i}(^tAA)$ alors $X$ se décompose de façon unique en $X=X_1+\dots+X_p$ où $X_i\in E_{\lambda_i}(^tAA)$. D'autre part par définition des projections $X_i=P_i(X)$ donc $X=P_1(X)+\dots+P_p(X)$. Ceci étant vrai pour tout $X$, on a donc $I_n=\sum_{i=1}^pP_i$. De même $$^tAAX=\sum_{i=1}^p\ ^tAAX_i=\sum_{i=1}^p\lambda_iX_i=\sum_{i=1}^p\lambda_iP_i(X)$$ ceci étant vrai pour tout $X$ on a aussi que $^tAA=\sum_{i=1}^p\lambda_iP_i$.
4) Exemples :
(a) Déterminer la décomposition spectrale de $^tAA$ lorsque $A$ est la matrice 3,3 égale à $\begin{pmatrix}1 & -1 & 1\\ 1 & -1 & 1\\ -1 & 1 & 2\end{pmatrix}$.
On a déjà que $$^tAA=\begin{pmatrix}3 & -3 & 0\\ -3 & 3 & 0\\ 0 & 0 & 6\end{pmatrix}$$ matrice qui a deux valeurs propres : 0 et 6 avec $E_0=Vect\left(\frac{1}{\sqrt 2}\begin{pmatrix}1 \\ 1 \\ 0\end{pmatrix}\right)$ et $E_6=Vect\left(\frac{1}{\sqrt 2}\begin{pmatrix}1 \\ -1 \\ 0\end{pmatrix},\begin{pmatrix}0 \\ 0 \\ 1\end{pmatrix}\right)$ (remarque : les $\sqrt 2$ ont été ajouté pour normaliser les vecteurs). $6$ étant l'unique valeur propre, on en déduit que la décomposition spectrale est $$^tAA=\begin{pmatrix}1/2 & -1/2 & 0\\ -1/2 & 1/2 & 0\\ 0 & 0 & 1\end{pmatrix}$$
(b) On envisage la matrice ligne $A=(a_1,a_2,\dots,a_n)$ où les réels $a_1,a_2,\dots,a_n$ sont fixés, non tous nuls simultanément. Ainsi, $A^tA$ est un réel.
Montrer que le polynôme $X^2-(A^tA)X$ est annulateur pour la matrice $^tAA$. Préciser la liste des valeurs propres et la décomposition spectrale de la matrice $^tAA$.
On a en utilisant le fait que $A^tA$ est un réél (donc "commute" avec les matrices) $$(^tAA)^2-(A^tA)^tAA=(^tAA)(^tAA)-(A^tA)^tAA=^tA(A^tA)A-(A^tA)^tAA=(A^tA)^tAA-(A^tA)^tAA=0$$ par conséquent $X^2-(A^tA)X$ est annulateur. D'autre part les valeurs propres de $^tAA$ sont racines du polynôme annulateur, c'est à dire soit 0 soit $A^tA$. $A^tA$ étant la seule valeur propre non nulle, la décomposition spectrale est tout simplement $$^tAA=A^tA\frac{^tAA}{A^tA}.$$
On s'intéresse dans cette partie à l'équation $AX=B$ où $A\in{\cal M}_{m,n}(\mathbb R)$ et $B\in{\cal M}_{m,1}(\mathbb R)$.
Une matrice $X$ appartenant à ${\cal M}_{m,1}(\mathbb R)$ est dite solution de cette équation si elle vérifie la relation $AX=B$.
Elle est dite pseudo solution de cette équation si elle vérifie : $$\forall Z\in {\cal M}_{m,1}(\mathbb R)\ \Vert AX-B\Vert_m\leq\Vert AZ-B\Vert_m$$
5) On suppose que l'équation $AX=B$ admet au moins une solution. Montrer que $X$ est une pseudo solution si et seulement si elle est solution de l'équation.
Si $X$ est solution alors $AX=B$ donc $\Vert AX-B\Vert_m=0$ et forcément par positivité de la norme pour tout $Z$, $\Vert AX-B\Vert_m=0\leq\Vert AX-B\Vert_m$. Alors $X$ est une pseudo solution. Si maintenant $X$ est une pseudo solution pour tout $Z$ $\Vert AX-B\Vert_m\leq\Vert AZ-B\Vert_m$. Or comme il est supposé que l'équation admet une solution on peut prendre pour $Z$ une solution de l'équation, et dans ce cas $0\leq\Vert AX-B\Vert_m\leq 0$, d'où $\Vert AX-B\Vert_m=0$, c'est à dire $AX=B$. Donc $X$ est en fait une solution.
6) On suppose que $X$ est une pseudo solution de l'équation. Montrer que, pour tout réel $\lambda$ et toute matrice $Y$ de ${\cal M}_{n,1}(\mathbb R)$, on a : $$\lambda^2\Vert AY\Vert_m^2+2\lambda\ ^tY\ ^tA(AX-B)\geq 0$$
Comme $X$ est une pseudo solution, en posant $Z=X+\lambda Y$ on a l'inégalité suivante $$\Vert AX-B\Vert_m^2\leq\Vert A(X+\lambda Y)-B\Vert_m^2=\Vert AX-B+\lambda AY\Vert_m^2$$ En développant cette équation, on trouve alors $$\Vert AX-B\Vert_m^2\leq \Vert AX-B\Vert^2+\lambda^2\Vert Y\Vert_m^2+2\lambda\ ^t(AY)(AX-B)$$ puis en simplifiant, on trouve l'inéquation recherchée.
En déduire que $^tAAX=^tAB$.
L'inégalité prouvée au dessus est un polynôme en $\lambda$. Le polynôme est positif donc son discriminant est négatif ou nul. En calculant le discriminant, on trouve $4\ ^tY\ ^tA(AX-B)\leq 0$. Cette inéquation est vraie pour tout $Y$, donc n'est possible que si $^tA(AX-B)=0$ c'est à dire $^tAAX=^tAB$.
8) Exemple : déterminer toutes les pseudos solutions de l'équation $AX=B$ lorsque : $$A=\begin{pmatrix}1 & -1 & 1\\ 1 & -1 & 1\\ -1 & 1 & 2\end{pmatrix}\text{ et }B=\begin{pmatrix}2\\ 2\\ 1\end{pmatrix}$$
On doit résoudre le système linéaire $^tAAX=^tAB$ d'inconnue $X$. On doit alors ce souvenir qu'un tel système à pour solutions une solution particulière plus un élément quelconque du noyau de $^tAA$. Or d'après 4)(a) on a $$Ker^tAA=E_0=Vect\left(\begin{pmatrix}1\\ 1\\ 0\end{pmatrix}\right)$$ et $$^tAB=\begin{pmatrix}3\\ -3\\ 6\end{pmatrix}=6\begin{pmatrix}1/2\\ -1/2\\ 0\end{pmatrix}+6\begin{pmatrix}0\\ 0\\ 1\end{pmatrix}=^tAA\begin{pmatrix}1/2\\ -1/2\\ 0\end{pmatrix}+^tAA\begin{pmatrix}0\\ 0\\ 1\end{pmatrix}=^tAA\begin{pmatrix}1/2\\ -1/2\\ 1\end{pmatrix}$$ par conséquent une solution particulière du système est $\begin{pmatrix}1/2\\ -1/2\\ 1\end{pmatrix}$. On a donc que l'ensemble des pseudos solutions est $$\left\lbrace\begin{pmatrix}1/2\\ -1/2\\ 1\end{pmatrix}+\lambda\begin{pmatrix}1\\ 1\\ 0\end{pmatrix}/\lambda\in\mathbb R\right\rbrace.$$
Pour afficher le fil des commentaires : Commentaires.
Pour poster un commentaire ou obtenir de l'aide : c'est ici!
L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :
Contacter l'auteur du site : frederic.millet @ math-sup.fr