Corrigé HEC 2013
Dans tout le problème, pour tout couple :
- on note {\cal M}_{p,q}(\mathbb R) l'espace vectoriel des matrices à p lignes et q colonnes à coefficients réels et {\cal M}_{p,p}(\mathbb R) est noté {\cal M}_{p}(\mathbb R);
- la matrice transposée d'une matrice A de {\cal M}_{p,q}(\mathbb R) est notée ^t\!A;
- on note I_p la matrice identité de {\cal M}_{p}(\mathbb R) et pour toute matrice A, même nulle, de {\cal M}_{p}(\mathbb R), on pose par convention : A^0=I_p;
- la matrice inverse d'une matrice inversible de A de {\cal M}_{p}(\mathbb R) est notée A^{-1}.
Soit (M_n)_{n\in\mathbb N} une suite de matrices de {\cal M}_{p,p}(\mathbb R). On pose pour tout n\in\mathbb N : M_n=(m_{i,j}(n))_{1\leq i\leq p,\ 1\leq j\leq q}.
On dit que la suite (M_n)_{n\in\mathbb N} converge vers la matrice M=(m_{i,j})_{1\leq i\leq p,\ 1\leq j\leq q} de {\cal M}_{p,q}(\mathbb R), si pour tout couple (i,j)\in[\![1,p]\!]\times[\![1,q]\!], on a : \lim_{n\to+\infty}m_{i,j}m_{i,j}(n)=m_{i,j}. On note alors : M=\lim_{n\to+\infty}M_n.
On admet sans démonstration que si (A_n)_{n\in\mathbb N} et (B_n)_{n\in\mathbb N} sont deux suites de matrice de {\cal M}_{p,q}(\mathbb R) qui convergent respectivement vers A et B, et si (C_n)_{n\in\mathbb N} est une suite de matrices de {\cal M}_{q,s}(\mathbb R), alors la suite (A_n+B_n)_{n\in\mathbb N} converge vers A+B, la suite (A_nC_n)_{n\in\mathbb N} converge vers AC, et pour tout réel \alpha, la suite (\alpha A_n)_{n\in\mathbb N} converge vers \alpha A.
Le problème étudie quelques aspects mathématiques du contrôle de systèmes linéaires.
Partie I. Quelques propiétés de suites matricielles
Pour toute matrice A de {\cal M}_{p}(\mathbb R), on pose pour tout x réel et pour tout n\in\mathbb N : T_{A,n}(x)=\sum_{k=0}^n\frac{1}{k!}(xA)^k.
1. Exemple. Dans cette question, A=(a_{i,j})_{1\leq i,j\leq p} est la matrice de {\cal M}_{p}(\mathbb R) définie par :
\forall (i,j)\in[\![1,p]\!]^2,\ a_{i,j}=1.
a) Justifier que la matrice A est diagonalisable.
Afficher
A est symétrique donc diagonalisable.
b) Soit V la matrice colonne de {\cal M}_{p,1}(\mathbb R) dont tous les coefficients sont égaux à 1. Calculer AV et en déduire une valeur propre de A.
Afficher
AV=pV donc p est valeur propre de A.
c) Montrer que 0 est une valeur propre de A et trouver la dimension du sous espace propre associé.
Afficher
Im(A)=Vect(V) donc par le théorème du rang dim(Ker(A))=p-1>0 donc 0 est valeur propre et son espace propre associé est de dimension p-1.
d) Exprimer A^2 en fonction de A. Montrer que pour tout x réel et pour tout n\in\mathbb N, T_{A,n}(x) appartient à Vect(I_p,A).
Afficher
A^2=pA donc à l'aide d'un récurrence on prouve que \forall k\in\mathbb N^*,\ A^k=p^{k-1}A. Il suit que T_{A,n}(x)=I+\left(\sum_{k=1}^n\frac{x^kp^{k-1}}{k!}A\right)\in Vect(A,I).
e) En déduire que pour tout x réel, la suite de matrices (T_{A,n}(x))_{n\in\mathbb N} de {\cal M}_{p}(\mathbb R) converge vers la matrice T_A(x) de {\cal M}_{p}(\mathbb R) définie par : T_A(x)=I_p+\frac{e^{px}-1}{p}A.
Afficher
Il suffit d'utiliser le fait que
\sum_{k=1}^{+\infty}\frac{x^kp^{k-1}}{k!}=\frac{1}{p}\sum_{k=1}^{+\infty}\frac{(xp)^k}{k!}=\frac{1}{p}(e^{xp}-1)
et d'utiliser la forule obtenue dans la réponse à la question d.
f) Calculer T_A(0). Exprimer pour tout couple (x,y)\in\mathbb R^2, le produit T_A(x)T_A(y) en fonction de T_A(x+y). En déduire que pour tout x réel, la matrice T_A(x) est inversible et déterminer son inverse.
Afficher
On a déjà T_A(0)=I_p. D'autre part en utilisant le fait que A^2=pA, on a
\begin{align}
T_A(x)T_A(y)&=\left(I_p+\frac{e^{px}-1}{p}A\right)\left(I_p+\frac{e^{py}-1}{p}A\right)\\
&=I_p+\frac{e^{px}+e^{py}-2}{p}A+\frac{(e^{px}-1)(e^{py}-1)}{p^2}pA\\
&=I_p+\frac{e^{p(x+y)}-1}{p}A\\
&=T_A(x+y)
\end{align}
donc T_A(x)T_A(y)=T_A(x+y). D'autre part T_A(x)T_A(-x)=T_A(0)=I_p donc T_A(x) est inversible d'inverse T_A(-x).
2. Soit A=(a_{i,j})_{1\leq i,j\leq p} une matrice de {\cal M}_{p}(\mathbb R).
On pose pour tout k\in\mathbb N : A^k=(a_{i,j}^{(k)})_{1\leq i,j\leq p} et \mu_k=\max_{(i,j)\in[\![1,p]\!]^2}|a_{i,j}^{(k)}|.
a) A l'aide de l'identité A^{k+1}=AA^k, montrer que pour tout k\in\mathbb N, on a : \mu_{k+1}\leq p^k\mu_1^{k+1}.
Afficher
On raisonne par récurrence. Pour k=0 c'est évident. Supposons le résultat vrai pour k alors
\begin{align}
\mu_{k+2}&=\max_{i,j}|a_{i,j}^{(k+2)}|=\max_{i,j}\left|\sum_{l=1}^pa_{il}a_{lj}^{(k+1)}\right|\\
&\leq\max_{i,j}\sum_{l=1}^p|a_{il}||a_{lj}^{(k+1)}|\\
&\leq\mu_{k+1}\max_{i,j}\sum_{l=1}^p|a_{il}|\\
&\leq\mu_{k+1}\sum_{l=1}^p\mu_1=p\mu_{k+1}\mu_1\\
&\leq pp^{k}\mu_1^{k+1}\mu_1=p^{k+1}\mu_1^{k+2}
\end{align}
d'où l'hérédité et la récurrence.
b) En déduire que pour tout x réel, la série \sum_{k\geq 0}\frac{\mu_k}{k!}x^k est convergente.
Afficher
On a d'après la question précédente
\left|\frac{\mu_kx^k}{k!}\right|\leq\mu_1\frac{(p|x|\mu_1)^k}{k!}
Or \sum_{k\geq 0}\frac{(p|x|\mu_1)^k}{k!} est une série convergente. On conclut alors par comparaison de séries et le fait que la convergence absolue implique la convergence.
c) Montrer que pour tout réel x et pour tout (i,j)\in[\![1,p]\!]^2, la série \sum_{k\geq 0}\frac{a_{i,j}^{(k)}}{k!}x^k est convergente.
Afficher
On a que
\left|\frac{a_{i,j}^{(k)}}{k!}x^k\right|\leq\frac{\mu_k}{k!}|x^k|
or d'après la question précédente \sum_{k\geq 0}\frac{\mu_k}{k!}|x|^k converge donc on conclut par comparaison et le fait que la convergence absolue implique la convergence.
d) Montrer que pour tout réel x, la suite (T_{A,n}(x))_{n\in\mathbb N} de {\cal M}_{p}(\mathbb R) converge vers une matrice T_A(x) de {\cal M}_{p}(\mathbb R). Que vaut T_A(x) lorsque p=1 et que l'unique coefficient de A est un réel a?
Afficher
D'après c, les coefficients de T_{A,n}(x) convergent donc T_{a,n}(x) converge. D'autre part si A=(a), on a T_A(x)=e^{ax}.
3. Soit D une matrice diagonale de {\cal M}_{p}(\mathbb R).
a) Vérifier que pour tout x réel et pour tout n\in\mathbb N, la matrice T_{D,n}(x) est diagonale.
Afficher
Si on pose
D=\begin{pmatrix}d_1 & & 0\\
& \ddots & \\
0 & & d_p
\end{pmatrix}
on a alors
T_{D,n}(x)=\begin{pmatrix}\sum_{k=0}^n \frac{(xd_1)^k}{k!}& & 0\\
& \ddots & \\
0 & & \sum_{k=0}^n\frac{(xd_p)^k}{k!}
\end{pmatrix}
donc la matrice est diagonale.
b) En déduire que pour tout x réel, la matrice T_D(x) est diagonale et donner l'expression de ses coefficients diagonaux en fonction de ceux de D.
Afficher
T_D(x)=\lim_{n\to+\infty}T_{D,n}(x)=\begin{pmatrix} e^{xd_1} & & 0\\
& \ddots & \\
0 & & e^{xd_p}
\end{pmatrix}
c) On pose pour tout r\in\mathbb N^* : D_r=r\left(T_D\left(\frac{1}{r}\right)-I_p\right). Montrer que la suite (D_r)_{r\in\mathbb N^*} converge vers D.
Afficher
D_r=\begin{pmatrix}r(e^{d_1/r}-1) & & 0\\
& \ddots & \\
0 & & r(e^{d_1/r}-1)
\end{pmatrix}
et lorsque r tend vers l'infini
r(e^{d_i/r}-1)=r\left(\frac{d_i}{r}+o\left(\frac{1}{r}\right)\right)=d_i+o(1)\to d_i
on a donc d'après le résultat de la question précédente D_r\to D.
4. Soit A une matrice de {\cal M}_{p}(\mathbb R), P une matrice inversible de {\cal M}_{p}(\mathbb R) et A'=P^{-1}AP.
a) Etablir pour tout x réel, l'égalité : T_{A'}(x)=P^{-1}T_A(x)P.
Afficher
Revenir à la définition de T_{A'}, utiliser le fait que (A')^k=P^{-1}A^kP et exploiter à fond les résultats admis du préambule sur les limites de suite de matrices.
b) On suppose que A est diagonalisable. Montrer que :
\forall n\in\mathbb N,\lim_{r\to+\infty}r^{n+1}\left(T_A\left(\frac{1}{r}\right)-T_{A,n}\left(\frac{1}{r}\right)\right)=\frac{1}{(n+1)!}A^{n+1}.\ (\star)
(On pourra traiter dans un premier temps le cas où A est diagonale)
Afficher
On commence à traiter le cas diagonal. On observe d'abord à l'aide d'un développement limité que
e^{d_i/r}=\sum_{k=0}^n\frac{1}{k!}\left(\frac{d_i}{r}\right)^k+\frac{1}{(k+1)!}\left(\frac{d_i}{r}\right)^{k+1}+o\left(\frac{1}{r^{n+1}}\right).
Par conséquent, on a que
r^{n+1}\left(T_D\left(\frac{1}{r}\right)-T_{D,n}\left(\frac{1}{r}\right)\right)=
\begin{pmatrix}\frac{d_1^{n+1}}{(k+1)!}+o(1) & & 0\\
& \ddots & \\
0 & & \frac{d_p^{n+1}}{(k+1)!}+o(1)
\end{pmatrix}
Donc en passant à la limite, on a \lim_{r\to+\infty}r^{n+1}\left(T_D\left(\frac{1}{r}\right)-T_{D,n}\left(\frac{1}{r}\right)\right)=\frac{1}{(n+1)!}D^{n+1}. Enfin lorsque A est diagonalisable, on a A=PDP^{-1}, donc d'après la question précédente et les résultats admis du préambule, on a
\begin{align}
\lim_{r\to+\infty}r^{n+1}\left(T_A\left(\frac{1}{r}\right)-T_{A,n}\left(\frac{1}{r}\right)\right)&=P\left(\lim_{r\to+\infty}r^{n+1}\left(T_D\left(\frac{1}{r}\right)-T_{D,n}\left(\frac{1}{r}\right)\right)\right)P^{-1}\\
&=P\frac{1}{(n+1)!}D^{n+1}P^{-1}=\frac{1}{(n+1)!}A^{n+1}
\end{align}
d'où le résultat.
On admet dans la suite du problème que la relation (\star) reste valable pour toute matrice A de {\cal M}_{p}(\mathbb R).

Pour afficher le fil des commentaires : Commentaires.
Pour poster un commentaire ou obtenir de l'aide : c'est ici!
Formulaire
L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : \bf{\$formule\$}. Par exemple \bf{\$ u\_n \$} sera interprétée comme une formule et donnera \bf{u_n}. Voici quelques exemples pour ceux qui ne sont pas habitués :
- Indice bas u_n : u_n
- Indice haut X^p : X^p
- Multi-indices A_{1,2}^{pq} : A_{1,2}^{pq}
- Intégrales \int_a^b f(t)dt : \int_a^b f(t)dt
- Somme \sum_{i=1}^n u_i : \sum_{i=1}^n u_i
- Pour les lettres greques, il suffit de connaître leur noms, \alpha donn \alpha, \beta donne \beta, etc.
- Et pour les lettres greques majuscules, il suffit de mettre la première lettre en majuscule : \Gamma donne \Gamma, \Sigma donne \Sigma etc.