Dans cette partie, on note $A=(a_{k,j})_{1\leq k,j\leq p}$ une matrice de ${\cal M}_p(\mathbb R)$, $\lambda$ une valeur propres complexe de $A$ et $X=\begin{pmatrix}x_1\\ \vdots\\ x_p\end{pmatrix}\in\mathbb C^p$ un vecteur propre de $A$ associé à $\lambda$.
3. Soit $k_0$ un entier de $[\![1,p]\!]$ pour lequel on a : $0<\!|x_{k_0}|=\max_{1\leq j\leq p}|x_j|$.
Etablir les encadrements suivants : $|\lambda|\leq\sum_{j=1}^p|a_{k_0,j}|\leq N(A)$ et $0\leq\rho(A)\leq N(A)$.
L'inégalité $\sum_{j=1}^p|a_{k_0,j}|\leq N(A)$ provient de la définition de $N(A)$. En calculant la $k_0$-ième coordonnée de $AX$, on a : $\sum_{j=1}^pa_{k_0,j}x_j$. Mais comme $AX=\lambda X$, on a l'égalité : $\lambda x_{k_0}=\sum_{j=1}^pa_{k_0,j}x_j$. Or $|x_{k_0}|$ étant le max, on a aussi : $$|\lambda x_{k_0}|=\left|\sum_{j=1}^pa_{k_0,j}x_j\right|\leq \sum_{j=1}^p|a_{k_0,j}||x_j|\leq |x_{k_0}|\sum_{j=1}^p|a_{k_0,j}|.$$ En simplifiant par $x_{k_0}$ qui est non nul, on trouve $|\lambda|\leq\sum_{j=1}^p|a_{k_0,j}|$. Enfin la dernière inégalité est une conséquence immédiate.
4. Soit $n$ un entier de $\mathbb N^*$ et $\mu$ une valeur propre de $A^n$ telle que $|\mu|=\rho(A^n)$.
a) Montrer que $\lambda^n$ est une valeur propre de $A^n$. En déduire l'inégalité : $\rho(A^n)\geq (\rho(A))^n$.
$AX=\lambda X$ donc par récurrence $A^nX=\lambda^n X$ et donc $\lambda^n$ est valeur propre de $A^n$. Il suit que $|\lambda|^n\leq\rho(A^n)$ pour tout $\lambda$ valeur propre de $A^n$ et donc $(\rho(A))^n\leq\rho(A^n)$.
b) Soit $\alpha_0,\alpha_1,\dots,\alpha_{n-1}$ les $n$ racines n-ièmes de $\mu$. Etablir l'égalité : $A^n-\mu I_p=\prod_{j=0}^{n-1}(A-\alpha_j I_p)$.
$\alpha_0,\alpha_1,\dots,\alpha_{n-1}$ étant les racines n-ièmes de $\mu$, on a l'égalité polynomiale suivante : $$X^n-\mu=\prod_{j=0}^{n-1}(X-\alpha_i).$$ Il ne suffit plus que d'appliquer le polynome à la matrice $A$.
c) Montrer qu'il existe un entier $j_0$ de $[\![0,n-1]\!]$ pour lequel $\alpha_{j_0}$ est une valeur propre de $A$.
D'après b) on a $0=AX-\mu X=\prod_{j=0}^{n-1}(A-\alpha_j Id)X=(A-\alpha_0)\prod_{j=1}^{n-1}(A-\alpha_j Id)X$. On en déduit que $\prod_{j=1}^{n-1}(A-\alpha_j Id)X$ appartient à $Ker(A-\alpha_0 Id)$. On a alors deux choix possibles, soit $\prod_{j=1}^{n-1}(A-\alpha_j Id)X$ est non nul et dans ce cas c'est un vecteur propre de valeur propre $\alpha_0$ et on a répondu à la question. Soit au contraire $\prod_{j=1}^{n-1}(A-\alpha_j Id)X=0$ et dans ce cas on réitère l'argument par la même astuce $0=\prod_{j={i}}^{n-1}(A-\alpha_j Id)X=(A-\alpha_i)\prod_{j={i+1}}^{n-1}(A-\alpha_j Id)X$ jusqu'à épuisement des $\alpha_i$.
d) En déduire l'égalité : $\rho(A^n)=(\rho(A))^n$. Etablir l'encadrement : $0\leq\rho(A)\leq(N(A^n))^{1/n}$.
On a $$\rho(A^n)=|\mu|=|\alpha_{j_0}|^n\leq\rho(A)^n.$$ Or on a aussi prouvé l'inégalité dans l'autre sens dans a) d'où l'égalité $\rho(A^n)=\rho(A)^n$. Enfin d'après 3, $$\rho(A)=\rho(A^n)^{1/n}\leq N(A^n)^{1/n}.$$
5. On suppose que la suite de matrices $(A^n)_{n\in\mathbb N^*}$ converge vers la matrice nulle de ${\cal M}_p(\mathbb R)$.
Montrer que $\lim_{n\to+\infty}N(A^n)=0$. En déduire que $\rho(A)<\!1$.
$A^n$ tend vers 0 donc tous ses coefficients aussi et donc $N(A^n)$ tend vers 0. Maintenant $\lim_{n\to+\infty}N(A^n)=0$ donc pour n suffisemment grand $N(A^n)<\!\frac{1}{2}$ et d'après l'inégalité établie en 4.d) $$\rho(A)\leq(N(A^n))^{1/n}=\exp\left(\frac{1}{n}\ln(A^n)\right)<\!\exp\left(\frac{1}{n}\ln\frac{1}{2}\right)<\! 1,$$ d'où le résultat.
6. Dans cette question, on suppose que la matrice $A$ est diagonalisable dans $\mathbb C$.
On pose pour tout réel $\epsilon$ strictement positif : $A_\epsilon=\frac{1}{\rho(A)+\epsilon}A$.
a) Montrer que si $\rho(A)<\!1$, alors la suite de matrices $(A^n)_{n\in\mathbb N^*}$ converge vers la matrice nulle de ${\cal M}_p(\mathbb R)$.
$A$ est diagonalisable donc il existe une matrice $P$ inversible et une matrice $D$ diagonale telle que $A^n=PD^nP^{-1}$. $\rho(A)<\!1$ donc $D^n$ tend vers 0 et d'après les règles de calculs sur les limites de matrices $\lim_{n\to+\infty}P^{-1}D^nP=0$, d'où le résultat.
b) Montrer que $\rho(A_\epsilon)<\! 1$. En déduire qu'il existe un entier $n_0$ tel que pour tout entier $n\geq n_0$, on a : $N(A^n_\epsilon)\leq 1$.
Si $\lambda$ est valeur propre de $A$ alors $\frac{\lambda}{\rho(A)+\epsilon}$ est valeur propre de $A_\epsilon$. Il suit que $\rho(A_\epsilon)=\frac{\rho(A)}{\rho(A)+\epsilon}<\!1$. D'après a), on en déduit que $A^n_\epsilon$ tend vers 0 et d'après 5, $\lim_{n\to+\infty}N(A_\epsilon)=0$ et donc il existe $n_0\in\mathbb N$ tel que pour $n\geq n_0$, $N(A^n_\epsilon)\leq 1$.
c) Etablir pour tout $n$ de $\mathbb N^*$, la relation : $N(A^n)=(\rho(A)+\epsilon)^nN(A^n_\epsilon)$.
C'est clair en revenant à la définition de $N(A)$.
d) A l'aide des questions précédentes, établir pour tout $n\geq n_0$, l'encadrement : $0\leq(N(A^n))^{1/n}-\rho(A)\leq \epsilon$.
En déduire que l'on a : $\lim_{n\to+\infty}(N(A^n))^{1/n}=\rho(A)$.
D'après 4.d) on a déjà $0\leq(N(A^n))^{1/n}-\rho(A)$. D'après 6.c) on a $N(A^n)=(\rho(A)+\epsilon)^nN(A^n_\epsilon)$, mais comme d'après 6.b) pour $n\geq n_0$, $N(A^n_\epsilon)\leq 1$, on en déduit $N(A^n)\leq(\rho(A)+\epsilon)^nN$ et $(N(A^n))^{1/n}-\rho(A)\leq \epsilon$. $\epsilon$ étant arbitraire on reconnait la définition de la limite demandée.
Dans la suite du problème, on admet que pour toute matrice $A$ de ${\cal M}_p(\mathbb R)$, on a $\lim_{n\to+\infty}(N(A^n))^{1/n}=\rho(A)$ et que la suite $(A^n)_{n\in\mathbb N^*}$ converge vers la matrice nulle de ${\cal M}_p(\mathbb R)$ si et seulement si on a $\rho(A)<\! 1$.
Dans cette partie, on considère une matrice $A=(a_{k,j})_{1\leq k,j\leq p}$ de ${\cal M}_p(\mathbb R)$ positive et non nulle.
7. Soit $B=(b_{k,j})_{1\leq k,j\leq p}$ une matrice positive de ${\cal M}_p(\mathbb R)$ vérifiant pour tout couple $(k,j)$ de $[\![1,p]\!]^2$ : $b_{k,j}\leq a_{k,j}$. Montrer que pour tout $n$ de $\mathbb N^*$, on a : $N(B^n)\leq N(A^n)$. En déduire l'inégalité : $\rho(B)\leq\rho(A)$.
On montre facilement par réccurence que si $A\leq B$ alors $A^n\leq B^n$ et donc $N(A^n)\leq N(B^n)$. Pour établir $\rho(A)\leq\rho(B)$, il suffit de se souvenir d'après 6.d) $\lim_{n\to+\infty}(N(A^n))^{1/n}=\rho(A)$.
8. On suppose dans cette question qu'il existe une constante $s$ vérifiant pour tout $k$ de $[\![1,p]\!] : \sum_{j=1}^pa_{k,j}=s$.
Etablir l'égalité : $\rho(A)=s$.
Comme $A$ est réelle positive $s=\sum_{j=1}^pa_{k,j}=\sum_{j=1}^p|a_{k,j}|$ et donc $N(A)=s$. On sait d'après 3 que $\rho(A)\leq N(A)=s$. D'autre part le fait que pour tout $k$ de $[\![1,p]\!], \sum_{j=1}^pa_{k,j}=s$ implique que $\begin{pmatrix}1\\ \vdots\\ 1\end{pmatrix}$ est vecteur propre de valeur propre $s$. On en déduit que $s=|s|\leq\rho(A)$ et donc l'égalité est établie.
9. On pose : $\sigma=\min_{1\leq k\leq p}\sum_{j=1}^pa_{k,j}$. A l'aide des questions 7 et 8, établir l'encadrement : $\sigma\leq\rho(A)\leq N(A)$.
L'inégalité $\rho(A)\leq N(A)$ a été établit précédemment. On construit une matrice $B=(b_{k,j})_{1\leq k,j\leq p}$ telle que $b_{k,j}\leq a_{k,j}$ et pour tout $k\in[\![1,p]\!]$, $\sum_{j=1}^pb_{k,j}=\sigma$ (cette construction est possible car $\sigma$ représente le minimum des sommes des lignes de $A$). D'après 7, on a $\rho(B)\leq\rho(A)$ et d'après 8, $\rho(B)=\sigma$ et le résultat suit.
10. Soit $X$ un vecteur de $\mathbb R^p$ tel que $X>0$ et soit $\Delta_X$ la matrice diagonale de ${\cal M}_p(\mathbb R)$ dont les éléments diagonaux sont les coordonnées $x_1,x_2,\dots,x_p$ de $X$.
a) Après avoir justifié l'existence de l'inverse $\Delta_X^{-1}$ de $\Delta_X$, calculer la matrice $\Delta_X^{-1}A\Delta_X$.
$X$ étant strictement positif, aucune des valeurs propres de $\Delta_X$ est nulle donc représente un endomorphisme injectif donc bijectif et par conséquent $\Delta_X^{-1}$ existe. Enfin on a $$(\Delta_X^{-1}A\Delta_X)_{k,j}=a_{k,j}\frac{x_j}{x_k}.$$
b) Etablir l'encadrement : $\min_{1\leq k\leq p}\frac{1}{x_k}\sum_{j=1}^pa_{k,j}x_j\leq\rho(A)\leq \max_{1\leq k\leq p}\frac{1}{x_k}\sum_{j=1}^pa_{k,j}x_j$.
Grâce à l'encadrement établit en 9, on a : $$\min_{1\leq k\leq p}\frac{1}{x_k}\sum_{j=1}^pa_{k,j}x_j\leq\rho(\Delta_X^{-1}A\Delta_X)\leq \max_{1\leq k\leq p}\frac{1}{x_k}\sum_{j=1}^pa_{k,j}x_j.$$ Or $A$ et $\Delta_X^{-1}A\Delta_X$ ont les même valeurs propres donc $\rho(A)=\rho(\Delta_X^{-1}A\Delta_X)$ et le résultat suit.
c) En déduire que s'il existe un réel positif $\beta$ vérifiant $\beta X<\! AX$, il vérifie également $\beta<\!\rho(A)$.
La condition $\beta X<\! AX$ se réécrit en indice $\beta x_k<\! \sum_{j=1}^pa_{k,j}x_j$ soit encore comme $X>0$, $\beta <\!\frac{1}{x_k} \sum_{j=1}^pa_{k,j}x_j$. Il suit grâce à la question précédente que : $$\beta <\!\min_{1\leq k\leq p}\frac{1}{x_k} \sum_{j=1}^pa_{k,j}x_j\leq\rho(A),$$ d'où le résultat.
Pour afficher le fil des commentaires : Commentaires.
Pour poster un commentaire ou obtenir de l'aide : c'est ici!
L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :
Contacter l'auteur du site : frederic.millet @ math-sup.fr