Diagonaliser une matrice : le cas simple
Diagonaliser une matrice peut se faire en moins de 5 minutes dans les cas simples, où
toutes les valeurs propres, sauf au plus une, peuvent être devinées
En illustration, la diagonalisation de la matrice \(A=\pmatrix{2 &-1 & 1\cr 1 & 0 &-1\cr 2 & -2 & 1}\)
Analyse au brouillon (3 minutes)
Ecrire la matrice \(A-\lambda I_3=\pmatrix{2 -\lambda&-1 & 1\cr 1 & -\lambda &-1\cr 2 & -2 & 1-\lambda}\) puis remarquer que
- Pour \(\lambda=1\), la matrice \(A-I_3=\pmatrix{1&-1 & 1\cr 1 & -1 &-1\cr 2 & -2 & 0}\) vérifie \(C_1+C_2=0\)
- Pour \(\lambda=-1\), la matrice \(A+I_3=\pmatrix{3&-1 & 1\cr 1 & 1 &-1\cr 2 & -2 & 2}\) vérifie \(C_2+C_3=0\)
- Pour \(\lambda=3\), la matrice \(A-3I_3=\pmatrix{-1&-1 & 1\cr 1 & -3 &-1\cr 2 & -2 & -2}\) vérifie \(C_1+C_3=0\)
Remarques :
- Comme la trace est égale à la somme des valeurs propres, on déduit la troisième valeur propre des deux autres.
- Le calcul du rang \(rg(A-\lambda I_n)\) donne la dimension de l'espace propre associé à la valeur propre \(\lambda\) et donc le nombres de relations linéairement indépendantes entre colonnes que l'on est sensé trouver
Synthèse sur sa copie (2 minutes)
\(\pmatrix{ 1\cr 1\cr 0}\) est vecteur propre de \(A\) pour \(\lambda=1\) car \(A \times \pmatrix{1\cr 1\cr 0}=\pmatrix{ 2-1\cr 1+0\cr 2-2}= \pmatrix{1\cr 1\cr 0}\)
\(\pmatrix{ 0\cr 1\cr 1}\) est vecteur propre de \(A\) pour \(\lambda=-1\) car \(A \times \pmatrix{0\cr 1\cr 1}=\pmatrix{ -1+1\cr 0-1\cr -2+1}= -\pmatrix{0\cr 1\cr 1}\)
\(\pmatrix{ 1\cr 0\cr 1}\) est vecteur propre de \(A\) pour \(\lambda=3\) car \(A \times \pmatrix{1\cr 0\cr 1}=\pmatrix{ 2+1\cr 1-1\cr 2+1}= 3\pmatrix{1\cr 0\cr 1}\)
Donc, la matrice \(A\) est diagonalisable et vérifie \(A=PDP^{-1}\) pour \(P=\pmatrix{ 1 & 0 & 1\cr 1 & 1 & 0\cr 0 & 1 & 1}\) et \(D=\pmatrix{ 1&0&0\cr 0&-1&0\cr 0&0&3}\)
\(\pmatrix{ 0\cr 1\cr 1}\) est vecteur propre de \(A\) pour \(\lambda=-1\) car \(A \times \pmatrix{0\cr 1\cr 1}=\pmatrix{ -1+1\cr 0-1\cr -2+1}= -\pmatrix{0\cr 1\cr 1}\)
\(\pmatrix{ 1\cr 0\cr 1}\) est vecteur propre de \(A\) pour \(\lambda=3\) car \(A \times \pmatrix{1\cr 0\cr 1}=\pmatrix{ 2+1\cr 1-1\cr 2+1}= 3\pmatrix{1\cr 0\cr 1}\)
Donc, la matrice \(A\) est diagonalisable et vérifie \(A=PDP^{-1}\) pour \(P=\pmatrix{ 1 & 0 & 1\cr 1 & 1 & 0\cr 0 & 1 & 1}\) et \(D=\pmatrix{ 1&0&0\cr 0&-1&0\cr 0&0&3}\)
Remarque : ce procédé de diagonalisation
- évite la recherche coûteuse de valeurs propres via l'équation \(det(A-\lambda I_n)=0\) ou \(rg(A-\lambda I_n)=0\)
- évite la résolution coûteuse de trois systèmes linéaires pour trouver un vecteur propre associés à chaque valeur propre
- présente moins de risques d'être fausse (calculs simples, vérifiés lors de la rédaction sur la copie)
- est humainement faisable pour toutes les tailles de matrices 2, 3, 4, 5, 6, ... n... (plus la matrice est grande, plus l'exercice est facile)
- est beaucoup plus agréable pour les élèves (trouver les valeurs propres et les vecteurs propres est ludique), ce qui les réconcilie avec l'algèbre linéaire
- Pour comparer, la démonstration enseignée majoritairement en France :
Commentaires
Enregistrer un commentaire