CM Algèbre linéaire et bilinéaire
Chapitre 1 : Algèbre linéaire
Rappel :
Un $\mathbb{K}$-e.v. $(E, + , \bullet )$ vérifie
\[\forall x,y \in E,\ \forall\lambda,\mu\mathbb{\in K,\ }\lambda x + \mu y \in E\]Soit $f:E \rightarrow F$ avec $E$ et $F$ des $\mathbb{K}$-e.v.
$f$ est linéaire si et seulement si $\forall x,y \in E,\ \forall\lambda,\mu \in \mathbb{K,\ }f(\lambda x + \mu y) = \lambda f(x) + \mu f(y)$
Exemple :
Soit $f\ :\mathbb{R}^{2} \rightarrow \mathbb{R}^{2}$
\[(x,\ y) \rightarrow \left( 2x,\frac{1}{3}y \right)\]Soit $v = (0,1)$ alors $f(v) = \left( 0,\frac{1}{3} \right)$
Soit $u = (1,0)$ alors $f(u) = (2,0)$
Soit $w = (1,1)$ alors $f(w) = \left( 2,\frac{1}{3} \right)$
Soit $f:\mathbb{R}^{2} \rightarrow \mathbb{R}^{2}$
\[(x,y) \rightarrow (x + y,x - y)\] \[f(1,0) = (1,1)\] \[f(0,1) = (1, - 1)\]Soit $\varepsilon_{1} = \left( 1 + \sqrt{2},\ 1 \right)$ et $\varepsilon_{2} = \left( 1 - \sqrt{2},\ 1 \right)$
\[f \left( \varepsilon_{1} \right) = \left( 2 + \sqrt{2},\ \sqrt{2} \right) = \sqrt{2} \left( 1 + \sqrt{2},\ 1 \right) = \sqrt{2}\varepsilon_{1}\] \[f \left( \varepsilon_{2} \right) = \left( 2 - \sqrt{2},\ - \sqrt{2} \right) = - \sqrt{2} \left( 1 - \sqrt{2},\ 1 \right) = - \sqrt{2}\varepsilon_{2}\]Soit $u = \alpha\varepsilon_{1} + \beta\varepsilon_{2}$
Alors $f(u) = \alpha f \left( \varepsilon_{1} \right) + \beta f \left( \varepsilon_{2} \right) = \alpha\varepsilon_{1}\sqrt{2} - \beta\varepsilon_{2}\sqrt{2}$
I. Eléments propres
Rappel :
Un endomorphisme $f\mathcal{\in L}(E)$ est une application linéaire $f:E \rightarrow E$
1. Valeurs propres et vecteurs propres
Définition : Valeurs propres
Soit $f\mathcal{\in L}(E)$ (un endomorphisme de $E$) et $\lambda \in \mathbb{K}$
On dit que $\lambda$ est une valeur propre de $f$ si et seulement s’il existe $v \in E\backslash \left\lbrace 0_{E} \right\rbrace$ tel que $f(v) = \lambda v$
Remarque :
\[f \left( 0_{E} \right) = 0_{E} = \lambda 0_{E}\ \forall\lambda\mathbb{\in K}\]Le vecteur $v$ est alors appelé vecteur propre de $f$ associé à la valeur propre $\lambda$.
L’ensemble des valeurs propres de $f$ est appelé le spectre de $f$ noté $Sp(f)$
Soit $v \in E\backslash\left\lbrace 0_{E}\right\rbrace$. $v$ est un vecteur propre de $f$ si et seulement si $\exists\lambda\mathbb{\in K,\ }f(v) = \lambda v$
Les valeurs propres et les vecteurs propres sont les éléments propres de $f$
Exemple :
\[f:\mathbb{R}^{2} \rightarrow \mathbb{R}^{2}\] \[(x,y) \rightarrow \left( x - \frac{y}{2},\ - \frac{x}{2} + y \right)\]Montrer que $v_{1} = (1,1)$ est un vecteur propre de $f$ associé à la valeur propre $\lambda_{1} = \frac{1}{2}$.
\[f \left( v_{1} \right) = \left( \frac{1}{2},\frac{1}{2} \right) = \frac{1}{2}(1,1) = \lambda_{1}v_{1}\]Soit $v_{2} = (1, - 1)$. On a $f \left( v_{2} \right) = \frac{3}{2}v_{2}$
Rappel :
$F \subset E$ est un sous-espace vectoriel si :
C’est un espace vectoriel
$\forall x,y \in F,\ \forall\lambda,\mu\mathbb{\in K,\ }\lambda x + \mu y \in F$
2. Sous-espaces propres
Rappel : $\ker f = \left\lbrace x \in E,\ f(x) = 0_{E} \right\rbrace$, $\ker f$ est un s.e.v. de $E$
Proposition :
Soit $f\mathcal{\in L}(E)$ et $\lambda \in \mathbb{K}$
L’ensemble $E_{\lambda}$ défini par $E_{\lambda} = \left\lbrace x \in E,\ f(x) = \lambda x \right\rbrace$ est un sous-espace vectoriel.
En particulier, il est égal à $E_{\lambda} = \ker(f - \lambda Ιd)$
Démonstration : Montrons que $E_{\lambda} = \ker(f - \lambda Id)$
\[x \in E_{\lambda}\] \[\Leftrightarrow (x) = \lambda x \Leftrightarrow f(x) - \lambda x = 0_{E} \Leftrightarrow (f - \lambda Id)(x) = 0\] \[\Leftrightarrow x \in \ker(f - \lambda Id)\]Donc $E_{\lambda}$ est un s.e.v.
Définition :
Si \(E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace\) alors $E_{\lambda}$ est appelé sous-espace propre associé à $\lambda$.
Rappel :
$f$ est injective si et seulement si $f(x) = f(y) \Rightarrow x = y$
Si $f:E \rightarrow F$ est une application linéaire, alors $f$ est injective si et seulement si $\ker f = \left\lbrace 0_{E} \right\rbrace$
$f$ est surjective si et seulement si $\forall y \in F,\ \exists x \in E,\ f(x) = y$
Si $f\ :E \rightarrow F$ est une application linéaire, alors $f$ est surjective si et seulement si $\text{Im}\ f = F$ avec $\text{Im}\ f ≔ f(E) = \left\lbrace f(x),\ x \in E \right\rbrace \subset F \text{Im}\ f$ est un s.e.v. de $F$.
Proposition :
Soit $f\mathcal{\in L}(E),\ \lambda\mathbb{\in K}$
\[\lambda \in Sp(f) \Leftrightarrow E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace \Leftrightarrow (f - \lambda Id)\ \text{n'est pas injective}\]Démonstration :
\[\lambda \in Sp(f) \Leftrightarrow \exists x \in E\backslash \left\lbrace 0_{E} \right\rbrace,\ f(x) = \lambda x \Leftrightarrow x \in E_{\lambda} \Leftrightarrow E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace\]Or $E_{\lambda} = \ker(f - \lambda Id)$ donc $E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace \Leftrightarrow (f - \lambda Id)\ \text{n’est pas injective}$
Proposition :
Soit $f\mathcal{\in L}(E)$, $v_{1}$ et $v_{2}$ deux vecteurs propres de $f$ associés à $\lambda_{1}$ et $\lambda_{2}\mathbb{\in K}$ tels que $\lambda_{1} \neq \lambda_{2}$
Alors $v_{1}$ et $v_{2}$ sont libres (non colinéaires).
Démonstration :
Montrons que $v_{1}$ et $v_{2}$ ne sont pas colinéaires. $v_{1}$ et $v_{2}$ sont colinéaires si et seulement si $\exists\alpha\mathbb{\in K,\ }v_{1} = \alpha v_{2}$
Par l’absurde, supposons que $v_{1}$ et $v_{2}$ sont colinéaires, $v_{1} = \alpha v_{2},\ \alpha\mathbb{\in K}$
\[f \left( v_{1} \right) = \lambda_{1}v_{1},\ f \left( v_{2} \right) = \lambda_{2}v_{2}\]Aussi, $f \left( v_{1} \right) = f \left( \alpha v_{2} \right) = \alpha f \left( v_{2} \right) = \alpha\lambda_{2}v_{2}$
Ainsi $\lambda_{1}v_{1} = \alpha\lambda_{2}v_{2}$
Si $\lambda_{1} \neq 0$
Donc $v_{1} = \alpha \left( \frac{\lambda_{2}}{\lambda_{1}} \right)v_{2}$ et $v_{1} = \alpha v_{2}$
Donc $\frac{\lambda_{2}}{\lambda_{1}} = 1,\ \lambda_{1} = \lambda_{2}$, ce qui est absurde.
Si $\lambda_{1} = 0$, alors $\lambda_{2} \neq 0$
\[f \left( v_{2} \right) = f \left( \frac{1}{\alpha}v_{1} \right) = \frac{1}{\alpha}f \left( v_{2} \right) = \frac{1}{\alpha}\lambda_{1}v_{1}\] \[f \left( v_{2} \right) = \lambda_{2}v_{2}\] \[v_{2} = \frac{1}{\alpha}\frac{\lambda_{1}}{\lambda_{2}}v_{1} = \frac{1}{\alpha}v_{1}\]Donc $\lambda_{1} = \lambda_{2}$ ce qui est absurde.
Rappel :
Soit $U = \left\lbrace u_{1},\ldots,u_{n} \right\rbrace$ famille de vecteurs d’un e.v. $E$.
$U$ est une famille libre de $E$ si et seulement si
\[\alpha_{1}u_{1} + \ldots + \alpha_{n}u_{n} \Rightarrow \alpha_{1} = \ldots = \alpha_{n} = 0\]Une famille est liée si elle n’est pas libre.
Théorème :
Soit $v_{1},\ldots,v_{p}$ $p$ vecteurs propres de $f$ associés aux valeurs propres $\lambda_{1},\ldots,\lambda_{p}$ tels que les $\lambda_{i}$ sont différents deux à deux (uniques).
Alors la famille $ \left\lbrace v_{1},\ldots,v_{p} \right\rbrace$ est libre.
Démonstration : Par récurrence
Le cas $p = 2$ est la proposition précédente.
Supposons $ \left\lbrace v_{1},\ \ldots,\ v_{p + 1} \right\rbrace$ des vecteurs propres associés à $\lambda_{1},\ldots,\lambda_{p + 1}\mathbb{\in K}$
Alors $\left\lbrace v_{1},\ldots,v_{p}\right\rbrace$ sont des vecteurs propres de $f$ et par hypothèse de récurrence ils forment une famille libre.
Soit $\alpha_{1},\ldots,\alpha_{p + 1}\mathbb{\in K}$ tels que $\alpha_{1}v_{1} + \ldots + \alpha_{p + 1}v_{p + 1} = 0_{E}\ (*)$
On applique $f$ à $(*)\ $:
\[f \left( \alpha_{1}v_{1} + \ldots + \alpha_{p + 1}v_{p + 1} \right) = f \left( 0_{E} \right) = 0_{E}\]Par linéarité de $f$,
\[\alpha_{1}f \left( v_{1} \right) + \ldots + \alpha_{p + 1}f \left( v_{p + 1} \right) = 0_{E}\] \[\alpha_{1}\lambda_{1}v_{1} + \ldots + \alpha_{p + 1}\lambda_{p + 1}v_{p + 1} = 0_{E}\ (1)\]En multipliant $(*)$ par $\lambda_{p + 1}$,
\[\lambda_{p + 1} \left( \alpha_{1}v_{1} + \ldots + \alpha_{p + 1}v_{p + 1} \right) = 0_{E}\ (2)\]Avec $(1) - (2)$
\[\left( \alpha_{1}\lambda_{1}v_{1} + \ldots + \alpha_{p + 1}\lambda_{p + 1}v_{p + 1} \right) - \left( \alpha_{1}\lambda_{p + 1}v_{1} + \ldots + \alpha_{p + 1}\lambda_{p + 1}v_{p + 1} \right) = 0_{E}\] \[\left( \alpha_{1}\lambda_{1}v_{1} + \ldots + \alpha_{p}\lambda_{p}v_{p} \right) - \left( \alpha_{1}\lambda_{p + 1}v_{1} + \ldots + \alpha_{p}\lambda_{p + 1}v_{p} \right) = 0_{E}\] \[\alpha_{1} \left( \lambda_{1} - \lambda_{p + 1} \right)v_{1} + \ldots + \alpha_{p} \left( \lambda_{p} - \lambda_{p + 1} \right)v_{p} = 0_{E}\]Or, par hypothèse de récurrence, $ \left\lbrace v_{1},\ldots,v_{p} \right\rbrace$ est une famille libre.
\[\alpha_{1} \left( \lambda_{1} - \lambda_{p + 1} \right) = \ldots = \alpha_{p} \left( \lambda_{p} - \lambda_{p + 1} \right) = 0\]Or les $\lambda_{i}$ sont distincts deux à deux, $\forall i \in \left. ⟦1,p \right.⟧,\ \lambda_{i} - \lambda_{p + 1} \neq 0$
\[\alpha_{1} = \ldots = \alpha_{p} = 0\]Donc d’après $(*)$, $\alpha_{p + 1}v_{p + 1} = 0$
Or $v_{p + 1} \neq 0_{E}$
donc $\alpha_{p + 1} = 0$
Donc $\alpha_{1} = \ldots = \alpha_{p + 1} = 0$
Donc $\left\lbrace v_{1},\ldots,v_{p + 1}\right\rbrace$ est une famille libre.
Rappel : Espaces vectoriels en somme directe
Soit $F_{1}$ et $F_{2}$ des sous-espaces vectoriels de $E$.
\[F_{1} + F_{2} = \left\lbrace x \in E,\ x = x_{1} + x_{2},\ x_{1} \in F_{1},\ x_{2} \in F_{2} \right\rbrace\]$F_{1} + F_{2}$ est un s.e.v. de $E$.
$\dim \left( F_{1} + F_{2} \right) = \dim \left( F_{1} \right) + \dim \left( F_{2} \right) - \dim \left( F_{1} \cap F_{2} \right)$
$F_{1}$ et $F_{2}$ sont en somme directe si et seulement si
$F_{1} \cap F_{2} = \left\lbrace 0_{E} \right\rbrace$
On note alors leur somme $F_{1} \oplus F_{2}$
Alors $\dim \left( F_{1} \oplus F_{2} \right) = \dim \left( F_{1} \right) + \dim \left( F_{2} \right)$
Rappel : Espaces vectoriels supplémentaires
Si $F_{1} \oplus F_{2} = E$, on dit que $F_{1}$ et $F_{2}$ sont supplémentaires, ou que $F_{2}$ est un supplémentaire de $F_{1}$.
Il faut vérifier :
$F_{1} \cap F_{2} = \left\lbrace 0_{E} \right\rbrace$
$F_{1} + F_{2} = E$
Théorème :
$F_{1}$ et $F_{2}$ sont supplémentaires dans $E$ si et seulement si l’une des assertions suivantes et équivalentes est vérifiée :
$\forall x \in E,\ \exists! \left( x_{1},x_{2} \right) \in F_{1} \times F_{2},\ x = x_{1} + x_{2}$ ($\exists!$ : il existe un unique)
$\dim \left( F_{1} \right) + \dim \left( F_{2} \right) = \dim(E)$ et $F_{1} \cap F_{2} = \left\lbrace 0_{E}\right\rbrace$
$\dim \left( F_{1} \right) + \dim \left( F_{2} \right) = \dim(E)$ et $F_{1} + F_{2} = E$
Définition :
Soit $E$ un espace vectoriel et $ \left\lbrace F_{1},\ldots,F_{p} \right\rbrace$ une famille de s.e.v. de $E$.
On dit que la famille $ \left\lbrace F_{1},\ldots,F_{p} \right\rbrace$ est en somme directe si et seulement si, $\forall \left( x_{1},\ldots,x_{p} \right) \in F_{1} \times \ldots \times F_{p}$, $x_{1} + \ldots + x_{p} = 0{E} \Rightarrow x{1} = \ldots = x_{p} = 0_{E}$
Dans ce cas, $F_{1} + \ldots + F_{p}$ est noté $F_{1} \oplus \ldots \oplus F_{p}$
Proposition :
La somme est directe si et seulement si, $\forall i \in \left. ⟦2,n \right.⟧$,
\[F_{i} \cap \sum_{j = 1}^{i - 1}F_{j} = \left\lbrace 0_{E} \right\rbrace\]Exemple :
$F_{1},F_{2},F_{3}$ sont en somme directe si et seulement si $F_{1} \cap F_{2} = \left\lbrace 0{E} \right\rbrace$ et $F{3} \cap \left( F_{1} + F_{2} \right) = \left\lbrace 0_{E} \right\rbrace$
Théorème :
Soit $f\mathcal{\in L}(E)$, soient $\lambda_{1},\ldots,\lambda_{p}$ des valeurs propres de $f$ deux à deux distinctes.
Alors les sous-espaces propres associés $E_{\lambda_{1}},\ldots,E_{\lambda_{p}}$ sont en somme directe.
Démonstration :
Soit $x \in E_{\lambda_{i}} \cap \left( E_{\lambda_{1}} + \ldots + E_{\lambda_{i - 1}} \right)$. Montrons que $x = 0_{E}$.
$x \in E_{\lambda_{i}}$ et $x \in E_{\lambda_{1}} + \ldots + E_{\lambda_{i - 1}}$
\[x = x_{1} + \ldots + x_{i - 1}\ \text{où}\ x_{k} \in Ε_{\lambda_{k}}\] \[f(x) = \lambda_{i}x\ (1)\] \[f(x) = \lambda_{1}x_{1} + \ldots + \lambda_{i - 1}x_{i - 1}\ (2)\]D’après $(1)$ et $(2)$,
\[\lambda_{i}x = \lambda_{1}x_{1} + \ldots + \lambda_{i - 1}x_{i - 1}\] \[\lambda_{1}x_{1} + \ldots + \lambda_{i - 1}x_{i - 1} - \lambda_{i}x = 0\ (*)\]Supposons que $x \neq 0_{E}$
Alors $ \left\lbrace x_{1},\ldots,x_{i - 1},x \right\rbrace$ sont des vecteurs propres associés aux valeurs propres $\lambda_{1},\ldots,\lambda_{i}$ deux à deux distincts.
D’après le théorème précédent, $ \left\lbrace x_{1},\ldots,x_{i - 1},\ x \right\rbrace$ forme une famille libre.
Par $(*),\ \lambda_{1} = \ldots = \lambda_{i} = 0$, ce qui est absurde.
Ainsi $x = 0_{E}$
II. Représentation matricielle
Rappels :
Soit $E$ un espace vectoriel.
Si $E$ est un espace vectoriel de dimension $n\mathbb{\in N}$, alors toutes les bases de $E$ ont pour cardinal $n$.
Une base de $E$ est une famille libre et génératrice
$ \left\lbrace v_{1},\ldots,v_{n} \right\rbrace$ est génératrice de $E$ si et seulement si $\forall x \in E,\ \exists\lambda_{1},\ldots,\lambda_{n}$ tels que $x = \lambda_{1}v_{1} + \ldots + \lambda_{n}v_{n}$. Si $ \left( v_{1},\ldots,v_{n} \right)$ est une base, alors les $\lambda_{1},\ldots,\lambda_{n}$ sont uniques et sont appelés coordonnées de $x$ dans la base $ \left( v_{1},\ldots,v_{n} \right)$
Si $E$ est muni d’une base $\mathcal{B =} \left( e_{1},\ldots,e_{n} \right)$, on identifie $E$ à $\mathbb{R}^{n}$ en notant les éléments de $E$ en coordonnées dans la base $\mathcal{B}$. $x = \lambda_{1}e_{1} + \ldots + \lambda_{n}e_{n} = \left( \lambda_{1},\ldots,\lambda_{n} \right)_{\mathcal{B}}$
Soit $f\mathcal{\in L}(E)$
\[Mat_{\mathcal{B}}f = \left( f \left( e_{1} \right)_{\mathcal{B}} \right\vert \ldots \left\vert f \left( e_{n} \right)_{\mathcal{B}} \right)\]Si $x = \left( x_{1},\ldots,x_{n} \right)_{\mathcal{B}}$,
\[f(x)_{\mathcal{B}} = Mat_{\mathcal{B}}f \times \begin{pmatrix} x_{1} \\ \vdots \\ x_{n} \end{pmatrix}\]Définition :
Soit $f\mathcal{\in L}(E)$, $\mathcal{B}$ une base de $E$ et $A = Mat_{\mathcal{B}}f$
$\lambda$ est une valeur propre de $A$ si et seulement si $\lambda$ est une valeur propre de $f$
$Sp(A) = Sp(f)$
$x \in E$ est un vecteur propre de $A$ et $x$ est un vecteur propre de $f$
Proposition/Définition :
\[X = \begin{pmatrix} x_{1} \\ \vdots \\ x_{n} \end{pmatrix}\ \text{est un vecteur propre de}\ A\text{ si et seulement si}\ X \neq 0_{E}\ \text{et}\ AX = \lambda Χ\] \[Ε_{\lambda} = \left\lbrace X \in \mathbb{K}^{n},\ AX = \lambda X \right\rbrace\] \[\lambda \in Sp(A) \Leftrightarrow E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace \Leftrightarrow \ker \left( A - \lambda I_{n} \right) \neq \left\lbrace 0_{E} \right\rbrace \Leftrightarrow \left( A - \lambda Ι_{n} \right)\ \text{n'est pas inversible}\]Exercice :
\[A = \begin{pmatrix} 1 & - 1 & - 1 \\ - 1 & 1 & - 1 \\ - 1 & - 1 & 1 \end{pmatrix}\]Montrer que $v_{1} = \begin{pmatrix} 1
1
1 \end{pmatrix}$ est un vecteur propre de $A$. Alors $Av_{1} = \lambda v_{1}$
$v_{1}$ est un vecteur propre de valeur propre associée $- 1$.
Rappel : Changement de base
Soient deux bases $\mathcal{B =} \left( e_{1},e_{2},e_{3} \right)$ et $\mathcal{B}^{‘} = \left( \varepsilon_{1},\varepsilon_{2},\varepsilon_{3} \right)$ de $\mathbb{R}^{3}$
On a :
\[\varepsilon_{1} = \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}_{\mathcal{B}},\ \varepsilon_{2} = \begin{pmatrix} - 2 \\ 0 \\ 1 \end{pmatrix}_{\mathcal{B}},\varepsilon_{3} = \begin{pmatrix} 2 \\ - 2 \\ 3 \end{pmatrix}_{\mathcal{B}}\] \[\varepsilon_{1} = e_{1} + e_{2},\ \ \varepsilon_{2} = - 2e_{1} + e_{3},\ \ \varepsilon_{3} = 2e_{1} - 2e_{2} + 3e_{3}\] \[\varepsilon_{1} = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}_{\mathcal{B}^{'}},\ \varepsilon_{2} = \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}_{\mathcal{B}^{'}},\ \varepsilon_{3} = \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}_{\mathcal{B}^{'}}\]Soit \(u = \begin{pmatrix} 2 \\ - 4 \\ 1 \end{pmatrix}_{\mathcal{B}} = 2e_{1} - 4e_{2} + e_{3}\)
Quelles sont les coordonnées de $u$ dans la base $\mathcal{B}^{‘}\ $?
Méthode 1 :
Soient $\alpha,\beta,\gamma\mathbb{\in R}$ tels que $u = \alpha\varepsilon_{1} + \beta\varepsilon_{2} + \gamma\varepsilon_{3}$
Alors $2e_{1} - 4e_{2} + e_{3} = \alpha\varepsilon_{1} + \beta\varepsilon_{2} + \gamma\varepsilon_{3}$
\[\Leftrightarrow 2e_{1} - 4e_{2} + e_{3} = \alpha \left( e_{1} + e_{2} \right) + \beta \left( - 2e_{1} + e_{3} \right) + \gamma \left( 2e_{1} - 2e_{2} + 3e_{3} \right)\] \[\Leftrightarrow 2e_{1} - 4e_{2} + e_{3} = e_{1}(\alpha - 2\beta + 2\gamma) + e_{2}(\alpha + \beta - 2\gamma) + e_{3}(\beta + 3\gamma)\]Or, l’écriture d’un vecteur dans $\mathcal{B}$ est unique :
\[\left\lbrace \begin{array}{r} 2 = \alpha - 2\beta + 2\gamma \\ - 4 = \alpha + \beta - 2\gamma \\ 1 = \beta + 3\gamma \end{array} \right\rbrace\]Méthode 2 :
\[P = \left\lbrack \varepsilon_{1}\ \varepsilon_{2}\ \varepsilon_{3} \right\rbrack = \begin{bmatrix} 1 & - 2 & 2 \\ 1 & 0 & - 2 \\ 0 & 1 & 3 \end{bmatrix}\]Pour ne pas se tromper : $P\begin{pmatrix} 1
0
0 \end{pmatrix} = \begin{pmatrix} 1
1
0 \end{pmatrix} = \left( \varepsilon_{1} \right)_{\mathcal{B}}$
Si $u = \alpha\varepsilon_{1} + \beta\varepsilon_{2} + \gamma\varepsilon_{3}$, $u = \begin{pmatrix} \alpha
\beta
\gamma \end{pmatrix}_{\mathcal{B}^{‘}}$
Alors :
\[P\begin{pmatrix} \alpha \\ \beta \\ \gamma \end{pmatrix}_{\mathcal{B}^{'}} = \begin{pmatrix} 2 \\ - 4 \\ 1 \end{pmatrix}_{\mathcal{B}}\] \[\begin{pmatrix} \alpha \\ \beta \\ \gamma \end{pmatrix}_{\mathcal{B}^{'}} = P^{- 1}\begin{pmatrix} 2 \\ - 4 \\ 1 \end{pmatrix}_{\mathcal{B}}\]Rappel :
Soit $\mathcal{B =} \left( e_{1},e_{2},e_{3} \right)$ base de $\mathbb{R}^{3}$ et $P = \left\lbrack \varepsilon_{1}\ \varepsilon_{2}\ \varepsilon_{3} \right\rbrack$, alors $\mathcal{B}^{‘} = \left( \varepsilon_{1},\varepsilon_{2},e_{3} \right)$ si et seulement si $P$ est inversible, ou $\det P = 0$
Alors soit $X$ un vecteur de coordonnées dans la base $\mathcal{B}$ et $X^{‘}$ les coordonnées dans un même vecteur dans la base $\mathcal{B}^{‘}$. Alors, $PX^{‘} = X$
Soit $A = Mat_{\mathcal{B}}(f) = \begin{pmatrix} 2 & 4 & 0
1 & 2 & - 1
3 & - 2 & 1 \end{pmatrix} = \left( f \left( e_{1} \right)\ f \left( e_{2} \right)\ f \left( e_{3} \right) \right)$
Soit $X$ le vecteur des coordonnées de $v$ dans la base $\mathcal{B}$. Alors $AX$ est le vecteur des coordonnées de $f(v)$ dans $\mathcal{B}$
Comment écrire $Mat_{\mathcal{B}^{‘}}(f)\ $?
Soit $X$ et $X^{‘}$ les coordonnées de $v$ dans $\mathcal{B}$ et $\mathcal{B}^{‘}$, alors $PX^{‘} = X$. Notons $Y$ et $Y^{‘}$ les coordonnées de $f(v)$ dans la base $\mathcal{B}$ et $\mathcal{B}^{‘}$. Alors $PY^{‘} = Y$
\[Y = Mat_{\mathcal{B}}(f)X = Mat_{\mathcal{B}}(f)PX^{'}\]Donc $PY^{‘} = Mat_{\mathcal{B}}(f)PX^{‘}$
\[Y^{'} = P^{- 1}Mat_{\mathcal{B}}(f)PX^{'} = Mat_{\mathcal{B}^{'}}(f)X^{'}\]Proposition :
\[Mat_{\mathcal{B}^{'}}(f) = P^{- 1}Mat_{\mathcal{B}}(f)P\]Comment le retrouver ?
La matrice $Mat_{\mathcal{B}^{‘}}(f)$ prend des vecteurs de $\mathcal{B}^{‘}$, donc la première matrice (celle à droite) prend des vecteurs de $\mathcal{B}^{‘}\ $: $P$.
Définition :
Soient $A$ et $A^{‘} \in \mathcal{M}_{n} \left( \mathbb{K} \right)$
On dit que $A$ et $A^{‘}$ sont semblables si et seulement s’il existe $P \in GL_{n} \left( \mathbb{K} \right)$ tel que $A^{‘} = PAP^{- 1}$
III. Polynôme caractéristique
Définition :
Soit $A \in \mathcal{M}_{n} \left( \mathbb{K} \right)$.
Le polynôme caractéristique de $A$ est noté $P_{A}(\lambda)$ est défini par :
\[P_{A}(\lambda) ≔ \det \left( A - \lambda I_{n} \right)\] \[P_{A}(\lambda)\mathbb{\in K}\lbrack\lambda\rbrack\]L’équation $P_{A}(\lambda) = 0$ est appelée équation caractéristique.
Proposition :
Deux matrices semblables ont le même polynôme caractéristique.
Démonstration :
Soient \(A,B \in \mathcal{M}_{n} \left( \mathbb{K} \right)\) \(P \in GL_{n} \left( \mathbb{K} \right)$, tels que $B = PAP^{- 1}\)
\(P_{B}(\lambda) = \det \left( B - \lambda I_{n} \right) = \det \left( PAP^{- 1} - \lambda PP^{- 1} \right)\) \(= \det \left( P \left( AP^{- 1} - \lambda P^{- 1} \right) \right)\) \(= \det \left( P \left( A - \lambda I_{n} \right)P^{- 1} \right)\) \(= \det(P)\det \left( A - \lambda I_{n} \right)\det \left( P^{- 1} \right)\) \(= \det \left( A - \lambda I_{n} \right)\det(P)\det \left( P^{- 1} \right)\)
Or $\det(P)\det \left( P^{- 1} \right) = 1$
Donc $P_{A}(\lambda) = P_{B}(\lambda)$
Conséquence :
Soit $f$ un endomorphisme. Quel que soit la base dans laquelle on écrit sa matrice, le polynôme caractéristique est le même. Il ne dépend pas de la base de calcul, il dépend que de $f$.
Définition :
Le polynôme caractéristique de $f$ est le polynôme caractéristique de $f$ dans la base $\mathcal{B}$
$P_{f}(\lambda) ≔ P_{Mat_{\mathcal{B}}(f)}(\lambda) = \det \left( Mat_{\mathcal{B}}(f) - \lambda I_{n} \right)$ où $\mathcal{B}$ est n’importe quelle base.
Proposition :
Soit $A \in M_{n} \left( \mathbb{K} \right),\ \lambda\mathbb{\in K}$
\[\lambda \in Sp(A) \Leftrightarrow P_{A}(\lambda) = 0\]Démonstration :
\[\lambda \in Sp(A) \Leftrightarrow \left( A - \lambda I_{n} \right)\ \text{non inversible} \Leftrightarrow \det \left( A - \lambda I_{n} \right) = 0\]Exemple :
\[A = \begin{pmatrix} 0 & 0 & 4 \\ 1 & 2 & 1 \\ 2 & 4 & - 2 \end{pmatrix}\]Trouver les valeurs propres de $A\ $:
\[A - \lambda I_{3} = \begin{pmatrix} - \lambda & 0 & 4 \\ 1 & 2 - \lambda & 1 \\ 2 & 4 & - 2 - \lambda \end{pmatrix}\] \[P_{A}(\lambda) = \left\vert \begin{matrix} - \lambda & 0 & 4 \\ 1 & 2 - \lambda & 1 \\ 2 & 4 & - 2 - \lambda \end{matrix} \right\vert\] \[P_{A}(\lambda) = - \lambda \left\vert \begin{matrix} 2 - \lambda & 1 \\ 4 & - 2 - \lambda \end{matrix} \right\vert + 4 \left\vert \begin{matrix} 1 & 2 - \lambda \\ 2 & 4 \end{matrix} \right\vert = \ldots = - \lambda^{3} + 16\lambda = - \lambda(\lambda - 4)(\lambda + 4)\]Alors $Sp(A) = \left\lbrace - 4,0,4 \right\rbrace$
Corollaire :
0 est valeur propre de $A$ si et seulement si $A$ n’est pas inversible.
Théorème : (Admis)
Soit $A \in \mathcal{M}_{n} \left( \mathbb{K} \right)$
\[P_{A}(\lambda) = ( - 1)^{n}\lambda^{n} + ( - 1)^{n - 1}Tr(A)\lambda^{- 1} + \ldots + \det(A)\]Corollaire :
Soit $A \in \mathcal{M}_{2} \left( \mathbb{K} \right)$
\[P_{A}(\lambda) = \lambda^{2} - Tr(A)\lambda + \det(A)\]Corollaire :
Une matrice de $\mathcal{M}_{n} \left( \mathbb{K} \right)$ a au plus $n$ valeurs propres.
Démonstration :
En effet, le polynôme caractéristique d’une matrice de $\mathcal{M}_{n} \left( \mathbb{K} \right)$ est de degré $n$ donc admet au plus $n$ racines.
Définition :
Soit $P \in \mathbb{K}\lbrack X\rbrack$
On appelle ordre de multiplicité d’une racine $a$ de $P$ le plus petit $n \in \mathbb{N}$ tel que $P$ est divisible par $(X - a)^{n}$.
On appelle ordre de multiplicité d’une valeur propre $\lambda$ son ordre de multiplicité pour le polynôme caractéristique. Il est noté $m_{\lambda}$.
Définition : Polynôme scindé
Soit $P \in \mathbb{K}\lbrack X\rbrack$. $P$ est scindé s’il peut s’écrire sous la forme :
\[P = c\prod_{i = 1}^{k}(X - a)^{m}\]Avec $a_{1},\ldots,a_{k}\mathbb{\in K}$ et $m_{1},\ldots,m_{k} \in \mathbb{N}^{*}$
\[\text{Alors}\deg P = \sum_{i = 1}^{k}m_{k}\]$P$ est scindé s’il admet exactement $n$ racines comptées avec multiplicité.
Exemple :
$P = X^{2} - 5X + 6 = (X - 2)(X - 3)$ est scindé.
$P = X^{3} - 4X^{2} + 5X - 2 = (X - 1)^{2}(X - 2)$ est scindé
$P = X^{2} + 1$ n’est pas scindé dans $\mathbb{R}$ (car n’a pas de racines) mais dans $\mathbb{C}$, $P = (X - i)(X + i)\mathbb{\in C}\lbrack X\rbrack$ donc $P$ est scindé.
Théorème de d’Alembert-Gauss :
Tout polynôme de $\mathbb{C}\lbrack X\rbrack$ est scindé. $\mathbb{C}$ est dit « corps algébriquement clos ».
Remarque :
$P \in \mathbb{R}\lbrack X\rbrack\mathbb{\subset C}\lbrack X\rbrack$ donc $P$ est scindé dans $\mathbb{C}$. Il est scindé sur $\mathbb{R}$ si et seulement si toutes ses racines sont réelles.
Corollaire :
Si $E$ est un $\mathbb{C -}ev$ de dimension $n$ alors $f \in \mathcal{L}(E)$ admet exactement $n$ valeurs propres comptées avec multiplicité.
Si $E$ est un $\mathbb{R -}ev$ de dimension $n$ alors $f \in \mathcal{L}(E)$ admet au plus $n$ valeurs propres comptées avec multiplicité.
Exemple :
\[A = \begin{pmatrix} 0 & 1 \\ - 1 & 0 \end{pmatrix}\] \[P_{A}(\lambda) = \lambda^{2} + 1\] \[Sp_{\mathbb{R}}(A) = \varnothing,\ Sp_{\mathbb{C}}(A) = \left\lbrace \pm i \right\rbrace\]Remarque :
Soit \(A \in \mathcal{M}_{n} \left( \mathbb{K} \right)\) tel que $P_{A}$ est scindé : \(P_{A}(\lambda) = ( - 1)^{n}\prod_{i = 0}^{h} \left( \lambda - \lambda_{i} \right)^{m_{i}}\)
Alors :
\[\sum_{i = 0}^{k}{m_{i}\lambda_{i}} = Tr(A)\] \[\prod_{i = 0}^{h}\lambda_{i}^{m_{i}} = \det(A)\]Démonstration :
On développe.
\[P_{A}(\lambda) = ( - 1)^{n}\lambda^{n} + ( - 1)^{n - 1} \left( \sum_{i = 0}^{n}{m_{i}\lambda_{i}} \right)\lambda^{n - 1} + \ldots + \prod_{i = 0}^{h}\lambda_{i}^{m_{i}}\]Remarque :
Dans $\mathbb{C}$, la proposition précédente est toujours vérifiée.
Théorème :
Soit
$A \in \mathcal{M}_{n} \left( \mathbb{K} \right)$ et $\lambda \in Sp(A)$
de multiplicité $m_{\lambda}$
Alors \(1 \leq \dim \left( E_{\lambda} \right) \leq m_{\lambda}\)
Démonstration :
Par définition :
$\lambda \in Sp_{\mathbb{K}}(A) \Rightarrow E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace$,
donc $\dim \left( E_{\lambda} \right) \geq 1_{}$
Si $\dim \left( E_{\lambda} \right) = n$, alors $E_{\lambda} = E$, donc $\forall x \in E,\ Ax = \lambda x$. Alors $A = \lambda I_{n}$, $ \left( A - \lambda I_{n} \right) = 0_{n}$.
$P_{A}(X) = \det \left( A - XI_{n} \right) = \det \left( (\lambda - Χ)I_{n} \right) = (\lambda - X)^{n}$ d’où $m_{\lambda} = n$.
Si $\dim \left( E_{\lambda} \right) = d_{\lambda} < n$.
Soit $ \left( e_{1},\ldots,e_{d_{\lambda}} \right)$ une base de $E_{\lambda}$ et $ \left\lbrace e_{d_{\lambda} + 1},\ldots,e_{n} \right\rbrace$ qui la complètent en une base de $E$.
Soit $f \in \mathcal{L}(E)$ telle que $A = Mat_{\mathcal{B}_{c}}(f)$ et
$\mathcal{B =} \left\lbrace e_{1},\ldots,e_{d_{\lambda}},e_{d_{\lambda} + 1},\ldots,e_{n} \right\rbrace$
\[B = Mat_{\mathcal{B}}(f) = \begin{bmatrix} \lambda & 0 & \cdots & 0 \\ 0 & \lambda & 0 & \vdots \\ \vdots & 0 & \ddots & 0 \\ 0 & 0 & 0 & \lambda \\ \vdots & \vdots & 0 & 0 \\ 0 & 0 & \cdots & 0 \end{bmatrix} \left\vert ? = \left( f \left( e_{1} \right) \right\vert f \left( e_{2} \right)\ldots f \left( e_{n} \right) \right)\]Or $f \left( e_{1} \right) = \lambda e_{1},\ \ldots,\ f \left( e_{d_{\lambda}} \right) = \lambda e_{d_{\lambda}}$
\[P_{A}(X) = P_{B}(X) = \det \left( B - XI_{n} \right) = \left\vert \begin{matrix} \lambda - X & 0 & \cdots & 0 \\ 0 & \lambda - X & 0 & \vdots \\ \vdots & 0 & \ddots & 0 \\ 0 & 0 & 0 & \lambda - X \\ \vdots & \vdots & 0 & 0 \\ 0 & 0 & \cdots & 0 \end{matrix}\ \vert \begin{matrix} \ \\ M \\ \ \\ \_\_ \\ \ \\ N \end{matrix} \right\vert = (\lambda - X)^{d_{\lambda}}\det(N)\]D’où $m_{\lambda} \geq d_{\lambda}$
Remarque :
Pour calculer $\dim \left( E_{\lambda} \right)$, on peut aussi utiliser le théorème du rang.
\[E_{\lambda} = \ker \left( f - I_{d} \right)\] \[\dim \left( {Im} \left( f - \lambda I_{d} \right) \right) + \dim \left( E_{\lambda} \right) = n\] \[rg \left( f - \lambda I_{d} \right) + \dim \left( E_{\lambda} \right) = n\] \[\dim \left( E_{\lambda} \right) = n - rg \left( f - \lambda I_{d} \right)\]Remarque :
Pour déterminer $E_{\lambda}$, on résout $AX = \lambda X$
Corollaire :
Si $\lambda$ est de multiplicité 1, alors $\dim \left( E_{\lambda} \right) = 1$
IV. Diagonalisation
1. Diagonalisation
Définition :
Soit $f \in \mathcal{L}(E)$. $f$ est diagonalisable s’il existe une base de $E$ formée de vecteurs propres.
Exemple :
Soit $f:\mathbb{R}^{2} \rightarrow \mathbb{R}^{2}$, $(x,y) \rightarrow \left( x - \frac{y}{2}, - \frac{x}{2} + y \right)$. Diagonaliser $f$.
\[Sp(f) = \left\lbrace \frac{1}{2};\frac{3}{2} \right\rbrace\] \[v_{1} = \begin{pmatrix} 1 \\ 1 \end{pmatrix}\]est vecteur propre de $\frac{1}{2}$
\[v_{2} = \begin{pmatrix} 1 \\ \ - 1 \end{pmatrix}\]est vecteur propre de $\frac{3}{2}$.
$\mathcal{B} \left( v_{1},v_{2} \right)$ est une base de vecteurs propres de $\mathbb{R}_{2}$. Alors $f$ est diagonalisable.
Proposition :
Soit $f \in \mathcal{L}(E)$. $f$ est diagonalisable si et seulement s’il existe une base $\mathcal{B}$ de $E$ telle que $Mat_{\mathcal{B}}(f)$ est diagonale.
Démonstration :
$f$ est diagonalisable $\Leftrightarrow$ il existe une base $\mathcal{B}$ de $E$ formée de vecteurs propres : $\left\lbrace e_{1},\ldots,e_{n} \right\rbrace $.
\[Mat_{\mathcal{B}}(f) = \left( f\left( e_{1} \right)\ldots f\left( e_{n} \right) \right)\]Or $f\left( e_{1} \right) = \lambda_{1}e_{1}$, … $f\left( e_{n} \right) = \lambda_{n}e_{n}$
\[Mat_{\mathcal{B}}(f) = diag\left( \lambda_{1},\ldots,\lambda_{n} \right)\]2. Diagonalisation de matrices
Définition :
Soit $A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$.
$A$ est diagonalisable s’il existe une base de vecteurs propres.
$A$ est diagonalisable si elle est semblable à une matrice diagonale.
$A$ diagonalisable $\Leftrightarrow \exists D$ diagonale, $P \in \mathcal{M}_{n}\left( \mathbb{K} \right)$ inversible telle que $A = PDP^{- 1}$
Théorème :
Si $A$ admet $n$ valeurs propres distinctes, alors $A$ est diagonalisable.
Démonstration :
$A$ admet $n$ valeurs propres distinctes $\lambda_{1},\ldots,\lambda_{n}$.
Donc soit $v_{1},\ldots,v_{n}$ des vecteurs propres associés.
Les sous-espaces propres sont en somme directe, donc la famille $\left( v_{1},\ldots,v_{n} \right)$ forme une base de $\mathbb{R}^{n}$ de vecteurs propres.
Exemple :
Soit \(A = \begin{pmatrix} a_{11} & \ldots & a_{1n} \\ \ & \ddots & \ \\ 0 & \ldots & a_{nn} \end{pmatrix}\)
\[P_{A}(\lambda) = \det\left( A - \lambda I_{n} \right) = \left\vert \begin{matrix} a_{11} - \lambda & \ldots & a_{1n} \\ \ & \ddots & \ \\ 0 & \ldots & a_{nn} - \lambda \end{matrix} \right\vert = \prod_{i = 1}^{n}\left( a_{ii} - \lambda \right)\]Si les $a_{ii}$ sont tous deux à deux distincts alors $A$ est diagonalisable.
\[A = \begin{pmatrix} 3 & 1 \\ - 2 & 0 \end{pmatrix}\] \[P_{A}(\lambda) = \lambda^{2} - 3\lambda + 2 = (\lambda - 1)(\lambda - 2)\]Donc deux valeurs propres distinctes, donc $A$ est diagonalisable.
Trouvons les vecteurs propres :
Soit \(v_{1} = \begin{pmatrix} x \\ y \end{pmatrix}\) tels que $Av_{1} = v_{1}$
\[\Leftrightarrow \begin{pmatrix} 3x + y \\ - 2x \end{pmatrix} = \begin{pmatrix} x \\ y \end{pmatrix} \Leftrightarrow \left\lbrace \begin{array}{r} 2x = - y \\ - 2x = y \end{array} \right. \Leftrightarrow v_{1} = \begin{pmatrix} 1 \\ - 2 \end{pmatrix}\]\(v_{2} = \begin{pmatrix} 1 \\ - 1 \end{pmatrix}\) est vecteur propre pour la valeur propre 2
\[P = \begin{pmatrix} 1 & 1 \\ - 2 & - 1 \end{pmatrix}\] \[A = PDP^{- 1}\] \[D = Mat_{\mathcal{B}_{p}}f = \left( \left( f\left( v_{1} \right) \right)_{\mathcal{B}_{p}}\left( f\left( v_{2} \right) \right)_{\mathcal{B}_{p}} \right),\ f\left( v_{1} \right) = v_{1},\ f\left( v_{2} \right) = 2v_{2}\] \[D = \begin{pmatrix} 1 & 0 \\ 0 & 2 \end{pmatrix}\]Remarque :
L’ordre des colonnes de $P$ est très important, il indique l’ordre des vecteurs de la base.
Si on a \(Q = \begin{pmatrix} 1 & 1 \\ - 1 & - 2 \end{pmatrix}\), alors \(A = Q\begin{pmatrix} 2 & 0 \\ 0 & 1 \end{pmatrix}Q^{- 1}\)
Théorème :
$A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$ est diagonalisable si et seulement si la somme des dimensions des espaces propres vaut $n$.
Démonstration :
Si $\lambda_{1},\ldots,\lambda_{l}$ sont les valeurs propres de $A$, alors $E_{\lambda_{1}} \oplus \ldots \oplus E_{\lambda_{l}} \subset \mathbb{K}^{n}$
Si $\dim\left( E_{\lambda_{1}} \oplus \ldots \oplus E_{\lambda_{l}} \right) = \dim\left( E_{\lambda_{1}} \right) + \ldots + \dim\left( E_{\lambda_{l}} \right) = n$, alors $E_{\lambda_{1}} \oplus \ldots \oplus E_{\lambda_{l}} = \mathbb{K}^{n}$
On prend \(\mathcal{B}_{v_{p}}\left( v_{1},\ldots,v_{k_{1}},v_{k_{1} + 1},\ldots,v_{k_{2}},v_{k_{2} + 1},\ldots,v_{k_{l}} \right)\)
base de $E_{\lambda_{1}} \oplus \ldots \oplus E_{\lambda_{l}}$
Alors \(\mathcal{B}_{v_{p}}\)
est une base de vecteurs propre et $A$ est diagonale dans cette base.
Théorème :
\[A \in \mathcal{M}_{n}\left( \mathbb{K} \right)\]est diagonalisable si et seulement si
\[E_{\lambda_{1}} + \ldots + E_{\lambda_{n}} = \mathbb{K}^{n}\]Preuve :
Idem
Théorème :
$A$ est diagonalisable si et seulement si :
$P_{A}$ est scindé
$\forall\lambda \in S_{p}(A),\dim\left( E_{\lambda} \right) = m_{\lambda}$
Preuve :
\[P_{A}(\lambda) = \prod_{\lambda \in Sp(A)}^{}(X - \lambda)^{m_{\lambda}}\]Remarque :
\[n = \deg\left( P_{A} \right) = \sum_{\lambda \in Sp(A)}^{}m_{\lambda}\]Rappel :
\[1 \leq \dim\left( E_{\lambda} \right) \leq m_{\lambda}\] \[\dim\left( E_{\lambda_{1}} \oplus \ldots \oplus E_{\lambda_{l}} \right) = \dim\left( E_{\lambda_{1}} \right) + \ldots + \dim\left( E_{\lambda_{l}} \right)\]$A$ diagonalisable $\Leftrightarrow \dim\left( E_{\lambda_{1}} \right) + + \ldots + \dim\left( E_{\lambda_{l}} \right) = n$
\[\Leftrightarrow \dim\left( E_{\lambda} \right) = m_{\lambda}\forall\lambda \in Sp(A)\]Méthode : Diagonaliser :
Calculer $P_{A}$ (non scindé $\rightarrow$ non diagonalisable)
Trouver les racines de $P_{A}\ $: trouver $Sp(A)$
Trouver les bases des $E_{\lambda}$
Si $\dim\left( E_{\lambda} \right) = m_{\lambda}\ \forall\lambda \in Sp(A)$ alors diagonalisable, sinon non
V. Trigonalisation
1. Introduction
Une matrice \(A = \begin{pmatrix} a_{11} & \ & a_{1n} \\ \ & \ddots & \ \\ 0 & \ & a_{nn} \end{pmatrix}\) est dite triangulaire supérieure.
Proposition :
Toute matrice triangulaire supérieure est semblable à une matrice inférieure.
Preuve :
\(P = \begin{pmatrix} 0 & \ & 1 \\ \ & / & \ \\ 1 & \ & 0 \end{pmatrix}\) est une matrice inversible.
Alors \(A = P\begin{pmatrix} a_{nn} & \ & 0 \\ \ & \ddots & \ \\ a_{1n} & \ & a_{11} \end{pmatrix}P^{- 1}\)
Soit $\left( e_{1},\ldots,e_{n} \right)$ la base canonique et $\mathcal{B}^{‘} = \left( e_{n},\ldots,e_{1} \right) = \left( \varepsilon_{1},..,\varepsilon_{n} \right)$ la nouvelle base.
Remarque :
$P$ est la matrice de passage de $\mathcal{B}$ à $\mathcal{B}^{‘}$
Si
\[A = Mat_{\mathcal{B}_{c}}(f),\ f\left( e_{1} \right) = a_{11}e_{1},\ f\left( e_{2} \right) = a_{12}e_{1} + a_{22}e_{2}\] \[f\left( \varepsilon_{1} \right) = a_{1n}e_{1} + \ldots + a_{nn}e_{n} = a_{1n}\varepsilon_{n} + \ldots + a_{nn}\varepsilon_{1}\] \[f\left( \varepsilon_{n} \right) = a_{11}\varepsilon_{n}\]Dorénavant, une matrice triangulaire fera référence avec une matrice triangulaire supérieure
2. Trigonalisation
Définition :
Soit $A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$.
$A$ est trigonalisable si elle est semblable à une matrice triangulaire $T$.
Soit $f\mathcal{\in L}(E)$
$f$ est trigonalisable s’il existe une base $\mathcal{B}$ telle que $Mat_{\mathcal{B}}(f)$ est triangulaire.
Remarque :
Diagonalisable $\Rightarrow$ Trigonalisable
Théorème :
$A$ est trigonalisable si et seulement si $P_{A}$ est scindé.
$f$ est trigonalisable si et seulement si $P_{f}$ est scindé.
Démonstration
Par récurrence sur $\dim(E) = n$
$H_{n}:$ « $f\mathcal{\in L}(E)$ telle que $\dim(E) = n$ : $P_{f}$ scindé $\Rightarrow$ $f$ est trigonalisable »
\[n = 1:\]Soit $\mathcal{B}_{c}$
la base canonique de $\mathbb{K}$,
$Mat_{\mathcal{B}_{c}}f = (a)$
$P_{f}(\lambda) = a - \lambda$ et $P_{f}$ est scindé.
Remarque :
$Mat_{\mathcal{B}_{c}}(f)$
est diagonalisable donc trigonalisable donc $H_{1}$ est vraie.
Hérédité :
On suppose $H_{n}$, montrons $H_{n + 1}$
Soit $E$ tel que $\dim(E) = n + 1$, $f\mathcal{\in L}(E)$ tel que $P_{f}$ est scindé.
\[P_{f}(X) = \prod_{\lambda \in Sp(f)}^{}(X - \lambda)^{m_{\lambda}}\]Donc $P_{f}$ admet au moins une racine $\lambda \in Sp(f)$, sont $v_{1}$ un vecteur propre associé.
Soit $\mathcal{B =}\left( v_{1},\ldots,v_{n + 1} \right)$ une base de $E$.
\[E = {Vect}\left( v_{1} \right) \oplus {Vect}\left( v_{2},\ldots,v_{n + 1} \right)\] \[Mat_{\mathcal{B}}(f) = \begin{pmatrix} \lambda & * & * & * \\ 0 & \ & \ & \ \\ \vdots & \ & B & \ \\ 0 & \ & \ & \ \end{pmatrix}\] \[P_{f}(X) = \left\vert \begin{matrix} \lambda - X & * & * & * \\ 0 & \ & \ & \ \\ \vdots & \ & B - XI_{n} & \ \\ 0 & \ & \ & \ \end{matrix} \right\vert = (\lambda - X)\det\left( B - XI_{n} \right) = (\lambda - X)P_{B}(X)\]$P_{f}$ est scindé donc $P_{B}$ aussi.
$B \in \mathcal{M}_{n}\left( \mathbb{K} \right)$
et $P_{B}$ est scindé.
D’après $H_{n}$, $B$ est trigonalisable.
Soit $P$ inversible telle que $PBP^{- 1} = T$ triangulaire et \(P^{'} = \begin{pmatrix} 1 & 0 & \ldots & 0 \\ 0 & \ & \ & \ \\ \vdots & \ & P & \ \\ 0 & \ & \ & \ \end{pmatrix} \in GL_{n + 1}\left( \mathbb{K} \right)\)
Alors :
\(P^{'}AP^{' - 1} = \begin{pmatrix} \lambda & * & * & * \\ 0 & \ & \ & \ \\ \vdots & \ & PBP^{- 1} & \ \\ 0 & \ & \ & \ \end{pmatrix} = \begin{pmatrix} \lambda & * & * & * \\ 0 & \ & \ & \ \\ \vdots & \ & T & \ \\ 0 & \ & \ & \ \end{pmatrix}\) triangulaire.
D’où $f$ trigonalisable.
On a montré par récurrence que $P_{f}$ scindé $\Rightarrow f$ trigonalisable.
Pour montrer la réciproque, si $f$ est trigonalisable, il existe une base $\mathcal{B}$ telle que \(Mat_{\mathcal{B}}(f) = \begin{pmatrix} a_{11} & \ & a_{1n} \\ \ & \ddots & \ \\ 0 & \ & a_{nn} \end{pmatrix}\)
D’où $P_{f}(X) = \prod_{i = 1}^{n}\left( a_{ii} - X \right)$ scindé.
Remarque :
Si $A$ est trigonalisable, alors les valeurs de la diagonale de la matrice triangulaire correspondante sont les valeurs propres de $A$ comptées avec multiplicité. Si \(A = P\begin{pmatrix} \lambda_{1} & \ & * \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n} \end{pmatrix}P^{- 1}\)
\[P_{A}(X) = P_{\begin{pmatrix} \lambda_{1} & \ & * \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n} \end{pmatrix}}(X) = \left\vert \begin{matrix} \lambda_{1} & \ & * \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n} \end{matrix} \right\vert = \prod_{i = 1}^{n}\left( \lambda_{i} - X \right)\]Corollaire :
Dans $\mathcal{M}_{n}\left( \mathbb{C} \right)$, toutes les matrices sont trigonalisables.
Démonstration : Dans $\mathbb{C}\lbrack X\rbrack$, tous les polynômes sont scindés.
Classification des matrices trigonalisables de $\mathcal{M}_{3}\left( \mathbb{C} \right)$
Si $A = \mathcal{M}_{3}\left( \mathbb{C} \right)$, 3 cas de figure possibles.
- Si $P_{A}(X) = \left( X - \lambda_{1} \right)\left( X - \lambda_{2} \right)\left( X - \lambda_{3} \right)$ où $\lambda_{1},\lambda_{2},\lambda_{3}$ sont distinctes, alors :
- Si $P_{A}(X) = \left( X - \lambda_{2} \right)^{2}\left( X - \lambda_{1} \right)$
Si $\dim\left( E_{\lambda_{2}} \right) = 2$, alors \(A = P\begin{pmatrix} \lambda_{1} & \ & 0 \\ \ & \lambda_{2} & \ \\ 0 & \ & \lambda_{2} \end{pmatrix}P^{- 1}\)
Si $\dim\left( E_{\lambda_{2}} \right) = 1$
Soit $v_{1}$ vecteur propre de $\lambda_{1}$, $v_{2}$ vecteur propre de $\lambda_{2}$, \(P = \begin{pmatrix} v_{1} & v_{2} & ? \end{pmatrix}\)
- Si $P_{A}(X) = (X - \lambda)^{3}$
- Si $\dim\left( E_{\lambda} \right) = 3,\ E_{\lambda} = \mathbb{R}^{3}$
Si une matrice n’est pas diagonale mais admet une valeur propre triple, alors elle n’est pas diagonalisable.
- Si $\dim\left( E_{\lambda} \right) = 2$
\(A = P\begin{pmatrix} \lambda & 0 & a \\ 0 & \lambda & b \\ 0 & 0 & \lambda \end{pmatrix}P^{- 1}\) avec $(a,b) \neq (0,0)$
Soit $\left( v_{1},v_{2} \right)$ base de $E_{\lambda}$. $P = (\begin{matrix} v_{1} & v_{2} & ? \end{matrix})$
- Si $\dim\left( E_{\lambda} \right) = 1$
\(A = P\begin{pmatrix} \lambda & a & b \\ 0 & \lambda & c \\ 0 & 0 & \lambda \end{pmatrix}P^{- 1}\) avec $a \neq 0$ et $(b,c) \neq (0,0)$
Soit $v_{1}$ un vecteur propre.
\[P = \begin{pmatrix} v_{1} & ? & ? \end{pmatrix}\]Résumé :
$P_{A}$ scindé $\Rightarrow$ $A$ trigonalisable.
$\mathbb{K = C \Rightarrow}A$ trigonalisable.
Chapitre 2 : Application de la diagonalisation et de la trigonalisation
Définition :
Soit $A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$, $k \in \mathbb{N}$.
$A^{k} = A \times \ldots \times A\ $($k$ fois)
Si $A \in GL_{n}\left( \mathbb{K} \right)$ (matrices inversibles).
\[\forall k \in \mathbb{N,\ }A^{- k} = \left( A^{- 1} \right)^{k}\]Remarque :
Si $A = \begin{pmatrix} a & b
c & d \end{pmatrix}$, $A^{2} \neq \begin{pmatrix} a^{2} & b^{2}
c^{2} & d^{2} \end{pmatrix}$ en général.
On peut trouver des matrices nilpotentes : $\exists k,\ A^{k} = 0_{n}$
avec $A \neq 0_{n}$
Exemple :
\[A = \begin{pmatrix} 1 & - 1 \\ 1 & - 1 \end{pmatrix}\]alors \(A^{2} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}\)
Proposition :
Si $A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$ et $\lambda$ valeur propre de $A$.
$\forall k \in \mathbb{N,\ }\lambda^{k}$ est valeur propre de $A^{k}$
Si $A \in GL_{n}\left( \mathbb{K} \right)$, $\forall k \in \mathbb{Z}$, $\lambda^{k}$ est valeur propre de $A^{k}$
Preuve : Voir TD
Proposition :
$\forall k,i \in \mathbb{N}$ et $\forall A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$
\[A^{i}A^{k} = A^{i + k},\ \left( A^{i} \right)^{k} = A^{ik}\]Proposition :
Soit \(D = \begin{pmatrix} \lambda_{1} & \ & 0 \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n} \end{pmatrix},\ T = \begin{pmatrix} \lambda_{1} & \ & * \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n} \end{pmatrix}\)
Alors :
\[D^{k} = \begin{pmatrix} \lambda_{1}^{k} & \ & 0 \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n}^{k} \end{pmatrix},\ T^{k} = \begin{pmatrix} \lambda_{1}^{k} & \ & \# \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n}^{k} \end{pmatrix}\]Preuve : Produit matriciel.
I. Formule du binôme
1. Formule du binôme
Définition :
Soit $A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$. $A$ est nilpotente d’ordre $p \in \mathbb{N}$ si et seulement si :
$A^{p} = (0)$ et $A^{p - 1} \neq 0$
Remarque :
\(\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}\) est nilpotente d’ordre 2.
\(\begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\) est nilpotente d’ordre 3.
Exercice :
Montrer que \(\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}\) est nilpotente d’ordre 2.
Montrer que \(\begin{pmatrix} 0 & a & c \\ 0 & 0 & b \\ 0 & 0 & 0 \end{pmatrix}\) est nilpotente d’ordre 3.
Montrer que \(\begin{pmatrix} 0 & 0 & a \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\) est nilpotente d’ordre 3.
\[\begin{pmatrix} 0 & a & c \\ 0 & 0 & b \\ 0 & 0 & 0 \end{pmatrix}^{2} = \begin{pmatrix} 0 & 0 & ab \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\]Remarque :
Toute matrice triangulaire supérieure stricte est nilpotente.
Théorème :
Soient $A$ et $B$ $\in \mathcal{M}_{n}\left( \mathbb{K} \right)$ telles que $AB = BA$
\[(A + B)^{k} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i}B^{i}}\]Rappel : $\left( \begin{array}{r} k
i \end{array} \right) = \frac{k\ !}{i\ !(k - i)\ !}$
On peut les retrouver avec le triangle de Pascal.
Démonstration : Par récurrence
Initialisation pour $k = 1\ $: trivial
\[\text{Supposons que}\ (A + B)^{k} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i}B^{i}}\] \[(A + B)^{k + 1} = (A + B)(A + B)^{k}\] \[(A + B)^{k + 1} = (A + B)\left( \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i}B^{i}} \right)\] \[(A + B)^{k + 1} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i + 1}B^{i}} + \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)BA^{k - i}B^{i}}\]Or $AB = BA$
\[(A + B)^{k + 1} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i + 1}B^{i}} + \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i}B^{i + 1}}\] \[(A + B)^{k + 1} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i + 1}B^{i}} + \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i}B^{i + 1}}\] \[(A + B)^{k + 1} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i + 1}B^{i}} + \sum_{j = 1}^{k + 1}{\left( \begin{array}{r} k \\ j - 1 \end{array} \right)A^{k - j + 1}B^{j}}\] \[(A + B)^{k + 1} = \sum_{j = 0}^{k + 1}{\left\lbrack \left( \begin{array}{r} k \\ j \end{array} \right) + \left( \begin{array}{r} k \\ j + 1 \end{array} \right) \right\rbrack A^{k - j + 1}B^{j}}\] \[(A + B)^{k + 1} = \sum_{j = 0}^{k + 1}{\left( \begin{array}{r} k + 1 \\ j \end{array} \right)A^{k - j + 1}B^{j}}\]Ce qui prouve l’hérédité.
Attention : La formule est fausse si $A$ et $B$ ne commutent pas
Remarque :
En pratique, si $T$ est triangulaire supérieure, alors $T = D + N$, avec $D$ diagonale et $N$ triangulaire supérieure stricte donc nilpotente et $DN = ND$
Exemple :
\[A = \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} + \begin{pmatrix} 0 & 2 \\ 0 & 0 \end{pmatrix}\] \[D^{n} = D\ \forall n \in \mathbb{N}\] \[N^{n} = 0\ \forall n > 1\] \[A^{n} = (D + N)^{n} = \sum_{k = 0}^{n}{\left( \begin{array}{r} n \\ k \end{array} \right)D^{n - k}N^{k}} = D^{n} + \left( \begin{array}{r} n \\ 1 \end{array} \right)D^{n - 1}N = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} + n\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\begin{pmatrix} 0 & 2 \\ 0 & 0 \end{pmatrix}\] \[A^{n} = \begin{pmatrix} 1 & 2n \\ 0 & 1 \end{pmatrix}\]Exemple :
\[T = \begin{pmatrix} - 1 & 0 & 0 \\ 0 & 3 & 1 \\ 0 & 0 & 3 \end{pmatrix} = \begin{pmatrix} - 1 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 3 \end{pmatrix} + \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\]2. Puissance de matrices semblables
Proposition :
Si $A = PBP^{- 1}$
Alors :
\[A^{k} = PB^{k}P^{- 1}\]Démonstration :
\[A^{2} = PBP^{- 1}PBP^{- 1} = PBIBP^{- 1} = PB^{2}P^{- 1}\]Etc.
Proposition :
Si $A$ est diagonalisable : $A^{k} = PD^{k}P^{- 1}$