Post

CM Algèbre linéaire et bilinéaire

Chapitre 1 : Algèbre linéaire

Rappel :

Un $\mathbb{K}$-e.v. $(E, + , \bullet )$ vérifie

\[\forall x,y \in E,\ \forall\lambda,\mu\mathbb{\in K,\ }\lambda x + \mu y \in E\]

Soit $f:E \rightarrow F$ avec $E$ et $F$ des $\mathbb{K}$-e.v.

$f$ est linéaire si et seulement si $\forall x,y \in E,\ \forall\lambda,\mu \in \mathbb{K,\ }f(\lambda x + \mu y) = \lambda f(x) + \mu f(y)$

Exemple :

Soit $f\ :\mathbb{R}^{2} \rightarrow \mathbb{R}^{2}$

\[(x,\ y) \rightarrow \left( 2x,\frac{1}{3}y \right)\]

Soit $v = (0,1)$ alors $f(v) = \left( 0,\frac{1}{3} \right)$

Soit $u = (1,0)$ alors $f(u) = (2,0)$

Soit $w = (1,1)$ alors $f(w) = \left( 2,\frac{1}{3} \right)$

Soit $f:\mathbb{R}^{2} \rightarrow \mathbb{R}^{2}$

\[(x,y) \rightarrow (x + y,x - y)\] \[f(1,0) = (1,1)\] \[f(0,1) = (1, - 1)\]

Soit $\varepsilon_{1} = \left( 1 + \sqrt{2},\ 1 \right)$ et $\varepsilon_{2} = \left( 1 - \sqrt{2},\ 1 \right)$

\[f \left( \varepsilon_{1} \right) = \left( 2 + \sqrt{2},\ \sqrt{2} \right) = \sqrt{2} \left( 1 + \sqrt{2},\ 1 \right) = \sqrt{2}\varepsilon_{1}\] \[f \left( \varepsilon_{2} \right) = \left( 2 - \sqrt{2},\ - \sqrt{2} \right) = - \sqrt{2} \left( 1 - \sqrt{2},\ 1 \right) = - \sqrt{2}\varepsilon_{2}\]

Soit $u = \alpha\varepsilon_{1} + \beta\varepsilon_{2}$

Alors $f(u) = \alpha f \left( \varepsilon_{1} \right) + \beta f \left( \varepsilon_{2} \right) = \alpha\varepsilon_{1}\sqrt{2} - \beta\varepsilon_{2}\sqrt{2}$

I. Eléments propres

Rappel :

Un endomorphisme $f\mathcal{\in L}(E)$ est une application linéaire $f:E \rightarrow E$

1. Valeurs propres et vecteurs propres

Définition : Valeurs propres

Soit $f\mathcal{\in L}(E)$ (un endomorphisme de $E$) et $\lambda \in \mathbb{K}$

On dit que $\lambda$ est une valeur propre de $f$ si et seulement s’il existe $v \in E\backslash \left\lbrace 0_{E} \right\rbrace$ tel que $f(v) = \lambda v$

Remarque :

\[f \left( 0_{E} \right) = 0_{E} = \lambda 0_{E}\ \forall\lambda\mathbb{\in K}\]
  • Le vecteur $v$ est alors appelé vecteur propre de $f$ associé à la valeur propre $\lambda$.

  • L’ensemble des valeurs propres de $f$ est appelé le spectre de $f$ noté $Sp(f)$

  • Soit $v \in E\backslash\left\lbrace 0_{E}\right\rbrace$. $v$ est un vecteur propre de $f$ si et seulement si $\exists\lambda\mathbb{\in K,\ }f(v) = \lambda v$

  • Les valeurs propres et les vecteurs propres sont les éléments propres de $f$

Exemple :

\[f:\mathbb{R}^{2} \rightarrow \mathbb{R}^{2}\] \[(x,y) \rightarrow \left( x - \frac{y}{2},\ - \frac{x}{2} + y \right)\]

Montrer que $v_{1} = (1,1)$ est un vecteur propre de $f$ associé à la valeur propre $\lambda_{1} = \frac{1}{2}$.

\[f \left( v_{1} \right) = \left( \frac{1}{2},\frac{1}{2} \right) = \frac{1}{2}(1,1) = \lambda_{1}v_{1}\]

Soit $v_{2} = (1, - 1)$. On a $f \left( v_{2} \right) = \frac{3}{2}v_{2}$

Rappel :

$F \subset E$ est un sous-espace vectoriel si :

  • C’est un espace vectoriel

  • $\forall x,y \in F,\ \forall\lambda,\mu\mathbb{\in K,\ }\lambda x + \mu y \in F$

2. Sous-espaces propres

Rappel : $\ker f = \left\lbrace x \in E,\ f(x) = 0_{E} \right\rbrace$, $\ker f$ est un s.e.v. de $E$

Proposition :

Soit $f\mathcal{\in L}(E)$ et $\lambda \in \mathbb{K}$

L’ensemble $E_{\lambda}$ défini par $E_{\lambda} = \left\lbrace x \in E,\ f(x) = \lambda x \right\rbrace$ est un sous-espace vectoriel.

En particulier, il est égal à $E_{\lambda} = \ker(f - \lambda Ιd)$

Démonstration : Montrons que $E_{\lambda} = \ker(f - \lambda Id)$

\[x \in E_{\lambda}\] \[\Leftrightarrow (x) = \lambda x \Leftrightarrow f(x) - \lambda x = 0_{E} \Leftrightarrow (f - \lambda Id)(x) = 0\] \[\Leftrightarrow x \in \ker(f - \lambda Id)\]

Donc $E_{\lambda}$ est un s.e.v.

Définition :

Si \(E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace\) alors $E_{\lambda}$ est appelé sous-espace propre associé à $\lambda$.

Rappel :

$f$ est injective si et seulement si $f(x) = f(y) \Rightarrow x = y$

Si $f:E \rightarrow F$ est une application linéaire, alors $f$ est injective si et seulement si $\ker f = \left\lbrace 0_{E} \right\rbrace$

$f$ est surjective si et seulement si $\forall y \in F,\ \exists x \in E,\ f(x) = y$

Si $f\ :E \rightarrow F$ est une application linéaire, alors $f$ est surjective si et seulement si $\text{Im}\ f = F$ avec $\text{Im}\ f ≔ f(E) = \left\lbrace f(x),\ x \in E \right\rbrace \subset F \text{Im}\ f$ est un s.e.v. de $F$.

Proposition :

Soit $f\mathcal{\in L}(E),\ \lambda\mathbb{\in K}$

\[\lambda \in Sp(f) \Leftrightarrow E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace \Leftrightarrow (f - \lambda Id)\ \text{n'est pas injective}\]

Démonstration :

\[\lambda \in Sp(f) \Leftrightarrow \exists x \in E\backslash \left\lbrace 0_{E} \right\rbrace,\ f(x) = \lambda x \Leftrightarrow x \in E_{\lambda} \Leftrightarrow E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace\]

Or $E_{\lambda} = \ker(f - \lambda Id)$ donc $E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace \Leftrightarrow (f - \lambda Id)\ \text{n’est pas injective}$

Proposition :

Soit $f\mathcal{\in L}(E)$, $v_{1}$ et $v_{2}$ deux vecteurs propres de $f$ associés à $\lambda_{1}$ et $\lambda_{2}\mathbb{\in K}$ tels que $\lambda_{1} \neq \lambda_{2}$

Alors $v_{1}$ et $v_{2}$ sont libres (non colinéaires).

Démonstration :

Montrons que $v_{1}$ et $v_{2}$ ne sont pas colinéaires. $v_{1}$ et $v_{2}$ sont colinéaires si et seulement si $\exists\alpha\mathbb{\in K,\ }v_{1} = \alpha v_{2}$

Par l’absurde, supposons que $v_{1}$ et $v_{2}$ sont colinéaires, $v_{1} = \alpha v_{2},\ \alpha\mathbb{\in K}$

\[f \left( v_{1} \right) = \lambda_{1}v_{1},\ f \left( v_{2} \right) = \lambda_{2}v_{2}\]

Aussi, $f \left( v_{1} \right) = f \left( \alpha v_{2} \right) = \alpha f \left( v_{2} \right) = \alpha\lambda_{2}v_{2}$

Ainsi $\lambda_{1}v_{1} = \alpha\lambda_{2}v_{2}$

Si $\lambda_{1} \neq 0$

Donc $v_{1} = \alpha \left( \frac{\lambda_{2}}{\lambda_{1}} \right)v_{2}$ et $v_{1} = \alpha v_{2}$

Donc $\frac{\lambda_{2}}{\lambda_{1}} = 1,\ \lambda_{1} = \lambda_{2}$, ce qui est absurde.

Si $\lambda_{1} = 0$, alors $\lambda_{2} \neq 0$

\[f \left( v_{2} \right) = f \left( \frac{1}{\alpha}v_{1} \right) = \frac{1}{\alpha}f \left( v_{2} \right) = \frac{1}{\alpha}\lambda_{1}v_{1}\] \[f \left( v_{2} \right) = \lambda_{2}v_{2}\] \[v_{2} = \frac{1}{\alpha}\frac{\lambda_{1}}{\lambda_{2}}v_{1} = \frac{1}{\alpha}v_{1}\]

Donc $\lambda_{1} = \lambda_{2}$ ce qui est absurde.

Rappel :

Soit $U = \left\lbrace u_{1},\ldots,u_{n} \right\rbrace$ famille de vecteurs d’un e.v. $E$.

$U$ est une famille libre de $E$ si et seulement si

\[\alpha_{1}u_{1} + \ldots + \alpha_{n}u_{n} \Rightarrow \alpha_{1} = \ldots = \alpha_{n} = 0\]

Une famille est liée si elle n’est pas libre.

Théorème :

Soit $v_{1},\ldots,v_{p}$ $p$ vecteurs propres de $f$ associés aux valeurs propres $\lambda_{1},\ldots,\lambda_{p}$ tels que les $\lambda_{i}$ sont différents deux à deux (uniques).

Alors la famille $ \left\lbrace v_{1},\ldots,v_{p} \right\rbrace$ est libre.

Démonstration : Par récurrence

Le cas $p = 2$ est la proposition précédente.

Supposons $ \left\lbrace v_{1},\ \ldots,\ v_{p + 1} \right\rbrace$ des vecteurs propres associés à $\lambda_{1},\ldots,\lambda_{p + 1}\mathbb{\in K}$

Alors $\left\lbrace v_{1},\ldots,v_{p}\right\rbrace$ sont des vecteurs propres de $f$ et par hypothèse de récurrence ils forment une famille libre.

Soit $\alpha_{1},\ldots,\alpha_{p + 1}\mathbb{\in K}$ tels que $\alpha_{1}v_{1} + \ldots + \alpha_{p + 1}v_{p + 1} = 0_{E}\ (*)$

On applique $f$ à $(*)\ $:

\[f \left( \alpha_{1}v_{1} + \ldots + \alpha_{p + 1}v_{p + 1} \right) = f \left( 0_{E} \right) = 0_{E}\]

Par linéarité de $f$,

\[\alpha_{1}f \left( v_{1} \right) + \ldots + \alpha_{p + 1}f \left( v_{p + 1} \right) = 0_{E}\] \[\alpha_{1}\lambda_{1}v_{1} + \ldots + \alpha_{p + 1}\lambda_{p + 1}v_{p + 1} = 0_{E}\ (1)\]

En multipliant $(*)$ par $\lambda_{p + 1}$,

\[\lambda_{p + 1} \left( \alpha_{1}v_{1} + \ldots + \alpha_{p + 1}v_{p + 1} \right) = 0_{E}\ (2)\]

Avec $(1) - (2)$

\[\left( \alpha_{1}\lambda_{1}v_{1} + \ldots + \alpha_{p + 1}\lambda_{p + 1}v_{p + 1} \right) - \left( \alpha_{1}\lambda_{p + 1}v_{1} + \ldots + \alpha_{p + 1}\lambda_{p + 1}v_{p + 1} \right) = 0_{E}\] \[\left( \alpha_{1}\lambda_{1}v_{1} + \ldots + \alpha_{p}\lambda_{p}v_{p} \right) - \left( \alpha_{1}\lambda_{p + 1}v_{1} + \ldots + \alpha_{p}\lambda_{p + 1}v_{p} \right) = 0_{E}\] \[\alpha_{1} \left( \lambda_{1} - \lambda_{p + 1} \right)v_{1} + \ldots + \alpha_{p} \left( \lambda_{p} - \lambda_{p + 1} \right)v_{p} = 0_{E}\]

Or, par hypothèse de récurrence, $ \left\lbrace v_{1},\ldots,v_{p} \right\rbrace$ est une famille libre.

\[\alpha_{1} \left( \lambda_{1} - \lambda_{p + 1} \right) = \ldots = \alpha_{p} \left( \lambda_{p} - \lambda_{p + 1} \right) = 0\]

Or les $\lambda_{i}$ sont distincts deux à deux, $\forall i \in \left. ⟦1,p \right.⟧,\ \lambda_{i} - \lambda_{p + 1} \neq 0$

\[\alpha_{1} = \ldots = \alpha_{p} = 0\]

Donc d’après $(*)$, $\alpha_{p + 1}v_{p + 1} = 0$

Or $v_{p + 1} \neq 0_{E}$

donc $\alpha_{p + 1} = 0$

Donc $\alpha_{1} = \ldots = \alpha_{p + 1} = 0$

Donc $\left\lbrace v_{1},\ldots,v_{p + 1}\right\rbrace$ est une famille libre.

Rappel : Espaces vectoriels en somme directe

Soit $F_{1}$ et $F_{2}$ des sous-espaces vectoriels de $E$.

\[F_{1} + F_{2} = \left\lbrace x \in E,\ x = x_{1} + x_{2},\ x_{1} \in F_{1},\ x_{2} \in F_{2} \right\rbrace\]
  • $F_{1} + F_{2}$ est un s.e.v. de $E$.

  • $\dim \left( F_{1} + F_{2} \right) = \dim \left( F_{1} \right) + \dim \left( F_{2} \right) - \dim \left( F_{1} \cap F_{2} \right)$

$F_{1}$ et $F_{2}$ sont en somme directe si et seulement si

$F_{1} \cap F_{2} = \left\lbrace 0_{E} \right\rbrace$

On note alors leur somme $F_{1} \oplus F_{2}$

Alors $\dim \left( F_{1} \oplus F_{2} \right) = \dim \left( F_{1} \right) + \dim \left( F_{2} \right)$

Rappel : Espaces vectoriels supplémentaires

Si $F_{1} \oplus F_{2} = E$, on dit que $F_{1}$ et $F_{2}$ sont supplémentaires, ou que $F_{2}$ est un supplémentaire de $F_{1}$.

Il faut vérifier :

  • $F_{1} \cap F_{2} = \left\lbrace 0_{E} \right\rbrace$

  • $F_{1} + F_{2} = E$

Théorème :

$F_{1}$ et $F_{2}$ sont supplémentaires dans $E$ si et seulement si l’une des assertions suivantes et équivalentes est vérifiée :

  • $\forall x \in E,\ \exists! \left( x_{1},x_{2} \right) \in F_{1} \times F_{2},\ x = x_{1} + x_{2}$ ($\exists!$ : il existe un unique)

  • $\dim \left( F_{1} \right) + \dim \left( F_{2} \right) = \dim(E)$ et $F_{1} \cap F_{2} = \left\lbrace 0_{E}\right\rbrace$

  • $\dim \left( F_{1} \right) + \dim \left( F_{2} \right) = \dim(E)$ et $F_{1} + F_{2} = E$

Définition :

Soit $E$ un espace vectoriel et $ \left\lbrace F_{1},\ldots,F_{p} \right\rbrace$ une famille de s.e.v. de $E$.

On dit que la famille $ \left\lbrace F_{1},\ldots,F_{p} \right\rbrace$ est en somme directe si et seulement si, $\forall \left( x_{1},\ldots,x_{p} \right) \in F_{1} \times \ldots \times F_{p}$, $x_{1} + \ldots + x_{p} = 0{E} \Rightarrow x{1} = \ldots = x_{p} = 0_{E}$

Dans ce cas, $F_{1} + \ldots + F_{p}$ est noté $F_{1} \oplus \ldots \oplus F_{p}$

Proposition :

La somme est directe si et seulement si, $\forall i \in \left. ⟦2,n \right.⟧$,

\[F_{i} \cap \sum_{j = 1}^{i - 1}F_{j} = \left\lbrace 0_{E} \right\rbrace\]

Exemple :

$F_{1},F_{2},F_{3}$ sont en somme directe si et seulement si $F_{1} \cap F_{2} = \left\lbrace 0{E} \right\rbrace$ et $F{3} \cap \left( F_{1} + F_{2} \right) = \left\lbrace 0_{E} \right\rbrace$

Théorème :

Soit $f\mathcal{\in L}(E)$, soient $\lambda_{1},\ldots,\lambda_{p}$ des valeurs propres de $f$ deux à deux distinctes.

Alors les sous-espaces propres associés $E_{\lambda_{1}},\ldots,E_{\lambda_{p}}$ sont en somme directe.

Démonstration :

Soit $x \in E_{\lambda_{i}} \cap \left( E_{\lambda_{1}} + \ldots + E_{\lambda_{i - 1}} \right)$. Montrons que $x = 0_{E}$.

$x \in E_{\lambda_{i}}$ et $x \in E_{\lambda_{1}} + \ldots + E_{\lambda_{i - 1}}$

\[x = x_{1} + \ldots + x_{i - 1}\ \text{où}\ x_{k} \in Ε_{\lambda_{k}}\] \[f(x) = \lambda_{i}x\ (1)\] \[f(x) = \lambda_{1}x_{1} + \ldots + \lambda_{i - 1}x_{i - 1}\ (2)\]

D’après $(1)$ et $(2)$,

\[\lambda_{i}x = \lambda_{1}x_{1} + \ldots + \lambda_{i - 1}x_{i - 1}\] \[\lambda_{1}x_{1} + \ldots + \lambda_{i - 1}x_{i - 1} - \lambda_{i}x = 0\ (*)\]

Supposons que $x \neq 0_{E}$

Alors $ \left\lbrace x_{1},\ldots,x_{i - 1},x \right\rbrace$ sont des vecteurs propres associés aux valeurs propres $\lambda_{1},\ldots,\lambda_{i}$ deux à deux distincts.

D’après le théorème précédent, $ \left\lbrace x_{1},\ldots,x_{i - 1},\ x \right\rbrace$ forme une famille libre.

Par $(*),\ \lambda_{1} = \ldots = \lambda_{i} = 0$, ce qui est absurde.

Ainsi $x = 0_{E}$

II. Représentation matricielle

Rappels :

Soit $E$ un espace vectoriel.

  • Si $E$ est un espace vectoriel de dimension $n\mathbb{\in N}$, alors toutes les bases de $E$ ont pour cardinal $n$.

  • Une base de $E$ est une famille libre et génératrice

  • $ \left\lbrace v_{1},\ldots,v_{n} \right\rbrace$ est génératrice de $E$ si et seulement si $\forall x \in E,\ \exists\lambda_{1},\ldots,\lambda_{n}$ tels que $x = \lambda_{1}v_{1} + \ldots + \lambda_{n}v_{n}$. Si $ \left( v_{1},\ldots,v_{n} \right)$ est une base, alors les $\lambda_{1},\ldots,\lambda_{n}$ sont uniques et sont appelés coordonnées de $x$ dans la base $ \left( v_{1},\ldots,v_{n} \right)$

  • Si $E$ est muni d’une base $\mathcal{B =} \left( e_{1},\ldots,e_{n} \right)$, on identifie $E$ à $\mathbb{R}^{n}$ en notant les éléments de $E$ en coordonnées dans la base $\mathcal{B}$. $x = \lambda_{1}e_{1} + \ldots + \lambda_{n}e_{n} = \left( \lambda_{1},\ldots,\lambda_{n} \right)_{\mathcal{B}}$

Soit $f\mathcal{\in L}(E)$

\[Mat_{\mathcal{B}}f = \left( f \left( e_{1} \right)_{\mathcal{B}} \right\vert \ldots \left\vert f \left( e_{n} \right)_{\mathcal{B}} \right)\]

Si $x = \left( x_{1},\ldots,x_{n} \right)_{\mathcal{B}}$,

\[f(x)_{\mathcal{B}} = Mat_{\mathcal{B}}f \times \begin{pmatrix} x_{1} \\ \vdots \\ x_{n} \end{pmatrix}\]

Définition :

Soit $f\mathcal{\in L}(E)$, $\mathcal{B}$ une base de $E$ et $A = Mat_{\mathcal{B}}f$

  • $\lambda$ est une valeur propre de $A$ si et seulement si $\lambda$ est une valeur propre de $f$

  • $Sp(A) = Sp(f)$

  • $x \in E$ est un vecteur propre de $A$ et $x$ est un vecteur propre de $f$

Proposition/Définition :

\[X = \begin{pmatrix} x_{1} \\ \vdots \\ x_{n} \end{pmatrix}\ \text{est un vecteur propre de}\ A\text{ si et seulement si}\ X \neq 0_{E}\ \text{et}\ AX = \lambda Χ\] \[Ε_{\lambda} = \left\lbrace X \in \mathbb{K}^{n},\ AX = \lambda X \right\rbrace\] \[\lambda \in Sp(A) \Leftrightarrow E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace \Leftrightarrow \ker \left( A - \lambda I_{n} \right) \neq \left\lbrace 0_{E} \right\rbrace \Leftrightarrow \left( A - \lambda Ι_{n} \right)\ \text{n'est pas inversible}\]

Exercice :

\[A = \begin{pmatrix} 1 & - 1 & - 1 \\ - 1 & 1 & - 1 \\ - 1 & - 1 & 1 \end{pmatrix}\]

Montrer que $v_{1} = \begin{pmatrix} 1
1
1 \end{pmatrix}$ est un vecteur propre de $A$. Alors $Av_{1} = \lambda v_{1}$

\[Av_{1} = \begin{pmatrix} - 1 \\ - 1 \\ - 1 \end{pmatrix} = - v_{1}\]

$v_{1}$ est un vecteur propre de valeur propre associée $- 1$.

Rappel : Changement de base

Soient deux bases $\mathcal{B =} \left( e_{1},e_{2},e_{3} \right)$ et $\mathcal{B}^{‘} = \left( \varepsilon_{1},\varepsilon_{2},\varepsilon_{3} \right)$ de $\mathbb{R}^{3}$

On a :

\[\varepsilon_{1} = \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}_{\mathcal{B}},\ \varepsilon_{2} = \begin{pmatrix} - 2 \\ 0 \\ 1 \end{pmatrix}_{\mathcal{B}},\varepsilon_{3} = \begin{pmatrix} 2 \\ - 2 \\ 3 \end{pmatrix}_{\mathcal{B}}\] \[\varepsilon_{1} = e_{1} + e_{2},\ \ \varepsilon_{2} = - 2e_{1} + e_{3},\ \ \varepsilon_{3} = 2e_{1} - 2e_{2} + 3e_{3}\] \[\varepsilon_{1} = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}_{\mathcal{B}^{'}},\ \varepsilon_{2} = \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}_{\mathcal{B}^{'}},\ \varepsilon_{3} = \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}_{\mathcal{B}^{'}}\]

Soit \(u = \begin{pmatrix} 2 \\ - 4 \\ 1 \end{pmatrix}_{\mathcal{B}} = 2e_{1} - 4e_{2} + e_{3}\)

Quelles sont les coordonnées de $u$ dans la base $\mathcal{B}^{‘}\ $?

Méthode 1 :
Soient $\alpha,\beta,\gamma\mathbb{\in R}$ tels que $u = \alpha\varepsilon_{1} + \beta\varepsilon_{2} + \gamma\varepsilon_{3}$

Alors $2e_{1} - 4e_{2} + e_{3} = \alpha\varepsilon_{1} + \beta\varepsilon_{2} + \gamma\varepsilon_{3}$

\[\Leftrightarrow 2e_{1} - 4e_{2} + e_{3} = \alpha \left( e_{1} + e_{2} \right) + \beta \left( - 2e_{1} + e_{3} \right) + \gamma \left( 2e_{1} - 2e_{2} + 3e_{3} \right)\] \[\Leftrightarrow 2e_{1} - 4e_{2} + e_{3} = e_{1}(\alpha - 2\beta + 2\gamma) + e_{2}(\alpha + \beta - 2\gamma) + e_{3}(\beta + 3\gamma)\]

Or, l’écriture d’un vecteur dans $\mathcal{B}$ est unique :

\[\left\lbrace \begin{array}{r} 2 = \alpha - 2\beta + 2\gamma \\ - 4 = \alpha + \beta - 2\gamma \\ 1 = \beta + 3\gamma \end{array} \right\rbrace\]

Méthode 2 :

\[P = \left\lbrack \varepsilon_{1}\ \varepsilon_{2}\ \varepsilon_{3} \right\rbrack = \begin{bmatrix} 1 & - 2 & 2 \\ 1 & 0 & - 2 \\ 0 & 1 & 3 \end{bmatrix}\]

Pour ne pas se tromper : $P\begin{pmatrix} 1
0
0 \end{pmatrix} = \begin{pmatrix} 1
1
0 \end{pmatrix} = \left( \varepsilon_{1} \right)_{\mathcal{B}}$

Si $u = \alpha\varepsilon_{1} + \beta\varepsilon_{2} + \gamma\varepsilon_{3}$, $u = \begin{pmatrix} \alpha
\beta
\gamma \end{pmatrix}_{\mathcal{B}^{‘}}$

Alors :

\[P\begin{pmatrix} \alpha \\ \beta \\ \gamma \end{pmatrix}_{\mathcal{B}^{'}} = \begin{pmatrix} 2 \\ - 4 \\ 1 \end{pmatrix}_{\mathcal{B}}\] \[\begin{pmatrix} \alpha \\ \beta \\ \gamma \end{pmatrix}_{\mathcal{B}^{'}} = P^{- 1}\begin{pmatrix} 2 \\ - 4 \\ 1 \end{pmatrix}_{\mathcal{B}}\]

Rappel :

Soit $\mathcal{B =} \left( e_{1},e_{2},e_{3} \right)$ base de $\mathbb{R}^{3}$ et $P = \left\lbrack \varepsilon_{1}\ \varepsilon_{2}\ \varepsilon_{3} \right\rbrack$, alors $\mathcal{B}^{‘} = \left( \varepsilon_{1},\varepsilon_{2},e_{3} \right)$ si et seulement si $P$ est inversible, ou $\det P = 0$

Alors soit $X$ un vecteur de coordonnées dans la base $\mathcal{B}$ et $X^{‘}$ les coordonnées dans un même vecteur dans la base $\mathcal{B}^{‘}$. Alors, $PX^{‘} = X$

Soit $A = Mat_{\mathcal{B}}(f) = \begin{pmatrix} 2 & 4 & 0
1 & 2 & - 1
3 & - 2 & 1 \end{pmatrix} = \left( f \left( e_{1} \right)\ f \left( e_{2} \right)\ f \left( e_{3} \right) \right)$

\[f \left( e_{1} \right) = 2e_{1} + e_{2} + 3e_{3}\] \[f \left( e_{2} \right) = 4e_{1} + 2e_{2} - 2e_{3}\] \[f \left( e_{3} \right) = - e_{2} + e_{3}\]

Soit $X$ le vecteur des coordonnées de $v$ dans la base $\mathcal{B}$. Alors $AX$ est le vecteur des coordonnées de $f(v)$ dans $\mathcal{B}$

Comment écrire $Mat_{\mathcal{B}^{‘}}(f)\ $?

Soit $X$ et $X^{‘}$ les coordonnées de $v$ dans $\mathcal{B}$ et $\mathcal{B}^{‘}$, alors $PX^{‘} = X$. Notons $Y$ et $Y^{‘}$ les coordonnées de $f(v)$ dans la base $\mathcal{B}$ et $\mathcal{B}^{‘}$. Alors $PY^{‘} = Y$

\[Y = Mat_{\mathcal{B}}(f)X = Mat_{\mathcal{B}}(f)PX^{'}\]

Donc $PY^{‘} = Mat_{\mathcal{B}}(f)PX^{‘}$

\[Y^{'} = P^{- 1}Mat_{\mathcal{B}}(f)PX^{'} = Mat_{\mathcal{B}^{'}}(f)X^{'}\]

Proposition :

\[Mat_{\mathcal{B}^{'}}(f) = P^{- 1}Mat_{\mathcal{B}}(f)P\]

Comment le retrouver ?

La matrice $Mat_{\mathcal{B}^{‘}}(f)$ prend des vecteurs de $\mathcal{B}^{‘}$, donc la première matrice (celle à droite) prend des vecteurs de $\mathcal{B}^{‘}\ $: $P$.

Définition :

Soient $A$ et $A^{‘} \in \mathcal{M}_{n} \left( \mathbb{K} \right)$

On dit que $A$ et $A^{‘}$ sont semblables si et seulement s’il existe $P \in GL_{n} \left( \mathbb{K} \right)$ tel que $A^{‘} = PAP^{- 1}$

III. Polynôme caractéristique

Définition :

Soit $A \in \mathcal{M}_{n} \left( \mathbb{K} \right)$.

Le polynôme caractéristique de $A$ est noté $P_{A}(\lambda)$ est défini par :

\[P_{A}(\lambda) ≔ \det \left( A - \lambda I_{n} \right)\] \[P_{A}(\lambda)\mathbb{\in K}\lbrack\lambda\rbrack\]

L’équation $P_{A}(\lambda) = 0$ est appelée équation caractéristique.

Proposition :

Deux matrices semblables ont le même polynôme caractéristique.

Démonstration :

Soient \(A,B \in \mathcal{M}_{n} \left( \mathbb{K} \right)\) \(P \in GL_{n} \left( \mathbb{K} \right)$, tels que $B = PAP^{- 1}\)

\(P_{B}(\lambda) = \det \left( B - \lambda I_{n} \right) = \det \left( PAP^{- 1} - \lambda PP^{- 1} \right)\) \(= \det \left( P \left( AP^{- 1} - \lambda P^{- 1} \right) \right)\) \(= \det \left( P \left( A - \lambda I_{n} \right)P^{- 1} \right)\) \(= \det(P)\det \left( A - \lambda I_{n} \right)\det \left( P^{- 1} \right)\) \(= \det \left( A - \lambda I_{n} \right)\det(P)\det \left( P^{- 1} \right)\)

Or $\det(P)\det \left( P^{- 1} \right) = 1$

Donc $P_{A}(\lambda) = P_{B}(\lambda)$

Conséquence :

Soit $f$ un endomorphisme. Quel que soit la base dans laquelle on écrit sa matrice, le polynôme caractéristique est le même. Il ne dépend pas de la base de calcul, il dépend que de $f$.

Définition :

Le polynôme caractéristique de $f$ est le polynôme caractéristique de $f$ dans la base $\mathcal{B}$

$P_{f}(\lambda) ≔ P_{Mat_{\mathcal{B}}(f)}(\lambda) = \det \left( Mat_{\mathcal{B}}(f) - \lambda I_{n} \right)$ où $\mathcal{B}$ est n’importe quelle base.

Proposition :

Soit $A \in M_{n} \left( \mathbb{K} \right),\ \lambda\mathbb{\in K}$

\[\lambda \in Sp(A) \Leftrightarrow P_{A}(\lambda) = 0\]

Démonstration :

\[\lambda \in Sp(A) \Leftrightarrow \left( A - \lambda I_{n} \right)\ \text{non inversible} \Leftrightarrow \det \left( A - \lambda I_{n} \right) = 0\]

Exemple :

\[A = \begin{pmatrix} 0 & 0 & 4 \\ 1 & 2 & 1 \\ 2 & 4 & - 2 \end{pmatrix}\]

Trouver les valeurs propres de $A\ $:

\[A - \lambda I_{3} = \begin{pmatrix} - \lambda & 0 & 4 \\ 1 & 2 - \lambda & 1 \\ 2 & 4 & - 2 - \lambda \end{pmatrix}\] \[P_{A}(\lambda) = \left\vert \begin{matrix} - \lambda & 0 & 4 \\ 1 & 2 - \lambda & 1 \\ 2 & 4 & - 2 - \lambda \end{matrix} \right\vert\] \[P_{A}(\lambda) = - \lambda \left\vert \begin{matrix} 2 - \lambda & 1 \\ 4 & - 2 - \lambda \end{matrix} \right\vert + 4 \left\vert \begin{matrix} 1 & 2 - \lambda \\ 2 & 4 \end{matrix} \right\vert = \ldots = - \lambda^{3} + 16\lambda = - \lambda(\lambda - 4)(\lambda + 4)\]

Alors $Sp(A) = \left\lbrace - 4,0,4 \right\rbrace$

Corollaire :

0 est valeur propre de $A$ si et seulement si $A$ n’est pas inversible.

Théorème : (Admis)

Soit $A \in \mathcal{M}_{n} \left( \mathbb{K} \right)$

\[P_{A}(\lambda) = ( - 1)^{n}\lambda^{n} + ( - 1)^{n - 1}Tr(A)\lambda^{- 1} + \ldots + \det(A)\]

Corollaire :

Soit $A \in \mathcal{M}_{2} \left( \mathbb{K} \right)$

\[P_{A}(\lambda) = \lambda^{2} - Tr(A)\lambda + \det(A)\]

Corollaire :

Une matrice de $\mathcal{M}_{n} \left( \mathbb{K} \right)$ a au plus $n$ valeurs propres.

Démonstration :

En effet, le polynôme caractéristique d’une matrice de $\mathcal{M}_{n} \left( \mathbb{K} \right)$ est de degré $n$ donc admet au plus $n$ racines.

Définition :

Soit $P \in \mathbb{K}\lbrack X\rbrack$

On appelle ordre de multiplicité d’une racine $a$ de $P$ le plus petit $n \in \mathbb{N}$ tel que $P$ est divisible par $(X - a)^{n}$.

On appelle ordre de multiplicité d’une valeur propre $\lambda$ son ordre de multiplicité pour le polynôme caractéristique. Il est noté $m_{\lambda}$.

Définition : Polynôme scindé

Soit $P \in \mathbb{K}\lbrack X\rbrack$. $P$ est scindé s’il peut s’écrire sous la forme :

\[P = c\prod_{i = 1}^{k}(X - a)^{m}\]

Avec $a_{1},\ldots,a_{k}\mathbb{\in K}$ et $m_{1},\ldots,m_{k} \in \mathbb{N}^{*}$

\[\text{Alors}\deg P = \sum_{i = 1}^{k}m_{k}\]

$P$ est scindé s’il admet exactement $n$ racines comptées avec multiplicité.

Exemple :

$P = X^{2} - 5X + 6 = (X - 2)(X - 3)$ est scindé.

$P = X^{3} - 4X^{2} + 5X - 2 = (X - 1)^{2}(X - 2)$ est scindé

$P = X^{2} + 1$ n’est pas scindé dans $\mathbb{R}$ (car n’a pas de racines) mais dans $\mathbb{C}$, $P = (X - i)(X + i)\mathbb{\in C}\lbrack X\rbrack$ donc $P$ est scindé.

Théorème de d’Alembert-Gauss :

Tout polynôme de $\mathbb{C}\lbrack X\rbrack$ est scindé. $\mathbb{C}$ est dit « corps algébriquement clos ».

Remarque :

$P \in \mathbb{R}\lbrack X\rbrack\mathbb{\subset C}\lbrack X\rbrack$ donc $P$ est scindé dans $\mathbb{C}$. Il est scindé sur $\mathbb{R}$ si et seulement si toutes ses racines sont réelles.

Corollaire :

Si $E$ est un $\mathbb{C -}ev$ de dimension $n$ alors $f \in \mathcal{L}(E)$ admet exactement $n$ valeurs propres comptées avec multiplicité.

Si $E$ est un $\mathbb{R -}ev$ de dimension $n$ alors $f \in \mathcal{L}(E)$ admet au plus $n$ valeurs propres comptées avec multiplicité.

Exemple :

\[A = \begin{pmatrix} 0 & 1 \\ - 1 & 0 \end{pmatrix}\] \[P_{A}(\lambda) = \lambda^{2} + 1\] \[Sp_{\mathbb{R}}(A) = \varnothing,\ Sp_{\mathbb{C}}(A) = \left\lbrace \pm i \right\rbrace\]

Remarque :

Soit \(A \in \mathcal{M}_{n} \left( \mathbb{K} \right)\) tel que $P_{A}$ est scindé : \(P_{A}(\lambda) = ( - 1)^{n}\prod_{i = 0}^{h} \left( \lambda - \lambda_{i} \right)^{m_{i}}\)

Alors :

\[\sum_{i = 0}^{k}{m_{i}\lambda_{i}} = Tr(A)\] \[\prod_{i = 0}^{h}\lambda_{i}^{m_{i}} = \det(A)\]

Démonstration :

On développe.

\[P_{A}(\lambda) = ( - 1)^{n}\lambda^{n} + ( - 1)^{n - 1} \left( \sum_{i = 0}^{n}{m_{i}\lambda_{i}} \right)\lambda^{n - 1} + \ldots + \prod_{i = 0}^{h}\lambda_{i}^{m_{i}}\]

Remarque :

Dans $\mathbb{C}$, la proposition précédente est toujours vérifiée.

Théorème :

Soit

$A \in \mathcal{M}_{n} \left( \mathbb{K} \right)$ et $\lambda \in Sp(A)$

de multiplicité $m_{\lambda}$

Alors \(1 \leq \dim \left( E_{\lambda} \right) \leq m_{\lambda}\)

Démonstration :

Par définition :

$\lambda \in Sp_{\mathbb{K}}(A) \Rightarrow E_{\lambda} \neq \left\lbrace 0_{E} \right\rbrace$,

donc $\dim \left( E_{\lambda} \right) \geq 1_{}$

Si $\dim \left( E_{\lambda} \right) = n$, alors $E_{\lambda} = E$, donc $\forall x \in E,\ Ax = \lambda x$. Alors $A = \lambda I_{n}$, $ \left( A - \lambda I_{n} \right) = 0_{n}$.

$P_{A}(X) = \det \left( A - XI_{n} \right) = \det \left( (\lambda - Χ)I_{n} \right) = (\lambda - X)^{n}$ d’où $m_{\lambda} = n$.

Si $\dim \left( E_{\lambda} \right) = d_{\lambda} < n$.

Soit $ \left( e_{1},\ldots,e_{d_{\lambda}} \right)$ une base de $E_{\lambda}$ et $ \left\lbrace e_{d_{\lambda} + 1},\ldots,e_{n} \right\rbrace$ qui la complètent en une base de $E$.

Soit $f \in \mathcal{L}(E)$ telle que $A = Mat_{\mathcal{B}_{c}}(f)$ et

$\mathcal{B =} \left\lbrace e_{1},\ldots,e_{d_{\lambda}},e_{d_{\lambda} + 1},\ldots,e_{n} \right\rbrace$

\[B = Mat_{\mathcal{B}}(f) = \begin{bmatrix} \lambda & 0 & \cdots & 0 \\ 0 & \lambda & 0 & \vdots \\ \vdots & 0 & \ddots & 0 \\ 0 & 0 & 0 & \lambda \\ \vdots & \vdots & 0 & 0 \\ 0 & 0 & \cdots & 0 \end{bmatrix} \left\vert ? = \left( f \left( e_{1} \right) \right\vert f \left( e_{2} \right)\ldots f \left( e_{n} \right) \right)\]

Or $f \left( e_{1} \right) = \lambda e_{1},\ \ldots,\ f \left( e_{d_{\lambda}} \right) = \lambda e_{d_{\lambda}}$

\[P_{A}(X) = P_{B}(X) = \det \left( B - XI_{n} \right) = \left\vert \begin{matrix} \lambda - X & 0 & \cdots & 0 \\ 0 & \lambda - X & 0 & \vdots \\ \vdots & 0 & \ddots & 0 \\ 0 & 0 & 0 & \lambda - X \\ \vdots & \vdots & 0 & 0 \\ 0 & 0 & \cdots & 0 \end{matrix}\ \vert \begin{matrix} \ \\ M \\ \ \\ \_\_ \\ \ \\ N \end{matrix} \right\vert = (\lambda - X)^{d_{\lambda}}\det(N)\]

D’où $m_{\lambda} \geq d_{\lambda}$

Remarque :

Pour calculer $\dim \left( E_{\lambda} \right)$, on peut aussi utiliser le théorème du rang.

\[E_{\lambda} = \ker \left( f - I_{d} \right)\] \[\dim \left( {Im} \left( f - \lambda I_{d} \right) \right) + \dim \left( E_{\lambda} \right) = n\] \[rg \left( f - \lambda I_{d} \right) + \dim \left( E_{\lambda} \right) = n\] \[\dim \left( E_{\lambda} \right) = n - rg \left( f - \lambda I_{d} \right)\]

Remarque :

Pour déterminer $E_{\lambda}$, on résout $AX = \lambda X$

Corollaire :

Si $\lambda$ est de multiplicité 1, alors $\dim \left( E_{\lambda} \right) = 1$

IV. Diagonalisation

1. Diagonalisation

Définition :

Soit $f \in \mathcal{L}(E)$. $f$ est diagonalisable s’il existe une base de $E$ formée de vecteurs propres.

Exemple :

Soit $f:\mathbb{R}^{2} \rightarrow \mathbb{R}^{2}$, $(x,y) \rightarrow \left( x - \frac{y}{2}, - \frac{x}{2} + y \right)$. Diagonaliser $f$.

\[Sp(f) = \left\lbrace \frac{1}{2};\frac{3}{2} \right\rbrace\] \[v_{1} = \begin{pmatrix} 1 \\ 1 \end{pmatrix}\]

est vecteur propre de $\frac{1}{2}$

\[v_{2} = \begin{pmatrix} 1 \\ \ - 1 \end{pmatrix}\]

est vecteur propre de $\frac{3}{2}$.

$\mathcal{B} \left( v_{1},v_{2} \right)$ est une base de vecteurs propres de $\mathbb{R}_{2}$. Alors $f$ est diagonalisable.

Proposition :

Soit $f \in \mathcal{L}(E)$. $f$ est diagonalisable si et seulement s’il existe une base $\mathcal{B}$ de $E$ telle que $Mat_{\mathcal{B}}(f)$ est diagonale.

Démonstration :

$f$ est diagonalisable $\Leftrightarrow$ il existe une base $\mathcal{B}$ de $E$ formée de vecteurs propres : $\left\lbrace e_{1},\ldots,e_{n} \right\rbrace $.

\[Mat_{\mathcal{B}}(f) = \left( f\left( e_{1} \right)\ldots f\left( e_{n} \right) \right)\]

Or $f\left( e_{1} \right) = \lambda_{1}e_{1}$, … $f\left( e_{n} \right) = \lambda_{n}e_{n}$

\[Mat_{\mathcal{B}}(f) = diag\left( \lambda_{1},\ldots,\lambda_{n} \right)\]

2. Diagonalisation de matrices

Définition :

Soit $A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$.

$A$ est diagonalisable s’il existe une base de vecteurs propres.

$A$ est diagonalisable si elle est semblable à une matrice diagonale.

$A$ diagonalisable $\Leftrightarrow \exists D$ diagonale, $P \in \mathcal{M}_{n}\left( \mathbb{K} \right)$ inversible telle que $A = PDP^{- 1}$

Théorème :

Si $A$ admet $n$ valeurs propres distinctes, alors $A$ est diagonalisable.

Démonstration :

$A$ admet $n$ valeurs propres distinctes $\lambda_{1},\ldots,\lambda_{n}$.

Donc soit $v_{1},\ldots,v_{n}$ des vecteurs propres associés.

Les sous-espaces propres sont en somme directe, donc la famille $\left( v_{1},\ldots,v_{n} \right)$ forme une base de $\mathbb{R}^{n}$ de vecteurs propres.

Exemple :

Soit \(A = \begin{pmatrix} a_{11} & \ldots & a_{1n} \\ \ & \ddots & \ \\ 0 & \ldots & a_{nn} \end{pmatrix}\)

\[P_{A}(\lambda) = \det\left( A - \lambda I_{n} \right) = \left\vert \begin{matrix} a_{11} - \lambda & \ldots & a_{1n} \\ \ & \ddots & \ \\ 0 & \ldots & a_{nn} - \lambda \end{matrix} \right\vert = \prod_{i = 1}^{n}\left( a_{ii} - \lambda \right)\]

Si les $a_{ii}$ sont tous deux à deux distincts alors $A$ est diagonalisable.

\[A = \begin{pmatrix} 3 & 1 \\ - 2 & 0 \end{pmatrix}\] \[P_{A}(\lambda) = \lambda^{2} - 3\lambda + 2 = (\lambda - 1)(\lambda - 2)\]

Donc deux valeurs propres distinctes, donc $A$ est diagonalisable.

Trouvons les vecteurs propres :

Soit \(v_{1} = \begin{pmatrix} x \\ y \end{pmatrix}\) tels que $Av_{1} = v_{1}$

\[\Leftrightarrow \begin{pmatrix} 3x + y \\ - 2x \end{pmatrix} = \begin{pmatrix} x \\ y \end{pmatrix} \Leftrightarrow \left\lbrace \begin{array}{r} 2x = - y \\ - 2x = y \end{array} \right. \Leftrightarrow v_{1} = \begin{pmatrix} 1 \\ - 2 \end{pmatrix}\]

\(v_{2} = \begin{pmatrix} 1 \\ - 1 \end{pmatrix}\) est vecteur propre pour la valeur propre 2

\[P = \begin{pmatrix} 1 & 1 \\ - 2 & - 1 \end{pmatrix}\] \[A = PDP^{- 1}\] \[D = Mat_{\mathcal{B}_{p}}f = \left( \left( f\left( v_{1} \right) \right)_{\mathcal{B}_{p}}\left( f\left( v_{2} \right) \right)_{\mathcal{B}_{p}} \right),\ f\left( v_{1} \right) = v_{1},\ f\left( v_{2} \right) = 2v_{2}\] \[D = \begin{pmatrix} 1 & 0 \\ 0 & 2 \end{pmatrix}\]

Remarque :

L’ordre des colonnes de $P$ est très important, il indique l’ordre des vecteurs de la base.

Si on a \(Q = \begin{pmatrix} 1 & 1 \\ - 1 & - 2 \end{pmatrix}\), alors \(A = Q\begin{pmatrix} 2 & 0 \\ 0 & 1 \end{pmatrix}Q^{- 1}\)

Théorème :

$A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$ est diagonalisable si et seulement si la somme des dimensions des espaces propres vaut $n$.

Démonstration :

Si $\lambda_{1},\ldots,\lambda_{l}$ sont les valeurs propres de $A$, alors $E_{\lambda_{1}} \oplus \ldots \oplus E_{\lambda_{l}} \subset \mathbb{K}^{n}$

Si $\dim\left( E_{\lambda_{1}} \oplus \ldots \oplus E_{\lambda_{l}} \right) = \dim\left( E_{\lambda_{1}} \right) + \ldots + \dim\left( E_{\lambda_{l}} \right) = n$, alors $E_{\lambda_{1}} \oplus \ldots \oplus E_{\lambda_{l}} = \mathbb{K}^{n}$

On prend \(\mathcal{B}_{v_{p}}\left( v_{1},\ldots,v_{k_{1}},v_{k_{1} + 1},\ldots,v_{k_{2}},v_{k_{2} + 1},\ldots,v_{k_{l}} \right)\)

base de $E_{\lambda_{1}} \oplus \ldots \oplus E_{\lambda_{l}}$

Alors \(\mathcal{B}_{v_{p}}\)

est une base de vecteurs propre et $A$ est diagonale dans cette base.

Théorème :

\[A \in \mathcal{M}_{n}\left( \mathbb{K} \right)\]

est diagonalisable si et seulement si

\[E_{\lambda_{1}} + \ldots + E_{\lambda_{n}} = \mathbb{K}^{n}\]

Preuve :

Idem

Théorème :

$A$ est diagonalisable si et seulement si :

  • $P_{A}$ est scindé

  • $\forall\lambda \in S_{p}(A),\dim\left( E_{\lambda} \right) = m_{\lambda}$

Preuve :

\[P_{A}(\lambda) = \prod_{\lambda \in Sp(A)}^{}(X - \lambda)^{m_{\lambda}}\]

Remarque :

\[n = \deg\left( P_{A} \right) = \sum_{\lambda \in Sp(A)}^{}m_{\lambda}\]

Rappel :

\[1 \leq \dim\left( E_{\lambda} \right) \leq m_{\lambda}\] \[\dim\left( E_{\lambda_{1}} \oplus \ldots \oplus E_{\lambda_{l}} \right) = \dim\left( E_{\lambda_{1}} \right) + \ldots + \dim\left( E_{\lambda_{l}} \right)\]

$A$ diagonalisable $\Leftrightarrow \dim\left( E_{\lambda_{1}} \right) + + \ldots + \dim\left( E_{\lambda_{l}} \right) = n$

\[\Leftrightarrow \dim\left( E_{\lambda} \right) = m_{\lambda}\forall\lambda \in Sp(A)\]

Méthode : Diagonaliser :

  1. Calculer $P_{A}$ (non scindé $\rightarrow$ non diagonalisable)

  2. Trouver les racines de $P_{A}\ $: trouver $Sp(A)$

  3. Trouver les bases des $E_{\lambda}$

  4. Si $\dim\left( E_{\lambda} \right) = m_{\lambda}\ \forall\lambda \in Sp(A)$ alors diagonalisable, sinon non

V. Trigonalisation

1. Introduction

Une matrice \(A = \begin{pmatrix} a_{11} & \ & a_{1n} \\ \ & \ddots & \ \\ 0 & \ & a_{nn} \end{pmatrix}\) est dite triangulaire supérieure.

Proposition :

Toute matrice triangulaire supérieure est semblable à une matrice inférieure.

Preuve :

\(P = \begin{pmatrix} 0 & \ & 1 \\ \ & / & \ \\ 1 & \ & 0 \end{pmatrix}\) est une matrice inversible.

Alors \(A = P\begin{pmatrix} a_{nn} & \ & 0 \\ \ & \ddots & \ \\ a_{1n} & \ & a_{11} \end{pmatrix}P^{- 1}\)

Soit $\left( e_{1},\ldots,e_{n} \right)$ la base canonique et $\mathcal{B}^{‘} = \left( e_{n},\ldots,e_{1} \right) = \left( \varepsilon_{1},..,\varepsilon_{n} \right)$ la nouvelle base.

Remarque :

$P$ est la matrice de passage de $\mathcal{B}$ à $\mathcal{B}^{‘}$

Si

\[A = Mat_{\mathcal{B}_{c}}(f),\ f\left( e_{1} \right) = a_{11}e_{1},\ f\left( e_{2} \right) = a_{12}e_{1} + a_{22}e_{2}\] \[f\left( \varepsilon_{1} \right) = a_{1n}e_{1} + \ldots + a_{nn}e_{n} = a_{1n}\varepsilon_{n} + \ldots + a_{nn}\varepsilon_{1}\] \[f\left( \varepsilon_{n} \right) = a_{11}\varepsilon_{n}\]

Dorénavant, une matrice triangulaire fera référence avec une matrice triangulaire supérieure

2. Trigonalisation

Définition :

Soit $A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$.

$A$ est trigonalisable si elle est semblable à une matrice triangulaire $T$.

Soit $f\mathcal{\in L}(E)$

$f$ est trigonalisable s’il existe une base $\mathcal{B}$ telle que $Mat_{\mathcal{B}}(f)$ est triangulaire.

Remarque :

Diagonalisable $\Rightarrow$ Trigonalisable

Théorème :

$A$ est trigonalisable si et seulement si $P_{A}$ est scindé.

$f$ est trigonalisable si et seulement si $P_{f}$ est scindé.

Démonstration

Par récurrence sur $\dim(E) = n$

$H_{n}:$ « $f\mathcal{\in L}(E)$ telle que $\dim(E) = n$ : $P_{f}$ scindé $\Rightarrow$ $f$ est trigonalisable »

\[n = 1:\]

Soit $\mathcal{B}_{c}$

la base canonique de $\mathbb{K}$,

$Mat_{\mathcal{B}_{c}}f = (a)$

$P_{f}(\lambda) = a - \lambda$ et $P_{f}$ est scindé.

Remarque :

$Mat_{\mathcal{B}_{c}}(f)$

est diagonalisable donc trigonalisable donc $H_{1}$ est vraie.

Hérédité :

On suppose $H_{n}$, montrons $H_{n + 1}$

Soit $E$ tel que $\dim(E) = n + 1$, $f\mathcal{\in L}(E)$ tel que $P_{f}$ est scindé.

\[P_{f}(X) = \prod_{\lambda \in Sp(f)}^{}(X - \lambda)^{m_{\lambda}}\]

Donc $P_{f}$ admet au moins une racine $\lambda \in Sp(f)$, sont $v_{1}$ un vecteur propre associé.

Soit $\mathcal{B =}\left( v_{1},\ldots,v_{n + 1} \right)$ une base de $E$.

\[E = {Vect}\left( v_{1} \right) \oplus {Vect}\left( v_{2},\ldots,v_{n + 1} \right)\] \[Mat_{\mathcal{B}}(f) = \begin{pmatrix} \lambda & * & * & * \\ 0 & \ & \ & \ \\ \vdots & \ & B & \ \\ 0 & \ & \ & \ \end{pmatrix}\] \[P_{f}(X) = \left\vert \begin{matrix} \lambda - X & * & * & * \\ 0 & \ & \ & \ \\ \vdots & \ & B - XI_{n} & \ \\ 0 & \ & \ & \ \end{matrix} \right\vert = (\lambda - X)\det\left( B - XI_{n} \right) = (\lambda - X)P_{B}(X)\]

$P_{f}$ est scindé donc $P_{B}$ aussi.

$B \in \mathcal{M}_{n}\left( \mathbb{K} \right)$

et $P_{B}$ est scindé.

D’après $H_{n}$, $B$ est trigonalisable.

Soit $P$ inversible telle que $PBP^{- 1} = T$ triangulaire et \(P^{'} = \begin{pmatrix} 1 & 0 & \ldots & 0 \\ 0 & \ & \ & \ \\ \vdots & \ & P & \ \\ 0 & \ & \ & \ \end{pmatrix} \in GL_{n + 1}\left( \mathbb{K} \right)\)

Alors :

\(P^{'}AP^{' - 1} = \begin{pmatrix} \lambda & * & * & * \\ 0 & \ & \ & \ \\ \vdots & \ & PBP^{- 1} & \ \\ 0 & \ & \ & \ \end{pmatrix} = \begin{pmatrix} \lambda & * & * & * \\ 0 & \ & \ & \ \\ \vdots & \ & T & \ \\ 0 & \ & \ & \ \end{pmatrix}\) triangulaire.

D’où $f$ trigonalisable.

On a montré par récurrence que $P_{f}$ scindé $\Rightarrow f$ trigonalisable.

Pour montrer la réciproque, si $f$ est trigonalisable, il existe une base $\mathcal{B}$ telle que \(Mat_{\mathcal{B}}(f) = \begin{pmatrix} a_{11} & \ & a_{1n} \\ \ & \ddots & \ \\ 0 & \ & a_{nn} \end{pmatrix}\)

D’où $P_{f}(X) = \prod_{i = 1}^{n}\left( a_{ii} - X \right)$ scindé.

Remarque :

Si $A$ est trigonalisable, alors les valeurs de la diagonale de la matrice triangulaire correspondante sont les valeurs propres de $A$ comptées avec multiplicité. Si \(A = P\begin{pmatrix} \lambda_{1} & \ & * \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n} \end{pmatrix}P^{- 1}\)

\[P_{A}(X) = P_{\begin{pmatrix} \lambda_{1} & \ & * \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n} \end{pmatrix}}(X) = \left\vert \begin{matrix} \lambda_{1} & \ & * \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n} \end{matrix} \right\vert = \prod_{i = 1}^{n}\left( \lambda_{i} - X \right)\]

Corollaire :

Dans $\mathcal{M}_{n}\left( \mathbb{C} \right)$, toutes les matrices sont trigonalisables.

Démonstration : Dans $\mathbb{C}\lbrack X\rbrack$, tous les polynômes sont scindés.

Classification des matrices trigonalisables de $\mathcal{M}_{3}\left( \mathbb{C} \right)$

Si $A = \mathcal{M}_{3}\left( \mathbb{C} \right)$, 3 cas de figure possibles.

  • Si $P_{A}(X) = \left( X - \lambda_{1} \right)\left( X - \lambda_{2} \right)\left( X - \lambda_{3} \right)$ où $\lambda_{1},\lambda_{2},\lambda_{3}$ sont distinctes, alors :
\[A = P\begin{pmatrix} \lambda_{1} & \ & 0 \\ \ & \lambda_{2} & \ \\ 0 & \ & \lambda_{3} \end{pmatrix}P^{- 1}\]
  • Si $P_{A}(X) = \left( X - \lambda_{2} \right)^{2}\left( X - \lambda_{1} \right)$
  • Si $\dim\left( E_{\lambda_{2}} \right) = 2$, alors \(A = P\begin{pmatrix} \lambda_{1} & \ & 0 \\ \ & \lambda_{2} & \ \\ 0 & \ & \lambda_{2} \end{pmatrix}P^{- 1}\)

  • Si $\dim\left( E_{\lambda_{2}} \right) = 1$

\[A = P\begin{pmatrix} \lambda_{1} & 0 & * \\ 0 & \lambda_{2} & * \\ 0 & 0 & \lambda_{2} \end{pmatrix}P^{- 1}\]

Soit $v_{1}$ vecteur propre de $\lambda_{1}$, $v_{2}$ vecteur propre de $\lambda_{2}$, \(P = \begin{pmatrix} v_{1} & v_{2} & ? \end{pmatrix}\)

  • Si $P_{A}(X) = (X - \lambda)^{3}$
  • Si $\dim\left( E_{\lambda} \right) = 3,\ E_{\lambda} = \mathbb{R}^{3}$
\[A = \lambda I_{3}\]

Si une matrice n’est pas diagonale mais admet une valeur propre triple, alors elle n’est pas diagonalisable.

  • Si $\dim\left( E_{\lambda} \right) = 2$

\(A = P\begin{pmatrix} \lambda & 0 & a \\ 0 & \lambda & b \\ 0 & 0 & \lambda \end{pmatrix}P^{- 1}\) avec $(a,b) \neq (0,0)$

Soit $\left( v_{1},v_{2} \right)$ base de $E_{\lambda}$. $P = (\begin{matrix} v_{1} & v_{2} & ? \end{matrix})$

  • Si $\dim\left( E_{\lambda} \right) = 1$

\(A = P\begin{pmatrix} \lambda & a & b \\ 0 & \lambda & c \\ 0 & 0 & \lambda \end{pmatrix}P^{- 1}\) avec $a \neq 0$ et $(b,c) \neq (0,0)$

Soit $v_{1}$ un vecteur propre.

\[P = \begin{pmatrix} v_{1} & ? & ? \end{pmatrix}\]

Résumé :

$P_{A}$ scindé $\Rightarrow$ $A$ trigonalisable.

$\mathbb{K = C \Rightarrow}A$ trigonalisable.

Chapitre 2 : Application de la diagonalisation et de la trigonalisation

Définition :

Soit $A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$, $k \in \mathbb{N}$.

$A^{k} = A \times \ldots \times A\ $($k$ fois)

Si $A \in GL_{n}\left( \mathbb{K} \right)$ (matrices inversibles).

\[\forall k \in \mathbb{N,\ }A^{- k} = \left( A^{- 1} \right)^{k}\]

Remarque :

Si $A = \begin{pmatrix} a & b
c & d \end{pmatrix}$, $A^{2} \neq \begin{pmatrix} a^{2} & b^{2}
c^{2} & d^{2} \end{pmatrix}$ en général.

On peut trouver des matrices nilpotentes : $\exists k,\ A^{k} = 0_{n}$

avec $A \neq 0_{n}$

Exemple :

\[A = \begin{pmatrix} 1 & - 1 \\ 1 & - 1 \end{pmatrix}\]

alors \(A^{2} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}\)

Proposition :

Si $A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$ et $\lambda$ valeur propre de $A$.

  • $\forall k \in \mathbb{N,\ }\lambda^{k}$ est valeur propre de $A^{k}$

  • Si $A \in GL_{n}\left( \mathbb{K} \right)$, $\forall k \in \mathbb{Z}$, $\lambda^{k}$ est valeur propre de $A^{k}$

Preuve : Voir TD

Proposition :

$\forall k,i \in \mathbb{N}$ et $\forall A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$

\[A^{i}A^{k} = A^{i + k},\ \left( A^{i} \right)^{k} = A^{ik}\]

Proposition :

Soit \(D = \begin{pmatrix} \lambda_{1} & \ & 0 \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n} \end{pmatrix},\ T = \begin{pmatrix} \lambda_{1} & \ & * \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n} \end{pmatrix}\)

Alors :

\[D^{k} = \begin{pmatrix} \lambda_{1}^{k} & \ & 0 \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n}^{k} \end{pmatrix},\ T^{k} = \begin{pmatrix} \lambda_{1}^{k} & \ & \# \\ \ & \ddots & \ \\ 0 & \ & \lambda_{n}^{k} \end{pmatrix}\]

Preuve : Produit matriciel.

I. Formule du binôme

1. Formule du binôme

Définition :

Soit $A \in \mathcal{M}_{n}\left( \mathbb{K} \right)$. $A$ est nilpotente d’ordre $p \in \mathbb{N}$ si et seulement si :

$A^{p} = (0)$ et $A^{p - 1} \neq 0$

Remarque :

\(\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}\) est nilpotente d’ordre 2.

\(\begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\) est nilpotente d’ordre 3.

Exercice :

Montrer que \(\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}\) est nilpotente d’ordre 2.

Montrer que \(\begin{pmatrix} 0 & a & c \\ 0 & 0 & b \\ 0 & 0 & 0 \end{pmatrix}\) est nilpotente d’ordre 3.

Montrer que \(\begin{pmatrix} 0 & 0 & a \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\) est nilpotente d’ordre 3.

\[\begin{pmatrix} 0 & a & c \\ 0 & 0 & b \\ 0 & 0 & 0 \end{pmatrix}^{2} = \begin{pmatrix} 0 & 0 & ab \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\]

Remarque :

Toute matrice triangulaire supérieure stricte est nilpotente.

Théorème :

Soient $A$ et $B$ $\in \mathcal{M}_{n}\left( \mathbb{K} \right)$ telles que $AB = BA$

\[(A + B)^{k} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i}B^{i}}\]

Rappel : $\left( \begin{array}{r} k
i \end{array} \right) = \frac{k\ !}{i\ !(k - i)\ !}$

On peut les retrouver avec le triangle de Pascal.

Démonstration : Par récurrence

Initialisation pour $k = 1\ $: trivial

\[\text{Supposons que}\ (A + B)^{k} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i}B^{i}}\] \[(A + B)^{k + 1} = (A + B)(A + B)^{k}\] \[(A + B)^{k + 1} = (A + B)\left( \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i}B^{i}} \right)\] \[(A + B)^{k + 1} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i + 1}B^{i}} + \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)BA^{k - i}B^{i}}\]

Or $AB = BA$

\[(A + B)^{k + 1} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i + 1}B^{i}} + \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i}B^{i + 1}}\] \[(A + B)^{k + 1} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i + 1}B^{i}} + \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i}B^{i + 1}}\] \[(A + B)^{k + 1} = \sum_{i = 0}^{k}{\left( \begin{array}{r} k \\ i \end{array} \right)A^{k - i + 1}B^{i}} + \sum_{j = 1}^{k + 1}{\left( \begin{array}{r} k \\ j - 1 \end{array} \right)A^{k - j + 1}B^{j}}\] \[(A + B)^{k + 1} = \sum_{j = 0}^{k + 1}{\left\lbrack \left( \begin{array}{r} k \\ j \end{array} \right) + \left( \begin{array}{r} k \\ j + 1 \end{array} \right) \right\rbrack A^{k - j + 1}B^{j}}\] \[(A + B)^{k + 1} = \sum_{j = 0}^{k + 1}{\left( \begin{array}{r} k + 1 \\ j \end{array} \right)A^{k - j + 1}B^{j}}\]

Ce qui prouve l’hérédité.

Attention : La formule est fausse si $A$ et $B$ ne commutent pas

Remarque :

En pratique, si $T$ est triangulaire supérieure, alors $T = D + N$, avec $D$ diagonale et $N$ triangulaire supérieure stricte donc nilpotente et $DN = ND$

Exemple :

\[A = \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} + \begin{pmatrix} 0 & 2 \\ 0 & 0 \end{pmatrix}\] \[D^{n} = D\ \forall n \in \mathbb{N}\] \[N^{n} = 0\ \forall n > 1\] \[A^{n} = (D + N)^{n} = \sum_{k = 0}^{n}{\left( \begin{array}{r} n \\ k \end{array} \right)D^{n - k}N^{k}} = D^{n} + \left( \begin{array}{r} n \\ 1 \end{array} \right)D^{n - 1}N = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} + n\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\begin{pmatrix} 0 & 2 \\ 0 & 0 \end{pmatrix}\] \[A^{n} = \begin{pmatrix} 1 & 2n \\ 0 & 1 \end{pmatrix}\]

Exemple :

\[T = \begin{pmatrix} - 1 & 0 & 0 \\ 0 & 3 & 1 \\ 0 & 0 & 3 \end{pmatrix} = \begin{pmatrix} - 1 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 3 \end{pmatrix} + \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\]

2. Puissance de matrices semblables

Proposition :

Si $A = PBP^{- 1}$

Alors :

\[A^{k} = PB^{k}P^{- 1}\]

Démonstration :

\[A^{2} = PBP^{- 1}PBP^{- 1} = PBIBP^{- 1} = PB^{2}P^{- 1}\]

Etc.

Proposition :

Si $A$ est diagonalisable : $A^{k} = PD^{k}P^{- 1}$

Le contenu de cet article est la propriété exclusive de son auteur.