Matrice Définie Positive

Matrice Définie Positive

Matrice définie positive

En algèbre linéaire, la notion de matrice définie positive est analogue à celle de nombre réel strictement positif.

On introduit tout d'abord les notations suivantes ; si a est une matrice à éléments réels ou complexes :

  • aT désigne la transposée de a
  • a * désigne la matrice transconjuguée de a (conjuguée de la transposée)

On rappelle que :

Sommaire

Matrice symétrique réelle définie positive

Soit M une matrice symétrique réelle d'ordre n. Elle est dite définie positive si elle vérifie l'une des 3 propriétés équivalentes suivantes :

1. Pour toute matrice colonne non nulle \ \textbf{x} à n éléments réels, on a
\textbf{x}^{T} M \textbf{x} > 0.

(autrement dit, la forme quadratique définie par \,M est strictement positive pour \,\mathbf{x}\not=0)

2. Toutes les valeurs propres de M sont strictement positives, c'est-à-dire :
\ \mathrm{sp}(M)  \subset\, ]0,\, +\infty[\,.
3. La forme bilinéaire symétrique définie par la relation
\langle \textbf{x},\textbf{y}\rangle_M = \textbf{x}^{T} M \textbf{y}

est un produit scalaire sur \mathbb{R}^n (identifié ici à l'espace vectoriel des matrices colonnes à n éléments réels).

Une matrice symétrique réelle est dite définie négative si son opposée (symétrique elle aussi) est définie positive.

La propriété 1 signifie que M définit sur \mathbb{R}^n une forme quadratique définie positive, la propriété 2 que sur \mathbb{R}^n, vu comme espace euclidien avec le produit scalaire <x,y>=\sum_{i=1}^nx_iy_i, M définit un opérateur auto-adjoint positif. L'équivalence entre 1 et 2 vient de cette double interprétation, à la lumière de la réduction de Gauss et du théorème spectral. Si 1 est vraie, sachant que les valeurs propres d'une matrice symétrique réelle sont réelles, on voit en appliquant 1 aux vecteurs propres que les valeurs propres sont strictement positives. Si 2 est vraie, il existe une matrice orthogonale \,Q telle que \,QAQ^{-1} soit diagonale (parce que \,A est symétrique réelle) à coefficients diagonaux strictement positifs (c'est l'hypothèse 2 sur les valeurs propres). Mais comme Q − 1 = tQ, la matrice \,A est aussi congrue à la matrice diagonale en question, donc la forme quadratique \textbf{x}^{T} M \textbf{x} est définie positive.

Exemple de base

Pour toute matrice réelle \,A, les matrices symétriques \,{}^tAA et \,A{}^tA sont positives ; elles sont définies positives si et seulement si \,A est inversible. Les matrices de Gram donnent un exemple de cette situation.

Exemple : matrice de Hilbert

On appelle matrice de Hilbert la matrice (symétrique d'ordre n) H = (h_{i,\, j}), telle que h_{i,\, j} = \frac{1}{i + j  - 1}. Elle est définie positive.

En effet, soit une matrice colonne quelconque \ \textbf{x} à n éléments réels x_1, \dots, x_n.
On remarque que \forall\, i,\, \forall\, j,\, h_{i,\,j} = \int_0^1 t^{i + j - 2}\, dt. Alors, par linéarité de l'intégrale :
\textbf{x}^{T} H \textbf{x} = \sum_{i = 1}^n \sum_{j = 1}^n h_{i,\, j}\, x_i\, x_j = \int_0^1 \sum_{i = 1}^n \sum_{j = 1}^n t^{i + j - 2}\, x_i\, x_j\, dt =
\int_0^1 \sum_{i = 1}^n \sum_{j = 1}^n \left(t^{i - 1}\, x_i\right)\,  \left(t^{j - 1}\,  x_j\right)\,dt  = \int_0^1 \left(\sum_{i = 1}^n t^{i - 1}\, x_i\right)\, \left(\sum_{j = 1}^n t^{j - 1}\,  x_j\right)\,dt,
d'où enfin : \textbf{x}^{T} H \textbf{x} = \int_0^1 \left(\sum_{i = 1}^nx_i\,  t^{i - 1}\right)^2\, dt.
Dans cette dernière intégrale, l'intégrande est continu et à valeurs positives. Par conséquent :
  • \textbf{x}^{T} H \textbf{x} \geq 0 ;
  • si \textbf{x}^{T} H \textbf{x} = 0, alors pour tout t \in\, [0,\, 1],\, \left(\sum_{i = 1}^nx_i\,  t^{i - 1}\right)^2 = 0.
Donc pour tout t \in\, [0,\, 1],\, \sum_{i = 1}^nx_i\,  t^{i - 1} = 0.
Il en résulte que les \ x_i, coefficients d'un polynôme admettant une infinité de racines, sont tous nuls, c'est-à-dire \ \textbf{x} = 0.
Ceci prouve que \textbf{x}^{T} H \textbf{x} > 0 pour toute matrice colonne non nulle \ \textbf{x} à n éléments réels.

Nota : ceci est un cas particulier d'une propriété des matrices de Gram. La matrice de Gram d'une famille de n vecteurs d'un espace préhilbertien (réel ou complexe) est définie positive si et seulement si la famille est libre.

Matrice hermitienne définie positive

On étend les propriétés et définitions précédentes aux matrices complexes hermitiennes.

Soit M une matrice hermitienne d'ordre n. Elle est dite définie positive si elle vérifie l'une des 3 propriétés équivalentes suivantes :

1. Pour toute matrice colonne non nulle \ \textbf{z} à n éléments complexes, on a
\textbf{z}^{*} M \textbf{z} > 0.
2. Toutes les valeurs propres de M sont strictement positives, c'est-à-dire :
\ \mathrm{sp}(M)  \subset\, ]0,\, +\infty[\,.
3. La forme sesquilinéaire définie par la relation
\langle \textbf{x},\textbf{y}\rangle_M = \textbf{x}^{*} M \textbf{y}

est un produit scalaire sur \mathbb{C}^n (identifié ici à l'espace vectoriel des matrices colonnes à n éléments complexes).

Une matrice hermitienne est dite définie négative si son opposée (hermitienne elle aussi) est définie positive.

Propriétés

Les propriétés suivantes sont communes aux matrices symétriques réelles et aux matrices complexes hermitiennes.

  1. Toute matrice définie positive est inversible (à déterminant réel strictement positif), et son inverse est elle aussi définie positive.
  2. Si M est définie positive et r est un nombre réel strictement positif, alors rM est définie positive.
  3. Si M et N sont définies positives, alors M + N est définie positive.
  4. Si M et N sont définies positives, et si MN = NM (on dit qu'elles commutent), alors MN est définie positive.
  5. Une matrice M est définie positive si et seulement s'il existe une matrice définie positive A telle que A2 = M ; dans ce cas, la matrice définie positive A est unique, et on peut la noter A = M1 / 2 (voir l'article racine carrée d'une matrice).

Cette propriété est utilisée pour la décomposition polaire.

Critère de Sylvester

Pour qu'une matrice A=\big(a_{ij}\big)_{1\le i,j\le n}, réelle symétrique ou complexe hermitienne, soit définie positive, il faut et suffit que les les n matrices A_p=\big(a_{ij}\big)_{1\le i,j\le p}, {1\le p\le n} aient leur déterminant strictement positif, autrement dit que tous les mineurs principaux aient leur déterminant strictement positif.


Remarque. Pour n=2, le critère de Sylvester est essentiellement le critère de positivité du trinôme du second degré.

Preuve. La condition est nécessaire. On remarque d'abord que si la forme quadratique q(\mathbf{x})=\sum_{1\le i,j,\le n}a_{ij}x_ix_j est définie positive, alors \,\det A>0. En effet, par rapport à une base orthogonale pour cette forme quadratique (il en existe, d'après la réduction de Gauss), la matrice de q s'écrit \,\mathrm{diag}(c_1,...,c_n) les \,c_i étant tous strictement positifs. Alors \,c_1...c_n=(\det A)(\det Q)^2 (Q étant la matrice de passage), donc \,\det A>0. Le résultat s'ensuit, en appliquant le même raisonnement à la restriction de q aux sous-espaces \,\R^k\times\{0\}, pour \,1\le k\le n-1.

Montrons maintenant que la condition est suffisante. On procède par récurrence sur la dimension. Pour n=1 c'est évident : alors \,q(\mathbf{x})=a_{11}x_1^2. Supposons la propriété vraie pour n-1. La forme q(\mathbf{x})=\sum_{1\le i,j,\le n}a_{ij}x_ix_j est non dégénérée (parce que \,\det A\not=0) et sa restriction à \,E=\R^{n-1}\times\{0\} est définie positive (d'après l'hypothèse de récurrence). En particulier, \,q_{\vert E} est non dégénérée, donc

\,\R^n=E\oplus E^{\perp} \quad \textrm{avec} \quad \dim E^{\perp}=1

Soit \,(e_1,...,e_{n-1}) une base orthogonale pour \,q_{\vert E}. En la complétant par un vecteur \,e_n non nul de \,E^{\perp}, on obtient une base orthogonale pour q. Soit \,\mathrm{diag}(c_1,...,c_n) la matrice de q dans cette base. On sait déjà que \,c_i>0 pour \,1\le i\le n-1, puisque \,q_{\vert E} est définie positive. On sait aussi, d'après le même argument que dans la première partie (qui met implicitement en jeu le discriminant), que \,c_1...c_n et \,\det A ont même signe. Ainsi \,c_n est lui aussi strictement positif, ce qui montre que q est définie positive.

Dans le cas complexe, la preuve est analogue, en considérant la forme hermitienne définie par la matrice.

Voir aussi

  • Portail des mathématiques Portail des mathématiques
Ce document provient de « Matrice d%C3%A9finie positive ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Matrice Définie Positive de Wikipédia en français (auteurs)

Игры ⚽ Поможем решить контрольную работу

Regardez d'autres dictionnaires:

  • Matrice definie positive — Matrice définie positive En algèbre linéaire, la notion de matrice définie positive est analogue à celle de nombre réel strictement positif. On introduit tout d abord les notations suivantes ; si a est une matrice à éléments réels ou… …   Wikipédia en Français

  • Matrice définie positive — En algèbre linéaire, la notion de matrice définie positive est analogue à celle de nombre réel strictement positif : une matrice définie positive est une matrice positive inversible (la réciproque est fausse). On introduit tout d abord les… …   Wikipédia en Français

  • Matrice Semi-Définie Positive — En algèbre linéaire, la notion de matrice semi définie positive (on dit aussi : matrice positive) est analogue à celle de nombre réel positif ou nul. La notion de matrice semi définie positive est très proche de celle de matrice définie… …   Wikipédia en Français

  • Matrice semi-definie positive — Matrice semi définie positive En algèbre linéaire, la notion de matrice semi définie positive (on dit aussi : matrice positive) est analogue à celle de nombre réel positif ou nul. La notion de matrice semi définie positive est très proche de …   Wikipédia en Français

  • Matrice semi-définie positive — En algèbre linéaire, la notion de matrice semi définie positive (on dit aussi : matrice positive) est analogue à celle de nombre réel positif ou nul. La notion de matrice semi définie positive est très proche de celle de matrice définie… …   Wikipédia en Français

  • Matrice symétrique — En algèbre linéaire et bilinéaire, une matrice symétrique est une matrice carrée qui est égale à sa propre transposée. Sommaire 1 Exemples 2 Propriétés 3 Matrices symétriques réelles …   Wikipédia en Français

  • Matrice hermitienne — Hermitien Plusieurs entités mathématiques sont qualifiées d hermitiennes en référence au mathématicien Charles Hermite. Sommaire 1 Espace hermitien 2 Produit scalaire hermitien 3 Opérateur hermitien …   Wikipédia en Français

  • Matrice hermitique — Hermitien Plusieurs entités mathématiques sont qualifiées d hermitiennes en référence au mathématicien Charles Hermite. Sommaire 1 Espace hermitien 2 Produit scalaire hermitien 3 Opérateur hermitien …   Wikipédia en Français

  • Matrice de Gram — Déterminant de Gram En géométrie euclidienne ou hilbertienne, le déterminant de Gram permet de calculer des volumes et de tester l indépendance linéaire d une famille de vecteurs. Il associe des calculs de produits scalaires et d un déterminant.… …   Wikipédia en Français

  • Matrice antisymétrique — En mathématiques, et plus précisément en algèbre linéaire, une matrice antisymétrique est une matrice carrée opposée à sa transposée. Sommaire 1 Définition 2 Exemples 3 Propriétés …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”