Matrice symétrique

Matrice symétrique

En algèbre linéaire et bilinéaire, une matrice symétrique est une matrice carrée qui est égale à sa propre transposée.

Sommaire

Exemples

Intuitivement, les coefficients d'une matrice symétrique sont symétriques par rapport à la diagonale principale (du coin en haut à gauche jusqu'à celui en bas à droite). La matrice suivante est donc symétrique :

\begin{pmatrix}
2 & 4 & 6\\
4 & 0 & 10\\
6 & 10 & 12\end{pmatrix}

Toute matrice diagonale est symétrique.

Propriétés

Matrices symétriques réelles

Structure euclidienne

On note \mathcal{S}^n(\R), ou simplement \mathcal{S}^n s'il n'y a pas de confusion possible, l'espace vectoriel des matrices réelles symétriques d'ordre n. Cet espace vectoriel de dimension n(n + 1) / 2 est canoniquement muni d'une structure d'espace euclidien, qui est celle de \mathcal{M}_n (\R). Le produit scalaire est défini par


(A,B)\in\mathcal{S}^n\times\mathcal{S}^n\mapsto\langle A,B\rangle:=\operatorname{tr}(A^T B)=\sum_{\scriptstyle 1\leqslant i\leqslant n\atop\scriptstyle 1\leqslant j\leqslant n}A_{ij}B_{ij}\in\R,

\textstyle\operatorname{tr}(A)=\sum_{i=1}^nA_{ii} désigne la trace de A et Aij désigne l'élément (i,j) de A. La norme associée à ce produit scalaire est la norme de Frobenius, que l'on note ici simplement


\|A\|= \sqrt{ \operatorname{tr}(A^T A)} =\left(\sum_{\scriptstyle 1\leqslant i\leqslant n\atop\scriptstyle 1\leqslant j\leqslant n}A_{ij}^2\right)^{\frac{1}{2}}

Avec ces notations, l'inégalité de Cauchy-Schwarz s'écrit alors pour tout A et B\in\mathcal{S}^n :


|\langle A,B\rangle|\leqslant\|A\|\,\|B\|.

Théorie spectrale

Décomposition spectrale

Le théorème spectral (en dimension finie) énonce que toute matrice symétrique à éléments réels est diagonalisable à l'aide d'une matrice orthogonale. Ses valeurs propres sont donc réelles et ses sous-espaces propres sont orthogonaux. Une démonstration est proposée dans l'article Endomorphisme autoadjoint.

  • Remarque : une matrice symétrique à coefficients complexes peut ne pas être diagonalisable. Par exemple :
    \begin{pmatrix}1 & i\\i & -1\end{pmatrix}
    En effet, cette matrice admet 0 comme seule valeur propre ; si elle était diagonalisable, elle serait nulle. L'analogue complexe des matrices symétriques réelles est en fait les matrices hermitiennes (qui, elles, sont diagonalisables).

Inégalité de Fan

On note \lambda_i(A)\in\R, i=1,\ldots,n, les n valeurs propres de A\in\mathcal{S}^n, que l'on range par ordre décroissant :


\lambda_1(A)\geqslant \lambda_2(A)\geqslant \cdots\geqslant \lambda_n(A).

On introduit l'application


\lambda:\mathcal{S}^n\to\R^n:A\mapsto(\lambda_1(A), \ldots, \lambda_n(A))

et, pour un vecteur (colonne) v\in\R^n, on note v^{\top\!} le vecteur transposé et \operatorname{Diag}(v) la matrice diagonale dont l'élément (i,i) est vi.

Inégalité de Fan — Pour tout A et B\in\mathcal{S}^n, on a


\langle A,B\rangle\leqslant\lambda(A)^{\top\!}\lambda(B),

avec égalité si et seulement si l'on peut obtenir les décompositions spectrales ordonnées λ(A) et λ(B) de A et B par la même matrice orthogonale, c'est-à-dire si et seulement si


\exists\, V~\mbox{orthogonale}:\quad A=V\;\operatorname{Diag}(\lambda(A))\;V^{\top\!}\quad\mbox{et}\quad B=V\;\operatorname{Diag}(\lambda(B))\;V^{\top\!}.

Remarques

  • L'inégalité de Fan a été publiée par K. Fan en 1949[1], mais elle est reliée étroitement à un travail antérieur de J. von Neumann (1937[2]). La condition pour avoir l'égalité est due à C. M. Teobald (1975[3]).
  • On sait que A et B\in\mathcal{S}^n sont diagonalisables par la même matrice orthogonale si et seulement si elles commutent. La condition énoncée ci-dessus pour avoir l'égalité dans l'inégalité de Fan est plus forte, car elle requiert que les matrices diagonales obtenues soient ordonnées. Ainsi A=\operatorname{Diag}(1,2) et B=\operatorname{Diag}(2,1) commutent mais \langle A,B\rangle=4 diffère de \lambda(A)^{\top\!}\lambda(B)=5.
  • L'inégalité de Fan est un raffinement de l'inégalité de Cauchy-Schwarz sur \mathcal{S}^n, dans le sens où cette dernière peut se déduire de la première. En effet, si A=V\,\operatorname{Diag}(\lambda(A))\,V^{\top\!} avec V orthogonale, on a
    \|\lambda(A)\|_2=\|\operatorname{Diag}(\lambda(A))\|=\|V\,\operatorname{Diag}(\lambda(A))\,V^{\top\!}\|=\|A\|.
    Dès lors l'inégalité de Fan et l'inégalité de Cauchy-Schwarz sur \R^n donnent
    \langle A,B\rangle\leqslant\|\lambda(A)\|_2\,\|\lambda(B)\|_2=\|A\|\,\|B\|.
    On en déduit l'inégalité de Cauchy-Schwarz sur \mathcal{S}^n en tenant compte également de celle obtenue en remplaçant ci-dessus B par B.
  • En appliquant l'inégalité de Fan à des matrices diagonales, on trouve une inégalité de Hardy, Littlewood et Pólya[4], simple à démontrer directement, selon laquelle le produit scalaire euclidien de deux vecteurs x et y est majoré par celui des vecteurs [x] et [y] obtenus à partir des vecteurs précédents en ordonnant leurs composantes par ordre décroissant :
    \forall\,x,y\in\R^n:\qquad x^{\top\!}y\leqslant[x]^{\top\!}[y].

Matrices symétriques positives

Articles détaillés : Matrice positive et Matrice définie positive.
  • Une matrice S symétrique réelle d'ordre n est dite positive si la forme bilinéaire symétrique associée est positive, c'est-à-dire si


\forall\,x\in\R^n,\qquad x^{\!\top}Sx\geqslant 0.

  • Une matrice S symétrique réelle d'ordre n est dite définie positive si la forme bilinéaire associée est définie et positive, c'est-à-dire si


\forall\,x\in\R^n\setminus\{0\},\qquad x^{\!\top}Sx> 0.

Utilisations concrètes

Annexes

Notes

  1. (en) K. Fan (1949). On a theorem of Weyl concerning eigenvalues of linear transformations. Proceedings of the National Academy of Sciences of U.S.A. 35, 652-655.
  2. (en) J. von Neumann (1937). Some matrix inequalities and metrizatiion of matric-space. Tomsk University Review 1, 286-300. In Collected Works, Pergamon, Oxford, 1962, Volume IV, 205-218.
  3. (en) C.M. Teobald (1975). An inequality for the trace of the product of two symmetric matrices. Mathematical Proceedings of the Cambridge Philosophical Society 77, 265-266.
  4. (en) G.H. Hardy, J.E. Littlewood, G. Pólya (1952). Inequalities. Cambridge University Press, Cambridge, U.K.

Ouvrage de référence

  • (en) J.M. Borwein, A.S. Lewis (2000). Convex Analysis an Nonlinear Optimization. Springer-Verlag, New York.

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Matrice symétrique de Wikipédia en français (auteurs)

Игры ⚽ Нужно сделать НИР?

Regardez d'autres dictionnaires:

  • Matrice Symétrique — Sommaire 1 Définitions 2 Interprétations 3 Matrices symétriques positives 3.1 Définitions …   Wikipédia en Français

  • Matrice symetrique — Matrice symétrique Sommaire 1 Définitions 2 Interprétations 3 Matrices symétriques positives 3.1 Définitions …   Wikipédia en Français

  • Matrice symétrique — ● Matrice symétrique matrice égale à sa transposée …   Encyclopédie Universelle

  • matrice symétrique — simetrinė matrica statusas T sritis fizika atitikmenys: angl. symmetric matrix; symmetrical matrix vok. symmetrische Matrix, f rus. симметрическая матрица, f pranc. matrice symétrique, f …   Fizikos terminų žodynas

  • Tridiagonalisation d'une matrice symétrique — Le théorème spectral affirme que toute matrice symétrique réelle S est diagonalisable dans une base orthonormée. Cependant, une telle diagonalisation est souvent coûteuse en temps de calcul et il est parfois suffisant de transformer une matrice… …   Wikipédia en Français

  • Reduction d'une matrice symetrique reelle — Réduction d une matrice symétrique réelle Soit M une matrice symétrique réelle, alors il existe une matrice orthogonale P et une matrice diagonale D telles que M = P − 1DP = PTDP. Ceci est le théorème spectral. De plus, toutes les valeurs propres …   Wikipédia en Français

  • Réduction d'une matrice symétrique réelle — Soit M une matrice symétrique réelle, alors il existe une matrice orthogonale P et une matrice diagonale D telles que M = P − 1DP = PTDP. Ceci est le théorème spectral. De plus, toutes les valeurs propres de M sont réelles …   Wikipédia en Français

  • Théorème de réduction d'une matrice symétrique réelle — Réduction d une matrice symétrique réelle Soit M une matrice symétrique réelle, alors il existe une matrice orthogonale P et une matrice diagonale D telles que M = P − 1DP = PTDP. Ceci est le théorème spectral. De plus, toutes les valeurs propres …   Wikipédia en Français

  • Matrice Définie Positive — En algèbre linéaire, la notion de matrice définie positive est analogue à celle de nombre réel strictement positif. On introduit tout d abord les notations suivantes ; si a est une matrice à éléments réels ou complexes : aT désigne la… …   Wikipédia en Français

  • Matrice definie positive — Matrice définie positive En algèbre linéaire, la notion de matrice définie positive est analogue à celle de nombre réel strictement positif. On introduit tout d abord les notations suivantes ; si a est une matrice à éléments réels ou… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”