- Décomposition polaire
-
Sommaire
Décomposition polaire d'une matrice réelle
- Les applications suivantes sont des homéomorphismes, et même des difféomorphismes.
Autrement dit, toute matrice inversible réelle se décompose de façon unique en produit d'une matrice orthogonale et d'une matrice symétrique strictement positive.
- Les applications suivantes sont surjectives mais non injectives :
Esquisses de démonstrations- Cas d'une matrice réelle inversible
-
- Unicité. Si M = QS avec Q matrice orthogonale et S matrice symétrique définie positive, alors tM = SQ − 1, donc tMM = S2. Mais tMM est symétrique positive et admet donc une unique racine carrée symétrique positive, donc S est égale à cette racine et Q est égale à MS − 1.
- Existence. Soit M la matrice inversible à décomposer, alors tMM est symétrique positive. Notons S son unique racine carrée symétrique positive. Comme M est inversible, S l'est aussi, et on vérifie que MS − 1 est orthogonale.
Remarque. Dans le cas des matrices complexes, on procède de même, en remplaçant tM par .
- Cas d'une matrice réelle quelconque
- On suppose avoir le résultat pour les matrices réelles inversibles. On procède par densité.
- Existence. Soit M une matrice réelle. Il existe une suite Mn = QnSn de matrices inversibles avec la décomposition polaire précédente, telle que la suite de matrice (Mn)n converge vers M. Le groupe orthogonal est compact car fermé borné d'un espace vectoriel normé (fermé car l'adjonction est continue, borné car la norme subordonnée d'une matrice orthogonale est égale à 1). D'où on peut extraire de (Qn)n une sous-suite convergente vers un certain Q matrice orthogonale. On définit S par S = Q − 1M. On conclut en remarquant que la norme subordonnée de pour tout entier n donc est aussi (par continuité sur Qn et Mn) nulle à la limite. D'où tS = S.
- Unicité. Il n'y a plus unicité dans le cas d'une matrice réelle quelconque. Par exemple, pour M = 0, on peut prendre S = 0 et Q matrice orthogonale quelconque.
- Autre preuve de la surjectivité (dans les deux cas)
(On identifie ici tout endomorphisme de avec sa matrice dans la base canonique.) La matrice tMM est symétrique positive. Notons S sa racine carrée symétrique positive. Alors tSS = tMM donc pour tout vecteur X de , (en particulier S et M ont même noyau). Par conséquent, il existe un isomorphisme isométrique tel que pour tout X, M(X) = Q1(S(X)). Par somme directe avec un isomorphisme isométrique arbitraire entre les orthogonaux de Im(S) et Im(M), on obtient une matrice orthogonale Q telle que M = QS.
Décomposition polaire d'une matrice complexe
- Les applications suivantes sont des homéomorphismes, et même des difféomorphismes.
Autrement dit, toute matrice inversible complexe se décompose de façon unique en produit d'une matrice unitaire et d'une matrice hermitienne strictement positive.
- Les applications suivantes sont surjectives mais en général non injectives :
Remarque. Pour n=1, on retrouve l'écriture z = reiθ d'un nombre complexe non nul. C'est la raison du nom de décomposition polaire : c'est une sorte de généralisation des coordonnées polaires.
Application
L'ensemble des matrices symétriques ou hermitiennes définies positives est un cône ouvert convexe, donc est contractile. Il en résulte que a le même type d'homotopie que et que a le même type d'homotopie que .
Références
- Rached Mneimné et Frédéric Testard, Introduction à la théorie des groupes de Lie classiques [détail des éditions] p. 18–20
- Jacques Lafontaine, Introduction aux variétés différentielles [détail des éditions] p. 48 et 330 de l'éd. 2010 : « Décomposition de Cartan du groupe linéaire »
Voir aussi
Wikimedia Foundation. 2010.