- Racine carrée d'une matrice
-
En mathématiques, la notion de racine carrée d'une matrice particularise aux anneaux de matrices carrées la notion générale de racine carrée dans un anneau.
Sommaire
Définition
Soient A un anneau et M une matrice carrée d'ordre à coefficients dans A. Un élément R de est une racine carrée de M si R2 = M.
Une matrice donnée peut n'admettre aucune racine carrée, comme un nombre fini voire infini de racine carrées.
Exemples
Dans :
- est une racine carrée de
- les (pour tout réel x) sont des racines carrées de
- n'a pas de racine carrée R, car cela imposerait (mais elle en a dans ).
Dans , la matrice n'a pas de racine carrée, parce qu'elle est non nulle mais de carré nul (on dit qu'elle est nilpotente d'indice 2). En effet, une racine carrée R serait aussi nilpotente (de puissance 4e nulle), or toute matrice nilpotente de taille 2 est de carré nul. On aurait donc M = R2 = 0, ce qui n'est pas le cas.
Inverse
Si R est une racine carrée de M alors R est inversible si et seulement si M l'est.
Si une matrice est inversible, les racines carrées de son inverse sont les inverses de ses racines carrées.
Matrice positive
Toute matrice symétrique à coefficients réels est diagonalisable via une matrice de passage orthogonale, et elle est positive si et seulement si ses valeurs propres sont réelles positives. Par ailleurs, si une matrice S est diagonalisable alors son carré a mêmes sous-espaces propres (associés aux carrés des valeurs propres de S). Par conséquent, parmi les racines carrées d'une matrice symétrique positive M, une et une seule est symétrique positive : la matrice S qui a mêmes sous-espaces propres que M et dont les valeurs propres associées sont les racines carrées de celles de M. De plus, lorsque M est définie positive, S l'est aussi.
Pour les matrices à coefficients complexes, la situation est la même en remplaçant « symétrique » par « hermitienne » et « orthogonale » par « unitaire » .
Algorithme de calcul de Denman–Beavers
Le calcul de la racine carrée d'une matrice A peut s'effectuer par convergence d'une suite de matrices. Soit Y0 = A et Z0 = I où I est la matrice identité. Chaque itération repose sur :
La convergence n'est pas garantie (même si A possède une racine carrée) mais si elle a lieu alors la suite Yk converge de façon quadratique vers A1/2, tandis que la suite Zk converge vers son inverse, A−1/2 (Denman et Beavers 1976 ; Cheng et al. 2001).
Références
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Square root of a matrix » (voir la liste des auteurs)
- (en) Sheung Hun Cheng, Nicholas J. Higham (en), Charles S. Kenney et Alan J. Laub, « Approximating the Logarithm of a Matrix to Specified Accuracy », dans SIAM Journal on Matrix Analysis and Applications, vol. 22, no 4, 2001, p. 1112–1125 [texte intégral, lien DOI]
- (en) Eugene D. Denman et Alex N. Beavers, « The matrix sign function and computations in systems », dans Applied Mathematics and Computation, vol. 2, no 1, 1976, p. 63–94 [lien DOI]
Article connexe
Wikimedia Foundation. 2010.