- Fonction d'autocorrélation
-
Autocorrélation
L'autocorrélation est un outil mathématique souvent utilisé en traitement du signal. C'est la corrélation croisée d'un signal par lui-même. L'autocorrélation permet de détecter des régularités, des profils répétés dans un signal comme un signal périodique perturbé par beaucoup de bruit, ou bien une fréquence fondamentale d'un signal qui ne contient pas effectivement cette fondamentale, mais l'implique avec plusieurs de ses harmoniques.
Sommaire
Définitions
Généralités
Note : La confusion est souvent faite entre l'autocovariance et l'autocorrélation obtenue en divisant cette dernière par la variance. Ces deux notions généralisent les notions classiques de covariance ayant pour dimension la dimension de la variable élevée au carré et de coefficient de corrélation compris entre -1 et +1. Les considérations qui suivent utilisent le langage le plus répandu chez les praticiens, sans division par la variance. Il existe d'autre part deux définitions fondamentalement différentes.
À un processus stochastique discret ou continu, correspond une « autocorrélation » statistique qui généralise la notion de covariance. Dans le cas d'un processus continu (en toute généralité complexe) , la fonction d'autocorrélation statistique se définit comme :
Dans le cas d'un signal stationnaire, on peut écrire :
est le décalage temporel et l'espérance mathématique se définit à partir de la densité de probabilité.
À partir d'un signal , on peut définir l'autocorrélation temporelle en remplaçant la moyenne d'ensemble par une moyenne temporelle (voir autocovariance) :
Lorsque le signal est considéré comme réalisation d'un processus stationnaire ergodique, l'autocorrélation temporelle est identique à l'autocorrélation statistique. Elle peut être utilisée pour calculer le contenu en fréquence du signal (voir densité spectrale).
Dans certains problèmes, elle permet d'analyser le signal sans référence à son contenu en fréquences.
Statistiques
En statistique, l'autocorrélation d'une série temporelle discrète ou d'un processus Xt est simplement la corrélation du processus par rapport à une version décalée dans le temps de lui-même. Si Xt est un processus Stationnarité d'une série temporelle d'espérance μ alors la définition est
où E est l'espérance mathématique et k est le décalage temporel, σ2 est la variance (statistiques et probabilités) et μ la moyenne de la série. C'est une fonction à valeur dans l'intervalle [−1, 1] avec 1 indiquant une parfaite corrélation (Les signaux se recouvrent exactement quand le temps est décalé de k) et −1 indiquant une parfaite anti-corrélation. Il est d'usage pratique dans de nombreuses disciplines de tracer la normalisation par σ2 et d'utiliser le terme autocorrélation sans distinction avec celui d'autocovariance.
Traitement du Signal
En traitement du signal, pour un signal donné f(t), l'autocorrélation continue Rf(τ) est la corrélation croisée continue de f(t) avec elle-même, à l'intervalle de temps τ, et est définie comme:
où f* représente le conjugué complexe et le cercle représente l'opération de convolution. Pour une fonction réelle, f* = f.
Formellement, l'autocorrélation discrète R pour l'intervalle de temps j et le signal xn est
où m est la valeur moyenne (valeur attendue) de xn. Souvent, les autocorrélations sont calculées pour un signal centré sur zéro. C’est-à-dire un signal dont la valeur moyenne est nulle. L'autocorrélation est alors définie par
L'autocorrélation multi-dimensionelle est définie de manière similaire. Par exemple, en trois dimensions l'autocorrélation devient
Propriétés
Dans ce qui suit, nous décrirons les propriétés d'autocorrélation uni-dimensionnelle uniquement, puisque la plupart des propriétés sont facilement étendues du cas à une dimension aux cas multidimensionnels.
- Une propriété fondamentale de l'autocorrélation est la symétrie, R(i) = R(−i), ce qui se démontre à partir de la définition. Dans un cas continu, l'autocorrélation est même une fonction paire
- quand f est une fonction réelle, et une fonction Hermitienne
- quand f est une fonction complexe.
- La fonction continue d'autocorrélation atteint son pic à l'origine, où elle prend une valeur réelle. C’est-à-dire que pour tout délai τ, . C'est une conséquence de l'inégalité de Cauchy-Schwarz. Le même résultat est obtenu pour un cas discret.
- L'autocorrélation d'une fonction périodique est, elle-même, périodique avec exactement la même période.
- L'autocorrélation de la somme de deux fonctions totalement non-corrélées (la corrélation croisée est zéro pour tout τ) est la somme des autocorrélations de chacune des fonctions.
- Puisque l'autocorrélation est un type spécifique de corrélation croisée, elle conserve toutes les propriétés de la corrélation croisée.
- L'autocorrélation d'un bruit blanc aura un pic important à τ = 0 et sera proche de 0 pour tout autre τ. Cela montre qu'un enregistrement de bruit blanc à un certain moment n'est pas corrélé statistiquement à un enregistrement du même bruit blanc à un autre moment.
- Le théorème de Wiener–Khintchine rapporte la fonction d'autocorrélation à la densité spectrale de puissance par la transformée de Fourier:
Applications
- La mesure du spectre optique et la mesure de flash lumineux de très courte durée produit par laser, en utilisant un autocorrélateur optique.
- En optique, l'autocorrélation normalisée et la corrélation croisée donnent le degré de cohérence d'un champ électromagnétique.
- En traitement du signal, l'autocorrélation peut donner une information sur des événements répétés tels que les battements musicaux ou les fréquences de pulsar, même si cela ne peut pas donner la position dans le temps du battement.
L'exemple suivant montre le signal d'un fichier sonore MIDI Le Beau Danube bleu (à gauche), et son autocorrélation (seulement les 4 premières secondes).
- L'autocorrélation, utilisée précédemment comme intermédiaire dans le calcul d'une densité spectrale, est aujourd'hui abandonnée au profit de la transformation de Fourier rapide (voir aussi Analyse spectrale pour des considérations élémentaires).
- Portail de la physique
- Portail des probabilités et des statistiques
Catégories : Statistiques | Théorie du signal | Processus stochastique | Analyse harmonique
Wikimedia Foundation. 2010.