Motion tracking

Motion tracking

Match moving

Le match moving est une technique utilisée dans le domaine des effets spéciaux et liée à la motion capture. Ce terme est employé pour faire référence aux différentes techniques permettant d'extraire les informations de mouvement depuis une séquence vidéo, et plus particulièrement les mouvements de caméra. Est également connu sous le nom de motion tracking.

Dans cet article, match moving sera défini comme étant l'art d'extraire l'information de mouvement depuis une unique séquence vidéo. L'utilisation de caméras supplémentaires, de capteurs de mouvement, d'une caméra de type motion control, ou d'un autre dispositif sont possibles en tant que supplément, mais non nécessaires.

La technique de match moving est principalement utilisée pour tracker le mouvement d'une caméra pendant une prise de sorte à ce que ce mouvement puisse être reproduit à l'identique sur une caméra virtuelle dans un programme informatique. Ainsi, lorsque les scènes réelles et virtuelles seront fusionnées ensemble (opération appelée compositing), elles donneront l'impression vraisemblante d'avoir été filmées du même point de vue.

Il y a deux types de techniques de match moving :

  • Les programmes de compositing tel que Adobe After Effects, Discreet Combustion et Shake, peuvent appliquer une technique de match moving bidimensionnel. Cette fonctionnalité est capable d'effectuer des translations d'objets dans l'espace image et d'ajouter des effets tels que du blur afin de masquer les erreurs de trajectoires entre deux objets en mouvements. Cette technique est suffisante pour créer une impression de vraisemblance dans le cas où il n'y a pas de changements important des paramètres de la caméra. Par exemple, un panneau publicitaire placé en arrière-plan d'une séquence vidéo peut être facilement traqué en dimension deux, puis remplacé par une image contenue en mémoire.
  • Les outils de match moving tridimensionnels peuvent extrapoler les informations tridimensionnelles à partir de photographies bidimensionnelles. Parmi les logiciels capables d'effectuer un match moving tridimensionnel on peut citer :
    • 2d3 Boujou
    • Icarus (freeware, toujours utilisé malgré un arrêt du développement)
    • Maya Live (Module de Maya Unlimited)
    • PixelFarm PFTrack (réincarnation commerciale d'Icarus)
    • Realviz MatchMover
    • Ssontech SynthEyes
    • Sciene.D.Visions 3DEqualizer (qui a gagné une récompense académique pour accomplissment technique)
    • Voodoo (logiciel gratuit)
    • VooCAT (logiciel commercial, réincarnation commerciale de Voodoo)

Ces programmes permettent aux utilisateurs de déduire les mouvements de caméras ainsi que d'autres mouvements relatifs à partir d'un métrage quelconque. Les informations de tracking peuvent alors être transférées sur un logiciel d'infographie et d'animation 3D tel que Blender, 3D Studio Max, Lightwave ou Maya afin d'être utilisées pour animer des caméras virtuelles et des objets en image de synthèse.

Le premier, et l'un des meilleurs, exemple où la technique de match moving a été utilisée est le film Jurassic Park. Les réalisateurs ont placés des balles de tennis colorées dans la scène comme marqueurs. Ils ont ensuite utilisé ces marqueurs pour traquer le mouvement de la camera durant les différentes scènes. Ceci a permis à de nombreux objets virtuels, tels que des dinosaures en images de synthèse, d'être ajouté à des scènes ayant des mouvements de caméra complexes voire même des caméras-épaule. Les balles de tennis ont été par la suite peintes numériquement afin de les exclure du montage final.

Le match moving est d'ores et déjà un outil reconnu dans le milieu des effets spéciaux.

Sommaire

Comment fonctionne le match moving

Le processus de match moving peut être séparé en deux parties.

Tracking

Fichier:Match moving - Tracking.jpg
Tracking de cible en cours. Les chemins verts et orange représentent les tracks. Les cercles blanc représentent les cibles automatiquement sélectionnées par le logiciel de match moving. Screenshot d'Icarus

La première étape consiste à identifier et à tracker des cibles. Une cible est un point spécifique de l'image qu'un algorithme de tracking peut verrouiller (dans le sens militaire) et suivre sur plusieurs images. Le choix de ces cibles dépend de l'algorithme de tracking, mais sont souvent des endroits lumineux/sombres, des arrêtes ou des coins. L'important est que chaque cible représente un point spécifique de la surface d'un objet réel. Lorsqu'elle est trackée, une cible devient une suite de coordonnées bidimensionnelles représentant la position de la cible à travers la séquence d'image. Cette suite est appelée track. Une fois que ces tracks ont été calculées, elles peuvent soit être utilisées immédiatement pour faire du match moving 2D, soit être utilisées pour calculer les informations 3D.

Calibrage

La seconde étape nécessite une résolution pour obtenir le mouvement 3D. Le but est de déduire le mouvement de la caméra en résolvant une projection inverse des chemins 2D pour la position de la caméra. Ce processus est appelé calibrage.

Plus précisément : quand un point de la surface d'un objet tridimensionnel est photographié, sa position dans l'image 2D peut être calculée par une fonction de type projection 3D. On peut considérer qu'une caméra est une abstraction qui contient tous les paramètres nécessaire à la modélisation d'un caméra dans un univers réel ou virtuel. Ainsi, une caméra est un vecteur qui contient comme éléments : la position de la caméra, son orientation, sa focale, et d'autres paramètres possible qui définissent comment la caméra focalise la lumière sur la pellicule. La manière dont est construit ce vecteur importe peu tant qu'il existe une fonction de projection P compatible.

La fonction de projection P prend comme entrée un vecteur de caméra (noté camera) et un autre vecteur représentant la position d'un point 3D dans l'espace (noté xyz), et retourne un point 2D qui est le projeté du point 3D sur un plan dit image et situé devant la caméra (noté XY) On a alors l'expression suivante :

XY = P(camera, xyz)
Une illustration de projection de cible. Around the rendering of a 3D structure, red dots represent points that are chosen by the tracking process. Cameras at frame i and j project the view onto a plane depending on the parameters of the camera. De cette manière, les cibles trackées en 2D correspondent à de vrais points de l'espace 3D. Bien que cette illustration soit générée par ordinateur, le match moving est normalement effectué sur de vrais objets.

La fonction de projection transforme un point 3D notamment en supprimant la composante de profondeur. Sans connaitre la profondeur, une projection inverse peut seulement retourner un ensemble de points 3D solutions. Cet ensemble est une droite partant du centre optique de la caméra et passant par le point 2D projeté. On peut exprimer la projection inverse par :

xyz ∈ P'(camera, XY)

ou

{xyz :P(camera, xyz) = XY}

Supposons que nous sommes dans le cas où les cibles que nous sommes en train de traquer sont sur la surface d'un objet rigide, par exemple un bâtiment. Comme nous savons que le point réel xyz restera au même endroit dans l'espace (sauf si le bâtiment se déforme) d'une image sur l'autre, on peut contraindre ce point à être constant quand bien même on ne connait pas sa position. Donc :

xyzi = xyzj

où les indices i et j sont des numéros arbitraires d'images de la scène que nous sommes en train d'analyser. Cela nous permet d'affirmer que :

P'(camerai, XYi) ∩ P'(cameraj, XYj) ≠ {}

Du fait que la valeur XYi a été déterminée pour toutes les images où la cible a été traquée par le programme, on peut résoudre la projection inverse entre deux images tant que P'(camerai, XYi) ∩ P'(cameraj, XYj) est un ensemble restreint. L'ensemble des vecteurs camera possible qui sont solutions de l'équation aux instants i et j (noté Cij).

Cij = {(camerai,cameraj):P'(camerai, XYi) ∩ P'(cameraj, XYj) ≠ {})

Il y a donc un ensemble de pairs de vecteurs caméra Cij pour lesquels l'intersection de la projection inverse de deux points XYi et XYj est non-vide, de préférence petit, et est centré autour du point théoriquement stationnaire xyz .

En d'autres termes, imaginez un point noir flottant dans un espace blanc et une caméra. Pour chaque position de l'espace où on place la caméra, il y a un ensemble de paramètres correspondants (orientation, focale, etc) qui vont photographier ce point exactement de la même manière. Comme C a un nombre de membres infinis, un seul point est insuffisant pour déterminer la position actuelle de la caméra.

En augmentant le nombre de points ciblés, on peut restreindre l'ensemble des positions possibles pour la caméra. Par exemple, si on dispose d'un ensemble de points {xyzi,0,...,xyzi,n} et {xyzj,0,...,xyzj,n} i et j étant toujours des indices d'image et n est un indice représentant chacune des cibles. On peut alors obtenir un ensemble de paires de vecteur-caméra {Ci,j,0,...,Ci,j,n}.

De cette manière, on restreint l'ensemble des paramètres possibles de caméra. L'ensemble des paramètres possibles qui conviennent à la caméra, F, est l'intersection de tous les ensembles :

F = Ci,j,0 ∩ ... ∩ Ci,j,n

Plus petit est cet ensemble, plus il est facile d'approcher le vecteur-caméra solution. Cependant en pratique, des erreurs introduites par la phase de suivi impose une approche statistique pour déterminer la solution, des algorithmes d'optimisation sont souvent utilisés.. Malheureusement, il y a tellement de paramètres dans un vecteur-caméra que lorsque chacun de ces paramètres est indépendant des autres, on peut être incapable de restreindre F à une unique possibilité peu importe le nombre de points que l'on essaie de suivre. Plus le nombre de paramètres que l'on peut restreindre lors d'une prise est grand (notamment la focale), plus il est facile de déterminer la solution.

On appelle le traitement consistant à restreindre le nombre de solutions possible du mouvement de la caméra afin d'atteindre une seule possibilité qui conviennent à la phase de compositing : phase de résolution 3D.

Projection du nuage de point

Une fois que la position de la caméra a été déterminé pour chaque image, il devient alors possible d'estimer la position de chaque cible dans l'espace réel par projection inverse. L'ensemble de points résultant est souvent nommé nuage de point du fait de son apparance nébuleuse. Comme le nuage de points révèle souvent une partie de la forme de la scène 3D, il peut être utilisé comme référence pour placer des objets en image de synthèse ou, à l'aide d'un programme de reconstruction, créer une version virtuelle de la scène réelle.

Détermination du plan représentant le sol

La caméra et le nuage de point nécessitent d'être orientés dans l'espace. Ainsi, une fois la calibration terminée, il est nécessaire de définir le plan représentant le sol. Normalement, il y a un plan unitaire qui détermine l'échelle, l'orientation et l'origine de l'espace projeté. Certains programmes essaient de la faire automatiquement cependant, le plus souvent, c'est l'utilisateur qui définit ce plan. Comme de la modification de ce plan ne résulte qu'une simple transformation sur tous les points, la position d'un tel plan n'est vraiment qu'une question de convenance.

Reconstruction

La reconstruction est le processus interactif qui consiste à recréer un objet photographié en utilisant les données de tracking. Cette technique est liée à la photogrammétrie. Dans ce cas particulier, il s'agit d'utitiliser le logiciel de match moving dans le but de reconstruir la scène depuis une prise adéquate.

Un programme de reconstruction peut créer des objets tridimensionnels représentants les vrais objets de la scène photgraphiée. En utilisant les données du nuage de point et l'estimation de l'utilisateur, le programme peut créer un objet virtuel et extraire une texture depuis la vidéo qui sera projetée sur l'objet virtuel comme texture surfacique.

Tracking automatique vs. Tracking interactif

Il existe deux méthodes par lesquelles l'information de mouvement peut être extraite depuis une image. Le tracking interactif se repose sur les capacités de l'utilisateur à suivre les cibles durant une séquence. Les points traqués par l'utilisateur sont alors utilisés pour calculer le mouvement de la caméra. Le tracking automatique se repose sur des algorithmes pour identifier et suivre les cibles durant la séquence.

L'avantage du tracking interactif est qu'un humain peut suivre une cible durant toute une séquence sans être désorienté par les cibles qui ne seraient pas rigides. Le défaut est que l'utilisateur va inévitablement introduire des petites erreurs qui vont , en suivant les objets, inévitablement conduire vers une dérive.

L'avantage du tracking automatique est que l'ordinateur peut créer bien plus de points que ne le peut un humain. Un plus grand nombre de points peuvent être analysés pour statistiquement déterminer quelle sont les données les plus fiables. Le désavantage du tracking automatique est que, selon l'algorithme, l'ordinateur peut facilement être embrouillé et perdre les cibles.

Les logiciels de match moving professionnels utilisent généralement une combinaison tracking interactif- tracking automatique. Un artiste peut enlever les points clairement anormaux et utiliser un ou plusieurs tracking mattes afin de bloquer les informations parasites hors du processus de tracking.

Matte tracking

Un "matte tracking" est un concept similaire au Matte painting. Cependant le but d'un matte tracking est d'empêcher l'algorithme de tracking d'utiliser des données non-fiables, sans rapport ou non-rigides. Par exemple, dans une scène où un acteur marche devant un arrière-plan, le match mover (celui qui s'occupe du match moving) voudra utiliser seulement cet arrière-plan pour obtenir le mouvement de sa caméra sachant que le mouvement de l'acteur va interférer dans les calculs. Dans ce cas, l'artiste va construire un matte tracking pour suivre l'acteur dans la scène et bloquer cette information dans le processus de tracking.

Affinage

Comme il y a souvent de multiples solutions possibiles au processus de calibration et qu'une quantité significative d'erreur peut s'accumuler, l'étape finale pour obtenir le mouvement implique souvent un affinage (refining en anglais) de la solution manuelle. Cela signifie modifier soi-même le mouvement de la caméra en donnant des indices au moteur de calibration. Cette calibration, plus intéractive est parfois appelée affinage de la calibration.

Approche matérielle

Dans certains cas où :

  • un personnage doit intéragir avec un environnement créé par ordinateur
  • la combinaison d'un changement d'angle et d'un zoom rende le chemin ambigu
  • la résolution requise par le placement de la caméra est supérieure à celle que l'on peut obtenir par traitement d'une vidéo.
  • les positions des composants les uns par rapport aux autres ne sont pas constantes (la scène est un solide déformable)

une approche matérielle est nécessaire. Dans ces cas-là, des DELs visibles ou infrarouges peuvent être fixées sur des objets tels que des supports ou sur les caméras et un système optique de tracking peut être utilisé pour traquer les caméras, les acteurs et les supports.

Cette méthode n'est préférée que lorsque le matériel est déjà requis pour traquer les acteurs ou les supports, l'approche logicielle fonctionnant suffisamment bien et ne nécessitant aucun matériel. Un système de marqueurs actifs tel que celui de PhaseSpace [1] permet d'intégrer ces marqueurs à l'intérieurs des objets de la scène et fournis en temps réel les coordonnées relatives du système autorisant des intéractions complexes. Des processeurs embarqués modulent la luminosité des DELs afin de différencier chaque marqueur et ainsi des centaines d'objets peuvent être traqués.

Conseils pour les "match movers"

  1. Mémorisez tout.
    Comme dans tout effet visuel photographique, prenez note de chaque aspect de la prise. Cela aidera durant l'estimation.
    • Mémorisez la distance focale.
    • Connaissez la taille du filmback / du capteur.
    • Mesurez la hauteur de la lentille par rapport au sol.
    • Mesurez la distance entre le centre optique et les cibles évidentes.
    • Mesurez la distance entre les cibles évidentes.
    • Mesurez la distance entre les positions de début et de fin de mouvement de la caméra.
  2. Créez des cibles s'il n'en existe pas de bonnes.
    Evitez les larges surfaces qui ont des textures très petites ou très répétitives. Faites des marques ou ajoute des objets dans la scène qui pourront être facilement traqués. Il suffira des les repeindre numériquement pour les supprimer de la scène. Utilisez des balles colorées, des points colorés, ou une grille de points sur un écran bleu ou vert. Les sphères sont ce qui fonctionne le mieux car il est facile de déterminer leur centre peut importe l'angle de vue.
  3. Contraignez autant de paramètres que possible.
    Moins il y aura de paramètres variables, plus facile sera la résolution du mouvement de la caméra.
    • Utilisez une focale constante. Ne zoomez pas.
    • Restez sur un pied. Bien sûr vous le ne ferez pas, mais ça serait plus facile.
    • Faites les effets tels que les panoramiques en tournant autour du centre optique. Il s'agit du point théorique autour duquel on peut effectuer une rotation sans que cela ne modifie la perspective. Même lors d'une prise sur un chariot, cela simplifiera grandement le mouvement général de la caméra.
    • Restez sur un chariot. Certains algorithmes de calibration peuvent contraindre le mouvement 3D à une droite ou une courbe.
  4. Introduisez des mouvements latéraux dans vos prises.
    Si vous translatez horizontalement ou verticalement, vous introduirez des parallaxes dans votre scène. Cela peut améliorer la précision de votre calibration et des projections de nuage de points.
  5. Evitez les effets de blur.
    Le blur peut augmenter l'erreur dans la perception de la location de la cible. De grandes quantités de blur peuvent créer des pertes de suivi dans le processus de tracking ce qui résulte par des discontinuités dans les tracks. Gardez les prises à la caméra-épaule le plus stable possible et utilisez des lentilles larges.

Voir aussi

Liens internes

Liens externes

Logiciel

Matériel

  • (en) PhaseSpace - Solution de mocap temps réelle basée sur un système de DELs pour réalité virtuelle, réalité augmentée, application médicales, ...
  • Portail du cinéma Portail du cinéma
Ce document provient de « Match moving ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Motion tracking de Wikipédia en français (auteurs)

Игры ⚽ Поможем решить контрольную работу

Regardez d'autres dictionnaires:

  • Motion tracking — may refer to: Match moving Optical motion tracking Video tracking See also Motion capture This disambiguation page lists articles associated with the same title. If an …   Wikipedia

  • Motion Tracking — Bewegungsmessung bzw. Motion Tracking ist eine Animationstechnik, bei der aus zumeist real gefilmtem Bildmaterial die Bewegung eines Objektes oder der Kamera ausgelesen wird. Man erhält für frei markierbare Bildpunkte die Bewegungskoordinaten,… …   Deutsch Wikipedia

  • Motion Tracking using Java — Motion tracking is the process of locating a moving object (or several ones) in time. An algorithm analyses the video frames and outputs the location of moving targets within the video frame. Libraries to Implement Motion tracking OpenCV It’s a… …   Wikipedia

  • Optical motion tracking — Motion Tracking can differ from Motion Capture because in applications such as sports and missiles the object of interest is tracked optically instead of a person. The technology is basically the same, with some differences in that many of the… …   Wikipedia

  • Motion capture — Motion capture, motion tracking, or mocap are terms used to describe the process of recording movement and translating that movement on to a digital model. It is used in military, entertainment, sports, and medical applications, and for… …   Wikipedia

  • Motion analysis — is a topic in computer vision, image processing, and machine vision that studies methods and applications in which two or more consecutive images from an image sequences, e.g., produced by a video camera, are processed to produce information… …   Wikipedia

  • Tracking — can refer to: Tracking (education), separating children into different classes according to their academic ability Tracking, in computer graphics, a vital part of match moving Tracking, in portfolio management, matching or comparing with a stock… …   Wikipedia

  • Motion (software) — Motion Screenshot Of Motion 5 Developer(s) Apple Inc …   Wikipedia

  • Tracking — Der Begriff Tracking (dt. für den statischen (retrospektiven) Anwendungsfall gleichbedeutend mit Spurbildung, für den dynamischen Anwendungsfall (mitlaufend, online) gleichbedeutend mit Nachführung) umfasst alle Bearbeitungsschritte, die der… …   Deutsch Wikipedia

  • Motion control — This article is about the general industrial term. For usage in film, see Motion control photography. For usage in games, see Motion controller. Motion control is a sub field of automation, in which the position and/or velocity of machines are… …   Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”