- Méthode de Monte Carlo
-
Méthode de Monte-Carlo
Pour les articles homonymes, voir Monte-Carlo (homonymie).On appelle méthode de Monte-Carlo toute méthode visant à calculer une valeur numérique, et utilisant des procédés aléatoires, c'est-à-dire des techniques probabilistes. Le nom de ces méthodes, qui fait allusion aux jeux de hasard pratiqués à Monte-Carlo, a été inventé en 1947 par Nicholas Metropolis[1], et publié pour la première fois en 1949 dans un article co-écrit avec Stanislas Ulam[2].
Les méthodes de Monte-Carlo sont particulièrement utilisées pour calculer des intégrales en dimensions plus grandes que 1 (en particulier, pour calculer des surfaces, des volumes, etc.).
La méthode de simulation de Monte-Carlo permet aussi d'introduire une approche statistique du risque dans une décision financière. Elle consiste à isoler un certain nombre de variables-clés du projet telles que le chiffre d'affaires ou la marge... et à leur affecter une distribution de probabilités. Pour chacun de ces facteurs, on effectue un grand nombre de tirages aléatoires dans les distributions de probabilité déterminées précédemment, afin de déterminer la probabilité d'occurrence de chacun des résultats.
Le véritable développement des méthodes de Monte-Carlo s'est effectué, sous l'impulsion de John von Neumann et Stanislas Ulam notamment, lors de la Seconde Guerre mondiale et des recherches sur la fabrication de la bombe atomique. Notamment, ils ont utilisé ces méthodes probabilistes pour résoudre des équations aux dérivées partielles dans le cadre de la Monte-Carlo N-Particle transport.
Sommaire
Théorie
Nous disposons de l'expression de l'espérance mathématique d'une fonction g de variable aléatoire X, résultant du théorème de transfert, selon lequel
où fX est une fonction de densité sur le support [a;b]. Il est fréquent de prendre une distribution uniforme sur [a;b]:
Ceci peut être étendu aux probabilités discrètes en sommant grâce à une mesure ν discrète, de type Dirac.
L'idée est de produire un échantillon (x1,x2,...,xN) de la loi X (donc d'après la densité fX) sur le support [a;b], et de calculer un nouvel estimateur dit de Monte-Carlo, à partir de cet échantillon.
La loi des grands nombres suggère de construire cet estimateur à partir de la moyenne empirique :
qui se trouve être, par ailleurs, un estimateur sans biais de l'espérance.
Ceci est l'estimateur de Monte-Carlo. Nous voyons bien qu'en remplaçant l'échantillon par un ensemble de valeurs prises dans le support d'une intégrale, et de la fonction à intégrer, nous pouvons donc construire une approximation de sa valeur, construite statistiquement.
Cette estimation est sans-biais, dans le sens où
Il faut aussi quantifier la précision de cette estimation, via la variance de . Si l'échantillon est supposé iid, cette variance est estimée à l'aide de la variance empirique
avec
Par le théorème de la limite centrale, on sait que la variable :qui est centrée et réduite, suit approximativement la loi normale centrée réduite, ou loi de Gauss. Il est alors possible de construire des intervalles de confiance, ce qui permet d'encadrer l'erreur commise en remplaçant G par . Si cette erreur est dénotée en, alors pour un niveau de risque α donné, on a:
avec probabilité 1 − α. Le réel zα / 2 est le quantile de la loi normale centrée réduite. Par exemple, au niveau de risque , on trouve dans les tables zα / 2 = 1,96 et l'erreur est majorée par . Cette méthode permet donc de quantifier l'erreur commise, à condition d'estimer σg par sa contre-partie empirique
On voit ainsi que l'erreur est de l'ordre de N − 1 / 2: par exemple, multiplier la taille de l'échantillon par 100 permet de diviser par 10 l'erreur d'estimation.
Il est à noter qu'en pratique, n'est pas connu et doit être estimé ; comme précisé plus-haut, on peut utiliser sa contre-partie empirique. Diverses méthodes, dites techniques de réduction de la variance, permettent d'améliorer la précision — ou de diminuer le temps de calcul — en remplaçant g(X) par une autre variable aléatoire. Ces techniques rentrent en général dans l'une des classes suivantes : l'échantillonnage préférentiel, les variable de contrôle, la variable antithétique, la stratification (Monte-Carlo) et le conditionnement (Monte-Carlo).
Exemples
Résolution du Problème du voyageur de commerce
La résolution du problème du voyageur de commerce est difficile, du fait de la complexité du problème, l'emploi de méthodes d'optimisation probabilistes peut s'avérer efficace pour obtenir une approximation de la meilleure solution, en un temps plus court que pour des méthodes déterministes.
Détermination de la valeur de π (pi)
Cette méthode est proche de l'expérience de l'aiguille de Buffon.
Soit un point de coordonnées , où et .
On tire aléatoirement les valeurs de et .
Si alors le point appartient au disque de centre de rayon 1.
La probabilité que le point appartienne au disque est π/4.
En faisant le rapport du nombre de points dans le disque par rapport au nombre de tirages on obtient une approximation du nombre π/4 si le nombre de tirages est grand.
Détermination de la superficie d'un lac
Cet exemple est un classique en vulgarisation de la méthode de Monte-Carlo. Soit une zone rectangulaire ou carrée dont les côtés sont de longueur connue. Au sein de cette aire se trouve un lac dont la superficie est inconnue. Grâce aux mesures des côtés de la zone, on connaît l'aire du rectangle. Pour trouver l'aire du lac, on demande à une armée de tirer X coups de canon de manière aléatoire sur cette zone. On compte ensuite le nombre N de boulets qui sont restés sur le terrain ; on peut ainsi déterminer le nombre de boulets qui sont tombés dans le lac : X-N. Il suffit ensuite d'établir un rapport entre les valeurs :
Par exemple, si le terrain fait 1000 m2, que l'armée tire 500 boulets et que 100 projectiles sont tombés dans le lac, alors une estimation de la superficie du plan d'eau est de : 100*1000/500 = 200 m2.
La qualité de l'estimation s'améliore en augmentant le nombre de tirs et en s'assurant que les artilleurs ne visent pas toujours le même endroit mais couvrent bien la zone. Cette dernière remarque est à mettre en parallèle avec la qualité du générateur aléatoire qui est primordiale pour avoir de bons résultats dans la méthode de Monte-Carlo. Un générateur biaisé est comme un canon qui tire toujours au même endroit : les informations qu'il apporte sont réduites.
Application au modèle d'Ising
Article détaillé : Modèle d'Ising.Notes et références
- ↑ Nicholas Metropolis, « The Beginning of the Monte Carlo Method », dans Los Alamos Science, no 15, 1987, p. 125-130 [texte intégral]
- ↑ Nicholas Metropolis et Stanislas Ulam, « The Monte Carlo Method », dans Journal of the American Statistical Association, vol. 44, no 247, septembre 1949, p. 335-341 [texte intégral].
Voir aussi
Codes de simulation utilisant des méthodes de Monte-Carlo
Articles connexes
- Simulation informatique,
- Simuler des processus se produisant à des taux connus : Méthode de Monte-Carlo cinétique.
- les techniques les plus efficaces de planification de mouvement utilisent des algorithmes probabilistes.
- Méthodes de réduction de la variance de l'estimateur de Monte Carlo : Importance sampling
- Physique statistique
- Filtre particulaire
- Algorithme de Las Vegas
Bibliographie
- (en) Michael Mascagni, Advanced Monte Carlo Methods I & II, Cours du ETH de Zurich (2005/2006). [pdf] Notes de cours. On pourra également consulter la page de présentation du cours, qui contient de nombreuses références disponibles au format en pdf.
- (en) Werner Krauth, Introduction to Monte Carlo algorithms, Notes de cours de l'école d'ete '96 a Beg Rohu (France) et Budapest.
- Simon Léger, Monte Carlo pour les nuls, 2006 [pdf] [lire en ligne]
- Exemple de calcul de pi en utilisant la méthode de Monte Carlo, C++
- Une explication de la méthode de Monte-Carlo par le physicien Pierre Auger
Liens externes
- (en) Un exemple de simulation Monte-Carlo clair et didactique L'exemple se base sur la fabrication d'une pièce mécanique à partir de ses composants.
- Portail des probabilités et des statistiques
- Portail de la physique
- Portail de la finance
Catégories : Analyse numérique | Algorithme numérique | Probabilités | Physique statistique
Wikimedia Foundation. 2010.