L’algorithme de Metropolis-Hasting échantillonne une distribution de probabilité, en définissant une chaîne de Markov ergodique, dont elle est l’unique mesure invariante. On commence par introduire les propriétés principales des probabilités de transitions d’une chaîne de Markov, qui définissent une matrice stochastique. On considère des exemples de marches aléatoires. Une chaîne de Markov est utilisée pour transporter une distribution de probabilité initiale vers la mesure invariante de la chaîne. On suppose que la chaîne est réversible et qu’elle satisfait l’équation de balance détaillée. La convergence vers une unique mesure invariante est garantie par un théorème qui démontre l’ergodicité de la chaîne, sous conditions d’irréductibilité et d’apériodicité. L’algorithme de Metropolis-Hasting définit la probabilité de transition d’une telle chaîne de Markov, qui est adaptée avec une étape d’acceptation ou rejet. La probabilité d’acceptation est ajustée pour obtenir une équation de balance détaillée, qui garantit que la chaîne converge vers la bonne mesure invariante. Cet algorithme est très flexible mais sa convergence peut être longue lorsque la distribution de probabilité a des minimums multiples dont on connaît mal les positions.
09:30 à 11:00
Cours
Algorithme de Metropolis-Hasting
Stéphane Mallat