Résumé
Les modèles de diffusion permettent de synthétiser des échantillons de distributions complexes et ont de nombreuses applications pour la génération de données. Récemment, ils ont été utilisés comme priors pour la résolution de problèmes inverses bayésiens.
Cette présentation offre un aperçu des méthodes actuelles qui exploitent des modèles de diffusion pré-entraînés conjointement avec des méthodes de Monte Carlo, pour résoudre des problèmes inverses bayésiens, sans nécessiter d’entraînement supplémentaire. Nous montrons que ces méthodes reposent principalement sur une modification des distributions intermédiaires du processus diffusion, afin de guider les simulations vers la distribution postérieure. Nous décrivons ensuite comment différentes méthodes de Monte Carlo sont utilisées pour faciliter l’échantillonnage à partir de ces distributions modifiées.
Nous présentons également une nouvelle méthode basée sur une approximation par mélange des distributions intermédiaires modifiées. L’échantillonnage direct basé sur le gradient de ces mélanges étant irréalisable en raison de termes intractables, nous proposons une approche basée sur l’échantillonnage de Gibbs. Nous validons notre approche au moyen d’expériences approfondies sur des problèmes inverses en imagerie. Nous utilisons à la fois des priors de diffusion dans l'espace pixel et dans l'espace latent, et considérons des problèmes de séparation de sources avec un modèle de diffusion audio.