Résumé
Les modèles génératifs basés sur le transport dynamique ont récemment conduit à des avancées significatives dans l'apprentissage non supervisé. Au niveau mathématique, ces modèles sont principalement conçus autour de la construction d'une fonction entre deux distributions de probabilité qui transforme des échantillons de la première en échantillons de la seconde. Bien que ces méthodes aient été introduites initialement dans le contexte de la génération d'images, elles ont trouvé un large éventail d'applications, notamment en calcul scientifique où elles offrent des façons intéressantes de reconsidérer des problèmes complexes autrefois jugés insolubles en raison de la malédiction de la dimensionnalité.
Dans cette présentation, je discuterai des fondements mathématiques des modèles génératifs basés sur les flots et les diffusions, et montrerai comment une meilleure compréhension de leur fonctionnement interne peut aider à améliorer leur conception. Ces résultats indiquent comment structurer le transport pour atteindre au mieux des distributions cibles complexes tout en maintenant l'efficacité computationnelle, tant aux étapes d'apprentissage que d'échantillonnage.
J'aborderai également les applications de l'IA générative en calcul scientifique, en particulier dans le contexte de l'échantillonnage de Monte Carlo, avec des applications à la mécanique statistique et à l'inférence bayésienne, ainsi qu'à la prévision probabiliste, avec des applications à la dynamique des fluides et aux sciences de l'atmosphère et de l’océan.