L’état de l’art pour générer de donnée complexes telles que des images, des sons ou des champs physiques complexes s’obtient avec l’algorithme de score diffusion. L’algorithme de score diffusion échantillonne une distribution de probabilité, en transportant un bruit blanc gaussien vers la distribution que l’on veut échantillonner, avec une équation différentielle stochastique. On part de l’équation d’Ornstein-Uhlenbeck, qui rajoute progressivement du bruit blanc à un échantillon de la distribution de probabilité. L’équation de score diffusion inverse cette équation, ce qui revient à progressivement enlever le bruit qui a été ajouté. Cela se calcule avec une équation stochastique de score diffusion. Le terme de dérive de cette équation est le score (gradient de la log-probabilité) de la distribution des échantillons bruités. La difficulté principale est de calculer ce score.
L’équation de Robbins, Tweetie, Myasawa démontre que le score permet de calculer un estimateur optimal d’un échantillon auquel on a rajouté du bruit blanc. On utilise un réseau de neurones profond pour optimiser le débruitage des échantillons d’une base de données d’entraînement. Cela permet d’estimer le score à tous les niveaux de bruits. Les algorithmes de score diffusion permettent d’obtenir d’excellents résultats pour générer des images, des sons et toute sorte de données complexes, avec des réseaux de neurones.