Résumé
Sous hypothèses de régularité, on démontre que l’estimateur par maximum de vraisemblance est consistant. L’information de Fisher est définie comme la variance du score, qui est le gradient de la log vraisemblance. On montre que c’est aussi le hessien de la négative log vraisemblance. Celle-ci est additive pour des variables aléatoires indépendantes.
Le résultat principal est la borne de Cramer-Rao. Celle-ci exprime une borne inférieure de la variance d’un estimateur des paramètres d’une loi de probabilité, à partir de l’inverse de l’information de Fisher. Trouver une bonne paramétrisation d’une loi de probabilité revient donc à minimiser cette inverse. On démontre plus précisément que sous hypothèses de régularités, l’estimation asymptotique par maximum de vraisemblance a une distribution asymptotiquement gaussienne, dont la covariance est l’inverse de l’information de Fisher.