Amphithéâtre Marguerite de Navarre, Site Marcelin Berthelot
En libre accès, dans la limite des places disponibles
-

Résumé

Dans la deuxième leçon, nous avons cherché à répondre à quelques questions fondamentales : quelle est l’information optimale que l’on peut obtenir à partir de mesures effectuées sur une copie unique d’un système quantique ? Comment peut-on quantifier cette information ? De façon plus générale, que peut-on dire d’un système si l’on dispose d’un nombre N fini de copies ? Comment l’information sur l’état du système augmente-t-elle avec N ? Ce problème rappelle celui de l’estimation d’une variable aléatoire en théorie des probabilités classiques. Il s’agit d’inférer, à partir du résultat des mesures, la valeur des paramètres qui définissent l’état. Nous avons commencé la leçon par un rappel sur la théorie classique de l’information en présentant le concept d’information de Fisher, la limite de Cramer Rao et la méthode d’estimation par maximum de vraisemblance. Sous sa forme la plus simple, la théorie de l’estimation classique conduit à associer à tout résultat de mesure x d’une variable aléatoire X obéissant à une loi de probabilité p(x|θ) dépendant d’un paramètre a priori inconnu θ un estimateur θ(x) de ce paramètre. La variance de θ(x) moyennée sur un grand nombre de mesures représente la précision de l’estimation. Si la moyenne de θ(x) sur un nombre infini de mesures correspond à la vraie valeur du paramètre θ, l’estimateur est dit « non-biaisé ». La précision d’un estimateur non-biaisé est bornée inférieurement (borne de Cramer Rao) par la quantité 1/I(θ) où I(θ), appelée information de Fisher, est égale à la valeur moyenne du carré de la dérivée par rapport à θ du logarithme de la fonction de vraisemblance p(x|θ). Plus l’information de Fisher est grande, plus petite est la borne inférieure de la variance de l’estimation, autrement dit plus la loi statistique contient d’information potentielle permettant d’estimer θ. Une estimation est optimale si sa variance atteint la borne de Cramer Rao. À partir de ces propriétés, nous avons montré l’additivité de l’information de Fisher associée à des mesures indépendantes effectuées sur un ensemble de N systèmes identiques, qui conduit immédiatement à la variation bien connue en 1/√N de l’écart type de l’estimation optimale du paramètre θ lorsqu’on effectue N mesures de la variable aléatoire. Nous avons ensuite introduit l’estimateur θ(x) basé sur le principe de maximum de vraisemblance, qui correspond à la valeur de θ annulant la dérivée de la fonction de vraisemblance par rapport à θ et nous avons montré que cet estimateur est optimal à la limite d’un nombre de mesures infini. Nous avons terminé ces rappels en les illustrant par un exemple simple, celui d’une statistique binomiale (tirage à pile ou face) en montrant que les propriétés bien connues de cette statistique se retrouvent simplement à partir d’une analyse basée sur l’information de Fisher.