Pasteur de l’Église presbytérienne et mathématicien britannique, le révérend Thomas Bayes (~1701-1761) étudie la logique et la théologie à l’université d’Édimbourg. Divers travaux, dont une introduction au calcul différentiel, le font élire à la Royal Society le 4 novembre 1742. Ce n’est qu’après la mort de Bayes, en 1761, que son ami Richard Price retrouve, dans ses papiers, un Essai sur la manière de résoudre un problème dans la doctrine des risques. Publié par la Royal Society en 1763, cet essai applique le principe d’inférence que nous connaissons aujourd’hui sous le nom de « règle de Bayes ». Sans nier l’inventivité de Bayes, on s’accorde aujourd’hui à penser que sa règle n’est qu’une application simple de la règle du produit en théorie des probabilités, déjà connue de Bernoulli et de De Moivre, et dont Laplace (1774) percevra, le premier, le très vaste champ d’applications.
De quoi s’agit-il ? Les principes du raisonnement bayésien étendent, à des valeurs continues de plausibilité, les principes de la logique classique avec des valeurs de vérité discrètes. Il est d’ailleurs possible de les déduire des axiomes que doivent vérifier ces plausibilités (Jaynes, 2003). Brièvement : on suppose que (1) les degrés de plausibilité sont représentés par des nombres réels ; (2) ces valeurs suivent des règles de bon sens, suivant ainsi la célèbre formule de Laplace (« la théorie des probabilités n’est au fond que le bon sens réduit au calcul ») ; (3) aucune des données disponibles n’est ignorée ; (4) des états de connaissance équivalents ont le même degré de plausibilité. Le théorème de Cox-Jaynes montre que ces règles suffisent à définir, à une fonction monotone près, des règles mathématiques universelles pour la plausibilité p. Celles-ci sont les règles habituelles de la probabilité et la règle fondamentale « de Bayes » :
p(A & B) = p(A|B) p(B) = p(B|A) p(A)