Inférence bayésienne

Raisonnement
déductif et inductif

Un raisonnement déductif part d’énoncés supposés vrais (les prémisses) et en tire logiquement des conclusions.

Un raisonnement déductif est descendant :

la déduction consiste à tirer des conséquences particulières à partir de principes généraux en préservant la vérité dans le processus.

Exemple type :

  1. Tous les hommes sont mortel (🕺$\Rightarrow$💀)
  2. Socrate est un homme (🕺)
  3. Socrate est mortel (💀)

Autre exemple :








Mais c’est pourtant un autre type de raisonnement qu’on utilise plus naturellement :

le raisonnement inductif.

Il est, lui, ascendant puisqu'il vise à établir
des conséquences générales à partir d'observations particulières.

Ce type de déduction n’est pas logiquement valide : même beaucoup d’observations compatibles n’impliquent pas logiquement une loi générale.

Elle nous amène à faire des erreurs de raisonnement appelées biais de confirmation comme dans l’exemple suivant.

Vouloir retourner le 4 revient à croire que
sachant $A\Rightarrow B$, alors $B\Rightarrow A$ :

l'observation d'une conséquence nous amène
alors à prédire la présence de la cause.

Or une implication n'est pas logiquement équivalente à sa réciproque (seulement
à sa contraposée $\overline{B}\Rightarrow\overline{A}$).

  1. Tous les chats sont mortels (🐈$\Rightarrow$💀)
  2. Socrate est mortel (💀)
  3. Donc Socrate est un chat (🐈)

Bien que logiquement erronée, l’induction est
le seul raisonnement disponible pour
construire des théories ou modèles.

On ne peut que tenter de déduire des lois à partir d'observations fatalement incomplètes du monde.

Cela explique pourquoi la démarche scientifique semble se construire à l’envers :

on ne cherche jamais à prouver une théorie puisque c'est logiquement impossible.

Tout ce qu'on peut faire, c'est la détruire.

À partir des observations, on émet une hypothèse sur la marche du monde : une théorie.

Le boulot de la communauté scientifique est
alors de tout faire pour invalider la théorie.

Tant qu'elle résiste, on la garde.

Recette pour détruire une théorie :

on déterminer les conséquences vérifiables que
la théorie implique (par un raisonnement déductif où la théorie est placée en prémisse).

Si une expérience montre qu'une de ces conséquences est fausse, la théorie s'effondre.

Un seul contre exemple suffit !

Au mieux, on ne peut qu’hypothétiser un modèle du monde et échouer à l’invalider.

Rq : une théorie ne permettant pas son
invalidation (sans conséquence vérifiable)
n'est pas une théorie scientifique !

Autre exemple de raisonnement inductif :

le diagnostic médical

En effet, on essaye là encore de détermine
la cause (la maladie) à partir de l'observation
des conséquences (les symptômes).

On retrouve aussi le raisonnement inductif au cœur du travail d’un enquêteur et au tribunal.

Théorème de Bayes

Le théorème de Bayes permet de rendre
le raisonnement inductif plus rigoureux.

Le théorème de Bayes ne “démontre” pas que l’induction est vraie au sens logique, mais il fournit un cadre propre pour faire de l’induction une
mise à jour rationnelle de croyances :

  • On formalise une hypothèse $H$.
  • On explicite notre opinion a priori
    sur la validité de l'hypothèse $P(H)$.
  • On observe des données $D$.
  • On met à jour la plausibilité de $H$
    (la probabilité de $H$ sachant $D$ ou $P(H|D)$) grâce au théorème.

$$P(H \mid D)=\frac{P(D \mid H) P(H)}{P(D \mid H) P(H)+P(D \mid \overline H) P(\overline H)}$$


  • $P(D \mid H)$ : à quel point les données sont attendues si l’hypothèse est vraie (vraisemblance des données).
  • $P(D \mid \overline H)$ : à quel point les données sont attendues si l’hypothèse est fausse.
  • $P(H \mid D)$ : ce qu’on pense après avoir vu les données (posterior).

Rq : $P(D \mid H) P(H)+P(D \mid \overline H) P(\overline H)=P(D)$

Bayes formalise l’induction comme une procédure de mise à jour rationnelle de croyances sous incertitude, en rendant explicites les hypothèses.

Prenons un exemple :

on se demande si le CO₂ est un bon candidat
pour expliquer le réchauffement climatique.


  • $H$ : le CO₂ est un bon candidat
  • $\overline H$ : le CO₂ n'est pas un bon candidat

Supposons que l’on soit sans avis au départ.

Notre prior est alors $P(H)=P(\overline H)=50\%$

Le théorème de Bayes va permettre de mettre
à jour rationnellement notre avis
en fonction des données.

$$P(H \mid D)=\frac{P(D \mid H) P(H)}{P(D \mid H) P(H)+P(D \mid \overline H) P(\overline H)}$$

  • $P(D \mid H)$ : probabilité d'obtenir cette donnée si le CO₂ est responsable du réchauffement climatique.
  • $P(D \mid \overline H)$ : probabilité d'obtenir cette donnée si le CO₂ n'est pas responsable du réchauffement climatique.
  • $P(H \mid D)$ : opinion après observation des données.

Certes, $H\Rightarrow D$ n’implique pas $D\Rightarrow H$.

Mais si $D$ s'explique mieux avec $H$ qu'avec $\overline H$,
c'est naturel que l'observation de $D$
rende $H$ plus probable.

Quelque soit le prior, il est tiré dans le sens de la plus grande vraissemblance des données.

Inférence bayésienne
et cerveau

Notre cerveau serait naturellement adapté à réaliser des calculs baysiens comme le montre l’expérience suivante sur des bébés de 8 mois.

Doomsday argument

Expérience de pensée au résultat inquiétant
de Nick Bostrom qui est coutumier du fait
(on lui doit aussi l’IA et les trombones,
le monde est une simulation, etc.)

Un dieu bizarre se lance dans une petite expérience en créant 100 maisons
numérotées de 1 à 100.

Le dieu lance ensuite une pièce 🪙

  • S'il obtient pile, il crée 10 humains qu'il place dans les maisons 1 à 10.
  • S'il obtient face, il place un humain dans chaque maison.

Vous prenez conscience dans une de ces maisons. Vous êtes mis au courant de toute la situation.

L'expérimentateur vous demande alors la probabilité que vous ayez 9 congénères plutôt que 99 sachant que vous êtes dans l'impossibilité à ce moment d'aller voir le numéro de votre maison.

Vous sortez sur le perron et constatez que
le numéro de votre maison est le 9.

La probabilité précédente change-t-elle ?

Application à l’humanité

On envisage deux scénarios :

  • Apocalypse précoce 🪦 : l'humanité va bientôt s'éteindre. Il y aura eu en tout 200 milliards d'humains.
  • Apocalypse tardive 🛸 : l'humanité va perdurer encore des millénaires et s'étendre dans la galaxie. Il y aura en tout 200 mille milliards d'humains.

Quelle probabilité a priori attribuez-vous
à ces deux scénarios ?

Vous êtes à peu près le 100 milliardième humain sur Terre. Comment votre prior est-il modifié
par cette information ?

Retour site