On note $E$ un univers fini et $P$ une loi de probabilité sur $E$.
On rappellera brièvement ce que sont :
et comment on compte les éléments d’une union.
On considère la situation décrite dans l'exemple du livre à la page 364.
Souvent le plus efficace, mais le moins visuel.
Souvent, on se contente d'une lettre pour deux ensembles : $G = \overline A$ et $F = \overline O$.
On remarque que les sommes n'apportent pas d'information nouvelle à partir du moment où l'on a la valeur des quatre cases principales, ici numérotées de 1 à 4.
Question sur ce tableau
Le terme scientifique est diagramme de Venn.
Où se trouvent les quatres zones à numéroter de 1 à 4 ?
Où se trouvent les quatres zones à numéroter de 1 à 4 ?
Combien y a-t-il de façons de choisir les bulles ?
Question sur les bulles
Dans chaque diagramme à bulle, comment visualiser la part de bonbons à la fraise parmi les guimauves ?
C'est une représentation qui combine le tableau et les bulles. L'aire de chaque zone (souvent rectangle) est proportionnelle à la probabilité de l'évènement correspondant. Comme les bulles, on peut commencer par l'un ou l'autre des évènements principaux, mais la symétrie du diagramme fait qu'il y a moins de possibilités.
Questions sur les rectangles
Numéroter les feuilles de 1 à 4.
Remarque : on admet que l'on multiplie les probabilités pour avancer de branche en branche. C'est ce qu'on appelle la formule des probabilités composées.
Après avoir passé une branche, on considère que l'évènement correspondant est réalisé.
Numéroter les feuilles de 1 à 4.
Combien y a-t-il de façons de faire un abre pour cette situation ?
Lesquelles peuvent être considérées équivalentes ?
Dans chaque arbre, comment visualiser la part de bonbons à la fraise parmi les guimauves ?
Soit $A$ et $B$ deux évènements avec $P(A) \ne 0$. La probabilité que $B$ se réalise sachant que $A$ est réalisé est notée $P_A(B)$ et est définie par :
$$P_A(B) = \frac{P(A \cap B)}{P(A)}$$
En reprenant la question de la la part de bonbons à la fraise parmi les guimauves :
$$P_G(F) = \frac{P(G \cap F)}{P(G)} = …$$
$$ \begin{aligned} P(G \cap F) &= P(G)×P_G(F) \\\\ \frac{P(G \cap F)}{P(G)} = P_G(F) \end{aligned} $$
« dont » « parmi » « on tire parmi » sont autant d'indices qui poussent à utiliser les probabilités conditionnelles (« sachant »).
Mais parfois, le « sachant » se cache. Expliquer en quoi cette phrase est liée à ce chapitre :
100% des gagnants ont tenté leur chance.
Deux évènements $A$ et $B$ sont dits indépendants si l'une des égalités suivantes est vraie.
La somme des probabilités des branches partant d'un même nœud vaut 1.
Autrement dit, dans l'arbre suivant, $P_A\left(B\right) + P_A\left(\overline B\right) = 1$.
Le cas général est présenté ici à titre culturel. Seul le cas particulier est vraiment au programme.
Si une famille d'évènements $(A_i)_{1 \le i \le n}$ est une partition de l'univers, alors les $(B \cap A_i)_{1 \le i \le n}$ forment une partition de $B$.
Autrement dit, on a l'union disjointe suivante :
$$B = (B \cap A_1) \cup (B \cap A_2) \cup … \cup (B \cap A_n)$$
On a donc, en termes de probabilités (puisque l'union est disjointe) :
$$P(B) = P(B \cap A_1) + P(B \cap A_2) + … + P(B \cap A_n)$$
C'est la formule des probabilités totales.
Si $A$ est un évènement, $A$ et $\overline A$ forment une partition de l'univers. On a donc :
$$P\left(B\right) = P\left(B \cap A\right) + P\left(B \cap \overline A\right)$$
On voit ici que $B$ est constitué de :
S'entraîner avec $C$ et $\overline A$ à la place de $A$ et $B$.
C'est l'incarnation la plus fréquente de la formule des probabilités totales en terminale S. Elle nous permet en quelque sorte de « retourner » l'arbre des probabilités :
$$ \begin{aligned} P(B) &= P(A \cap B) &+ &P(\overline A \cap B) \\\\ &= P(A) × P_A(B) &+ &P(\overline A) × P_{\overline A}(B) \end{aligned} $$
Ceci nous permet de construire l’autre arbre puisque nous avons $P(B)$, donc $P(\overline B)$, puis $P_B(A)$ et $P_B(\overline A)$ ainsi que $P(\overline B)$, puis $P_{\overline B}(A)$ et $P_{\overline B}(\overline A)$.
$A$ et $B$ sont indépendants si et seulement si $\overline A$ et $B$ le sont.
$A$ et $B$ sont indépendants si et seulement si :
$$ \begin{aligned} P_B(A) &= P(A) &(1) \\\\ 1 - P_B(\overline A) &= P(A) &(2) \\\\ 1 - P(A) &= P_B(\overline A) &(3) \\\\ P(\overline A) &= P_B(\overline A) &(4) \end{aligned} $$
Voir aussi la démonstration dans le livre à la page 368.
On a :
$$ \begin{aligned} P_B(A) &= \frac{\mathcal A_1}{\mathcal A_{1 \cup 2}} \\\\ P_{\overline B}(A) &= \frac{\mathcal A_3}{\mathcal A_{3 \cup 3}} \\\\ P(A) &= \frac{\mathcal A_{1 \cup 3}}{\mathcal A_{1 \cup 2 \cup 3 \cup 4}} \\\\ \end{aligned} $$
D'où l'alignement vertical, puisque le rapport dans $B$ est le même que dans $\overline B$ et que dans $E$. En effet, $P_B(A) = P_{\overline B}(A) = P(A)$.
De même :
$$ \begin{aligned} P_A(B) &= \frac{\mathcal A_1}{\mathcal A_{1 \cup 3}} \\\\ P_{\overline A}(B) &= \frac{\mathcal A_2}{\mathcal A_{2 \cup 4}} \\\\ P(B) &= \frac{\mathcal A_{1 \cup 2}}{\mathcal A_{1 \cup 2 \cup 3 \cup 4}} \\\\ \end{aligned} $$
D'où l'alignement horizontal.
En français, on peut dire :
$A$ et $B$ sont indépendants si et seulement si :
Une variable aléatoire est un nombre $X$ associé à une expérience aléatoire. $X$ fournit donc des nombres au hasard en suivant une loi de probabilités.
Avec un dé à six faces :
$k$ | 1 | 2 | 3 | 4 | 5 | 6 | |
---|---|---|---|---|---|---|---|
$P(X=k)$ | $\frac{1}{6}$ | $\frac{1}{6}$ | $\frac{1}{6}$ | $\frac{1}{6}$ | $\frac{1}{6}$ | $\frac{1}{6}$ |
En comptant le nombre de « pile » sur deux tirages à pile ou face :
$k$ | 0 | 1 | 2 | |
---|---|---|---|---|
$P(X=k)$ | $\frac{1}{4}$ | $\frac{1}{2}$ | $\frac{1}{4}$ |
L’espérance d’une variable aléatoire, souvent notée $E$, est la valeur théorique que $X$ prendrait en moyenne. $E$ mesure la position de $X$.
En notant :
on a :
$ \begin{aligned} M &= \frac{x_1 + x_2 + x_3 + … + x_N}{N} \\\\ &= \frac{1}{N} \left( k_1 n_1 + k_2 n_2 + k_3 n_3 + k_N n_N \right) \\\\ &= k_1 \frac{n_1}{N} + k_2 \frac{n_2}{N} + k_3 \frac{n_3}{N} + … + k_N \frac{n_N}{N} \\\\ E &= k_1 P(X=k_1) + k_2 P(X=k_2) + k_3 P(X=k_3) + … + k_N P(X=k_N) \end{aligned} $
Pour le dé :
$ \begin{aligned} E &= 1 P(X=k_1) + 2 P(X=k_2) + 3 P(X=k_3) + 4 P(X=k_4) + 5 P(X=k_5) + 6 P(X=k_6) \\\\ &= 1 \frac{1}{6} + 2 \frac{1}{6} + 3 \frac{1}{6} + 4 \frac{1}{6} + 5 \frac{1}{6} + 6 \frac{1}{6} \\\\ &= … = 3,5 \end{aligned} $
Pour les deux pièces :
$ \begin{aligned} E &= 0 P(X=0) + 1 P(X=1) + 2 P(X=2) \\\\ &= 0 \frac{1}{4} + 1 \frac{1}{2} + 2 \frac{1}{4} \\\\ &= … = 1 \end{aligned} $
$V$ est l’espérance de $(X-E)^2$. Elle mesure la dispersion de $X$.
$ \begin{aligned} V &= (k_1-E)^2 P(X=k_1) + (k_2-E)^2 P(X=k_2) + (k_3-E)^2 P(X=k_3) + … + (k_N-E)^2 P(X=k_N) \end{aligned} $
Son unité est celle de $X$ au carré. Pour revenir à une unité raisonnable, on prend la racine carrée. C’est l’écart-type : $\sigma = \sqrt V$.
Pour le dé, $V$ vaut environ 2,9 et $\sigma$ environ 1,7.
Pour les pièces…
On appelle épreuve de Bernoulli toute expérience aléatoire dont l’univers ne compte que deux issues.
$x$ | 1 | 0 |
---|---|---|
$P(X=x)$ | $p$ | $q$ |
On a $E=p$ et $V=p(1-p)=pq$. À vous de le vérifier.
On appelle schéma de Bernoulli de paramètres $n$ et $p$ la répétition de $n$ mêmes expériences de Bernoulli indépendantes de paramètre $p$.
En notant $X$ le nombre de succès obtenus, on définit une variable aléatoire qui suit la loi binomiale de paramètres $n$ et $p$. Cette loi est notée $\mathcal B(n,p)$.
Pour $k$ entier de 0 à $n$, on a :
$$P(X=k) = \dbinom{n}{k} p^n (1-p)^{n-k}$$
Le cas $n=1$ correspond à une épreuve de Bernoulli, étudiée plus haut.
La loi binomiale de paramètres 1 et $p$ est tout simplement la loi de Bernoulli.
Étudions $\mathcal B(2,p)$.
Étudions $\mathcal B(3,p)$.
Idem, en remplaçant le tableau par la donnée de $P(X=k)$ pour $k$ de 0 à 3.
Étudions $\mathcal B(4,p)$.
Idem. Écrire les différentes possibilités d’enchaînements de $S$ et de $E$. Combien y en a-t-il ?
En notant $\dbinom{n}{k}$ le nombre de façons de choisir $k$ éléments parmi $n$, on a bien :
$$P(X=k) = \dbinom{n}{k} p^n (1-p)^{n-k}$$
Notez quelques valeurs simples de $\dbinom{n}{k}$, leur symétrie et leur somme :
Avec la calculatrice, pour calculer $\dbinom{4}{2} = 6$ :
4
Maths
PRB
nCr
2
4
Maths
OPTN
nCr
2
On a $E = np$ et $V = np(1-p)$.
On remarque que ces valeurs sont le produit par $n$ des valeurs de la loi de Bernoulli.
A suivre...