Probabilités : Sommes de Variables Aléatoires
Combiner des variables aléatoires : linéarité de l'espérance, additivité de la variance pour les variables indépendantes, application à la loi binomiale et à l'échantillonnage.
Partie 1 : Somme de Variables Aléatoires et Linéarité de l'Espérance
On considère deux variables aléatoires \(X\) et \(Y\) définies sur le même univers \(\Omega\). On peut définir leur somme \(S = X+Y\), qui est aussi une variable aléatoire : pour chaque issue \(\omega\), \(S(\omega) = X(\omega) + Y(\omega)\).
1. Linéarité de l'Espérance
L'espérance mathématique est
linéaire. Cela signifie que pour toutes variables aléatoires \(X\) et \(Y\) définies sur le même univers, et pour tout réel \(a\) :
- Espérance d'une somme : \( E(X + Y) = E(X) + E(Y) \)
- Espérance d'un multiple : \( E(aX) = a E(X) \)
(Ces propriétés sont admises ou justifiées sur des exemples. Elles sont vraies même si X et Y ne sont pas indépendantes).
Plus généralement : \(E(aX + bY) = aE(X) + bE(Y)\).
On lance deux dés équilibrés. Soit \(X\) le résultat du premier dé et \(Y\) le résultat du second dé. Soit \(S = X+Y\) la somme.
On sait que l'espérance pour un dé est \(E(X) = E(Y) = 1\times\frac{1}{6} + ... + 6\times\frac{1}{6} = \frac{1+2+3+4+5+6}{6} = \frac{21}{6} = 3.5\).
Grâce à la linéarité, l'espérance de la somme est la somme des espérances :
\(E(S) = E(X+Y) = E(X) + E(Y) = 3.5 + 3.5 = 7\).
(En moyenne, la somme des deux dés vaut 7).
Partie 2 : Variables Aléatoires Indépendantes et Variance
1. Indépendance
L'indépendance de deux variables aléatoires \(X\) et \(Y\) est une notion plus forte que l'indépendance de deux événements. Intuitivement, cela signifie que la connaissance de la valeur prise par \(X\) ne donne aucune information sur la valeur prise par \(Y\).
Dans le cadre du programme, l'indépendance des variables aléatoires provient toujours du modèle de la succession d'épreuves indépendantes. Si \(X_1, X_2, ..., X_n\) représentent les résultats de \(n\) épreuves indépendantes, alors ces variables sont considérées comme indépendantes.
2. Variance d'une Somme de Variables Indépendantes
Pour la variance, l'additivité n'est vraie que si les variables sont indépendantes.
Si \(X\) et \(Y\) sont deux variables aléatoires indépendantes :
$$ V(X + Y) = V(X) + V(Y) $$
Attention : \(V(X-Y) = V(X + (-1)Y) = V(X) + V(-1Y)\)
Variance d'un multiple : Pour toute variable aléatoire \(X\) et tout réel \(a\) :
$$ V(aX) = a^2 V(X) $$
(Notez le carré sur \(a\))
Conséquence pour \(V(X-Y)\) avec X, Y indép. : \(V(X-Y) = V(X) + V(-Y) = V(X) + (-1)^2 V(Y) = V(X) + V(Y)\).
On lance deux dés équilibrés \(X\) et \(Y\). Ils sont indépendants.
Calculons la variance d'un dé. \(E(X)=3.5\).
\(V(X) = E(X^2) - [E(X)]^2\).
\(E(X^2) = 1^2\frac{1}{6} + 2^2\frac{1}{6} + ... + 6^2\frac{1}{6} = \frac{1+4+9+16+25+36}{6} = \frac{91}{6}\).
\(V(X) = \frac{91}{6} - (3.5)^2 = \frac{91}{6} - (\frac{7}{2})^2 = \frac{91}{6} - \frac{49}{4} = \frac{182 - 147}{12} = \frac{35}{12}\).
Puisque X et Y sont indépendantes, la variance de la somme \(S=X+Y\) est :
\(V(S) = V(X+Y) = V(X) + V(Y) = \frac{35}{12} + \frac{35}{12} = \frac{70}{12} = \frac{35}{6}\).
Retiens bien la différence cruciale :
- **Espérance :** Toujours linéaire \(E(X+Y)=E(X)+E(Y)\), même si X et Y dépendent l'une de l'autre.
- **Variance :** Additive \(V(X+Y)=V(X)+V(Y)\) **SEULEMENT SI** X et Y sont indépendantes. Et attention au carré pour \(V(aX)=a^2V(X)\) !
Partie 3 : Application à la Loi Binomiale \(\mathcal{B}(n,p)\)
On peut voir une loi binomiale comme une somme de lois de Bernoulli indépendantes.
Soit \(X\) une variable aléatoire suivant la loi binomiale \(\mathcal{B}(n, p)\). \(X\) compte le nombre de succès dans \(n\) répétitions indépendantes d'une épreuve de Bernoulli de paramètre \(p\).
On peut écrire \(X\) comme la somme de \(n\) variables aléatoires \(X_1, X_2, ..., X_n\) indépendantes, où chaque \(X_i\) suit la loi de Bernoulli \(\mathcal{B}(p)\) (\(X_i=1\) si succès à l'épreuve \(i\), \(X_i=0\) sinon).
$$ X = X_1 + X_2 + ... + X_n $$
On sait que pour une loi de Bernoulli \(\mathcal{B}(p)\) : \(E(X_i) = p\) et \(V(X_i) = p(1-p)\).
Démonstration (Espérance et Variance de la loi binomiale)
Soit \(X = X_1 + ... + X_n\) où les \(X_i\) sont indépendantes et suivent \(\mathcal{B}(p)\).
Espérance \(E(X)\) :
Par linéarité de l'espérance :
\(E(X) = E(X_1 + ... + X_n) = E(X_1) + ... + E(X_n)\).
Comme \(E(X_i) = p\) pour chaque \(i\) :
\(E(X) = \underbrace{p + p + ... + p}_{n \text{ fois}} = np\).
\(E(X) = np\).
Variance \(V(X)\) :
Comme les \(X_i\) sont indépendantes, on peut utiliser l'additivité de la variance :
\(V(X) = V(X_1 + ... + X_n) = V(X_1) + ... + V(X_n)\).
Comme \(V(X_i) = p(1-p)\) pour chaque \(i\) :
\(V(X) = \underbrace{p(1-p) + ... + p(1-p)}_{n \text{ fois}} = n p(1-p)\).
\(V(X) = np(1-p)\).
Ces formules confirment celles données précédemment pour la loi binomiale.
Partie 4 : Échantillon et Moyenne Échantillon
On modélise un échantillon aléatoire comme une collection de variables aléatoires.
Un
échantillon de taille \(n\) d'une loi de probabilité est une liste \((X_1, X_2, ..., X_n)\) de \(n\) variables aléatoires
indépendantes et identiquement distribuées (i.i.d.) selon cette loi.
Soit \(S_n\) la
somme des variables de l'échantillon : \(S_n = X_1 + ... + X_n\).
Soit \(M_n\) la
moyenne de l'échantillon : \(M_n = \frac{S_n}{n} = \frac{X_1 + ... + X_n}{n}\).
Si la loi suivie par chaque \(X_i\) a pour espérance \(\mu\) et pour variance \(\sigma^2\) :
- Espérance de la somme : \(E(S_n) = E(X_1) + ... + E(X_n) = n\mu\).
- Variance de la somme : \(V(S_n) = V(X_1) + ... + V(X_n) = n\sigma^2\) (car indépendantes).
- Espérance de la moyenne : \(E(M_n) = E(\frac{1}{n}S_n) = \frac{1}{n}E(S_n) = \frac{1}{n}(n\mu) = \mu\).
- Variance de la moyenne : \(V(M_n) = V(\frac{1}{n}S_n) = (\frac{1}{n})^2 V(S_n) = \frac{1}{n^2}(n\sigma^2) = \frac{\sigma^2}{n}\).
- Écart type de la moyenne : \(\sigma(M_n) = \sqrt{V(M_n)} = \sqrt{\frac{\sigma^2}{n}} = \frac{\sigma}{\sqrt{n}}\).
Retiens surtout les résultats pour la moyenne \(M_n\) :
- L'espérance de la moyenne de l'échantillon est égale à l'espérance de la loi d'origine (\(E(M_n) = \mu\)). C'est logique : en moyenne, l'échantillon reflète bien la population.
- L'écart type de la moyenne de l'échantillon est \(\sigma/\sqrt{n}\). Ça veut dire que plus l'échantillon est grand (n grand), plus l'écart type de la moyenne est petit : la moyenne de l'échantillon a de fortes chances d'être très proche de la vraie moyenne \(\mu\). C'est la base de l'estimation statistique !
Partie 5 : Entraînement (Exercices)
- Exercice 1 (Linéarité E) : On lance un dé. Si le résultat est pair, on gagne 2€. Si c'est 1 ou 3, on perd 1€. Si c'est 5, on perd 4€. Soit G le gain. Calculer E(G).
- Exercice 2 (Somme Indép.) : Une machine produit des pièces dont la longueur X (en cm) suit une loi avec \(E(X)=10\) et \(\sigma(X)=0.1\). On prélève 2 pièces indépendamment. Soit \(L = X_1 + X_2\) leur longueur totale.
a) Calculer \(E(L)\).
b) Calculer \(V(L)\) et \(\sigma(L)\).
- Exercice 3 (Échantillon) : On considère des ampoules dont la durée de vie (en heures) suit une loi d'espérance \(\mu=1000\) et d'écart type \(\sigma=50\). On prend un échantillon de 100 ampoules (\(n=100\)). Soit \(M_{100}\) la durée de vie moyenne observée sur cet échantillon.
a) Quelle est l'espérance de \(M_{100}\) ?
b) Quelle est la variance et l'écart type de \(M_{100}\) ?
Partie 6 : Corrections Détaillées
Correction Exercice 1 (Linéarité E)
G = Gain. Valeurs possibles : +2, -1, -4.
Loi de G :
Événement {2, 4, 6} \(\rightarrow\) G=2. Proba = 3/6 = 1/2.
Événement {1, 3} \(\rightarrow\) G=-1. Proba = 2/6 = 1/3.
Événement {5} \(\rightarrow\) G=-4. Proba = 1/6.
Calcul de l'espérance :
\(E(G) = (2 \times P(G=2)) + (-1 \times P(G=-1)) + (-4 \times P(G=-4))\)
\(E(G) = (2 \times \frac{1}{2}) + (-1 \times \frac{1}{3}) + (-4 \times \frac{1}{6})\)
\(E(G) = 1 - \frac{1}{3} - \frac{4}{6} = 1 - \frac{1}{3} - \frac{2}{3}\)
\(E(G) = 1 - \frac{3}{3} = 1 - 1 = 0\).
L'espérance de gain est nulle, le jeu est équitable.
Correction Exercice 2 (Somme Indép.)
\(X_1, X_2\) indépendantes, \(E(X_i)=10\), \(\sigma(X_i)=0.1\). \(L = X_1 + X_2\).
a) Espérance de L :
Par linéarité : \(E(L) = E(X_1 + X_2) = E(X_1) + E(X_2) = 10 + 10 = 20\).
b) Variance et Écart type de L :
Variance d'une pièce : \(V(X_i) = \sigma(X_i)^2 = (0.1)^2 = 0.01\).
Comme \(X_1\) et \(X_2\) sont indépendantes, la variance de la somme est la somme des variances :
\(V(L) = V(X_1 + X_2) = V(X_1) + V(X_2) = 0.01 + 0.01 = 0.02\).
Écart type de L : \(\sigma(L) = \sqrt{V(L)} = \sqrt{0.02}\) (\(\approx 0.141\)).
Correction Exercice 3 (Échantillon)
Loi de durée de vie : \(\mu=1000\), \(\sigma=50\). Échantillon \(n=100\). Moyenne \(M_{100}\).
a) Espérance de \(M_{100}\) :
\(E(M_{100}) = \mu\).
\(E(M_{100}) = 1000\) heures. (En moyenne, la moyenne de l'échantillon sera proche de la moyenne théorique).
b) Variance et Écart type de \(M_{100}\) :
Variance de la loi d'origine : \(\sigma^2 = 50^2 = 2500\).
Variance de la moyenne : \(V(M_{100}) = \frac{\sigma^2}{n} = \frac{2500}{100} = 25\).
Écart type de la moyenne : \(\sigma(M_{100}) = \frac{\sigma}{\sqrt{n}} = \frac{50}{\sqrt{100}} = \frac{50}{10} = 5\).
\(V(M_{100}) = 25\) et \(\sigma(M_{100}) = 5\) heures. (L'écart type de la moyenne est beaucoup plus faible que l'écart type individuel).