madamasterclass.com

📔 Loi des grands nombres

Exploration de la loi des grands nombres et les inégalités de concentration

1. Introduction aux inégalités de concentration

Les inégalités de concentration 🔍 constituent un pilier fondamental de la théorie des probabilités modernes. Ces outils mathématiques permettent de quantifier précisément la probabilité qu'une variable aléatoire s'écarte significativement de sa valeur moyenne, sans nécessiter une connaissance complète de sa distribution. Cette approche révolutionnaire a transformé notre compréhension des phénomènes aléatoires en fournissant des garanties universelles et robustes.

Historiquement, ces inégalités émergent des travaux pionniers d'Andreï Markov (1906) et de Pafnouti Tchebychev (1867), qui cherchaient à établir des liens quantitatifs entre les moments d'une distribution et la concentration de sa masse probabiliste. Leur importance transcende largement le cadre académique, car elles sous-tendent les fondements théoriques de nombreux algorithmes d'apprentissage automatique, de méthodes d'estimation statistique et de techniques d'analyse des données.

Pourquoi ces inégalités sont-elles cruciales ?
  • 🔹 Universalité : Applicables à toute distribution sans hypothèse restrictive sur sa forme exacte
  • 🔹 Robustesse : Fournissent des garanties même en présence de perturbations ou d'outliers
  • 🔹 Prédictibilité : Permettent d'estimer a priori la fiabilité d'une mesure ou d'un algorithme
  • 🔹 Optimisation : Guident la conception d'algorithmes efficaces avec des garanties de performance
  • 🔹 Théorie de l'information : Établissent des liens entre entropie et concentration

Dans le contexte contemporain, ces inégalités trouvent des applications directes dans l'analyse des réseaux de neurones, l'estimation de la complexité algorithmique, la théorie des jeux, et même en finance quantitative pour l'évaluation des risques de portefeuille.

μ Zone de concentration Queue gauche Queue droite Valeurs de X Densité Concentration probabiliste autour de la moyenne

Figure 1 : Visualisation de la concentration de la masse probabiliste autour de la moyenne μ. Les inégalités permettent de borner la probabilité dans les zones extrêmes.

2. Inégalité de Markov : Le fondement universel
Énoncé mathématique fondamental

L'inégalité de Markov, établie en 1906, constitue la pierre angulaire de toutes les inégalités de concentration. Elle repose sur un principe intuitif mais puissant : si une variable aléatoire a une espérance finie, alors elle ne peut pas prendre de valeurs extrêmement grandes avec une probabilité significative.

Pour toute variable aléatoire non négative X et tout seuil a > 0 :

\( P(X \geq a) \leq \frac{E[X]}{a} \)
Démonstration élégante

La preuve repose sur une astuce ingénieuse utilisant l'espérance conditionnelle :

\( E[X] = E[X \cdot \mathbf{1}_{X \geq a}] + E[X \cdot \mathbf{1}_{X < a}] \)

\( E[X] \geq E[X \cdot \mathbf{1}_{X \geq a}] \geq a \cdot E[\mathbf{1}_{X \geq a}] = a \cdot P(X \geq a) \)

D'où : \( P(X \geq a) \leq \frac{E[X]}{a} \)

Exemple concret : Analyse salariale

Contexte : Une entreprise technologique emploie 1000 personnes avec un salaire moyen de 4 500€ mensuel. Le directeur financier souhaite estimer combien d'employés gagnent plus de 20 000€ par mois.

Application :

\( P(X \geq 20000) \leq \frac{4500}{20000} = 0.225 \)

Interprétation : Au maximum 22.5% des employés (soit 225 personnes) peuvent gagner 20 000€ ou plus.

Cette borne est garantie sans connaître la distribution exacte des salaires !

Visualisation géométrique
E[X] a P(X < a) P(X ≥ a) Aire = E[X] ≤ E[X]/a Valeurs de X f(x)
Limitations et perspectives
  • Restriction : Nécessite X ≥ 0 (extension possible via |X|)
  • Précision : Souvent pessimiste, mais universellement applicable
  • Optimalité : Borne serrée pour certaines distributions (exponentielle)
  • Généralisation : Peut s'appliquer à des fonctions de X
3. Inégalité de Bienaymé-Tchebychev : Raffiner avec la variance
Formulation mathématique avancée

L'inégalité de Bienaymé-Tchebychev, développée indépendamment par Irénée-Jules Bienaymé (1853) et Pafnouti Tchebychev (1867), représente une amélioration remarquable de l'inégalité de Markov. Elle exploite l'information sur la variance pour obtenir des bornes plus précises sur la probabilité de déviation autour de la moyenne.

Pour toute variable aléatoire X de variance finie et tout k > 0 :

\( P(|X - E[X]| \geq k\sigma) \leq \frac{1}{k^2} \)

où \( \sigma = \sqrt{\text{Var}(X)} \) est l'écart-type

Version alternative équivalente

En posant \( \epsilon = k\sigma \), on obtient la formulation classique :

\( P(|X - E[X]| \geq \epsilon) \leq \frac{\text{Var}(X)}{\epsilon^2} \)

Cette formulation met en évidence le rôle central de la variance dans le contrôle de la concentration.

Démonstration par application de Markov

La preuve illustre l'élégance de la construction mathématique :

1. Considérons \( Y = (X - E[X])^2 \), qui est non-négative

2. Appliquons Markov : \( P(Y \geq \epsilon^2) \leq \frac{E[Y]}{\epsilon^2} \)

3. Or \( E[Y] = \text{Var}(X) \) et \( \{Y \geq \epsilon^2\} = \{|X - E[X]| \geq \epsilon\} \)

4. D'où le résultat.

Application industrielle détaillée

Contexte : Une usine de composants électroniques produit des résistances avec une valeur nominale de 1000Ω. Le processus de fabrication génère des variations aléatoires avec un écart-type de 50Ω. Le contrôle qualité impose une tolérance de ±150Ω.

Calcul de la probabilité de défaut :

• Seuil : \( \epsilon = 150\Omega \)

• Variance : \( \sigma^2 = 50^2 = 2500 \)

• Borne de Tchebychev :

\( P(|X - 1000| \geq 150) \leq \frac{2500}{150^2} = \frac{2500}{22500} = \frac{1}{9} \approx 11.1\% \)

Garantie : Au maximum 11.1% de pièces défectueuses

μ = 1000Ω μ ± 150Ω Rejet Rejet Zone d'acceptation ≥ 88.9% Résistance (Ω) Densité
Interprétation économique

Si l'usine produit 10 000 résistances par jour, cette analyse garantit qu'au maximum 1 110 pièces seront défectueuses, permettant une planification précise des coûts de rebut et de retraitement.

Avantage : Cette estimation ne nécessite aucune hypothèse sur la distribution exacte des défauts (normale, uniforme, etc.).

4. Loi des grands nombres : Convergence et applications

La loi des grands nombres représente l'un des résultats les plus profonds et les plus pratiques de la théorie des probabilités. Elle formalise mathématiquement l'intuition selon laquelle la moyenne d'un grand nombre d'observations indépendantes converge vers la valeur théorique attendue. Cette loi trouve ses applications dans tous les domaines scientifiques, de la physique statistique à l'économie en passant par l'apprentissage automatique.

Loi faible des grands nombres

Pour une suite \( X_1, X_2, \ldots, X_n \) de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) d'espérance \( \mu \) et de variance finie \( \sigma^2 \) :

\( \lim_{n \to \infty} P\left(\left|\frac{1}{n}\sum_{i=1}^n X_i - \mu\right| \geq \epsilon\right) = 0 \)

Cette convergence en probabilité signifie que la moyenne empirique devient arbitrairement proche de la moyenne théorique avec une probabilité tendant vers 1.

Démonstration via Tchebychev

Soit \( \bar{X}_n = \frac{1}{n}\sum_{i=1}^n X_i \). Alors :

• \( E[\bar{X}_n] = \mu \)

• \( \text{Var}(\bar{X}_n) = \frac{\sigma^2}{n} \)

• Par Tchebychev : \( P(|\bar{X}_n - \mu| \geq \epsilon) \leq \frac{\sigma^2}{n\epsilon^2} \)

• Quand \( n \to \infty \), cette borne tend vers 0.

Loi forte des grands nombres

Sous les mêmes hypothèses, la version forte garantit une convergence presque sûre, plus exigeante :

\( P\left(\lim_{n \to \infty} \frac{1}{n}\sum_{i=1}^n X_i = \mu\right) = 1 \)

Cette convergence presque sûre implique que pour presque toutes les réalisations de la suite, la moyenne empirique converge vers \( \mu \).

Distinction fondamentale

Convergence en probabilité : Pour tout \( \epsilon > 0 \), \( P(|\bar{X}_n - \mu| \geq \epsilon) \to 0 \)

Convergence presque sûre : \( P(\{\omega : \bar{X}_n(\omega) \to \mu\}) = 1 \)

La convergence presque sûre implique la convergence en probabilité, mais la réciproque est fausse.

Simulation numérique : Convergence de la moyenne empirique

Expérience Monte Carlo : Simulation d'une pièce équilibrée où X_i = 1 (Face) avec probabilité 0.5 et X_i = 0 (Pile) avec probabilité 0.5. La moyenne théorique est \( \mu = 0.5 \).

μ = 0.5 0.6 0.5 0.4 0.3 1 100 1000 10000 Nombre de lancers (n) Moyenne empirique Convergence de la fréquence empirique vers la probabilité théorique Moyenne empirique Moyenne théorique
Analyse quantitative

Vitesse de convergence : L'erreur standard de la moyenne empirique décroît en \( \frac{1}{\sqrt{n}} \), ce qui signifie que pour diviser l'erreur par 2, il faut multiplier le nombre d'observations par 4.

Intervalles de confiance : À \( n = 1000 \), Tchebychev garantit que \( P(|\bar{X}_{1000} - 0.5| \geq 0.05) \leq 0.1 \), soit un intervalle de confiance de 90%.

Applications pratiques : Cette convergence justifie l'utilisation de simulations Monte Carlo pour estimer des intégrales complexes ou des probabilités difficiles à calculer analytiquement.

5. Synthèse comparative et applications modernes

Les inégalités de concentration forment un écosystème cohérent d'outils mathématiques, chacun apportant ses propres avantages selon le contexte d'application. Cette section propose une analyse comparative détaillée et explore les applications contemporaines de ces résultats fondamentaux.

Tableau comparatif des inégalités
Critère Markov Tchebychev
Hypothèses X ≥ 0, E[X] < ∞ Var(X) < ∞
Information utilisée Moyenne uniquement Moyenne + variance
Type de borne Unilatérale Bilatérale
Précision Souvent large Plus précise
Décroissance Linéaire en 1/a Quadratique en 1/ε²
Optimalité Optimale pour certaines distributions Optimale pour distribution à 2 points
Hiérarchie des inégalités

Relation fondamentale : Les inégalités forment une hiérarchie naturelle où chaque niveau apporte plus de précision en échange d'hypothèses plus restrictives :

Markov : Universelle mais grossière

Tchebychev : Plus précise avec information sur la variance

Inégalités exponentielles : Très précises mais nécessitent des hypothèses fortes

Applications dans les technologies modernes
🤖 Apprentissage automatique

Théorie PAC : Les inégalités de concentration fournissent des bornes sur l'erreur de généralisation. Pour un algorithme d'apprentissage avec n exemples :

Erreur empirique : \( \hat{R}(h) = \frac{1}{n}\sum_{i=1}^n \mathbf{1}_{h(x_i) \neq y_i} \)

Erreur vraie : \( R(h) = P(h(X) \neq Y) \)

Borne : \( P(|R(h) - \hat{R}(h)| \geq \epsilon) \leq 2e^{-2n\epsilon^2} \)

💰 Finance quantitative

Gestion des risques : Estimation de la Value at Risk (VaR) d'un portefeuille sans hypothèse sur la distribution des rendements.

Portefeuille : \( X = \sum_{i=1}^n w_i R_i \) où \( w_i \) sont les poids et \( R_i \) les rendements

VaR à 95% : \( P(X \leq -\text{VaR}) \leq 0.05 \) via Tchebychev

🔬 Physique statistique

Théorème central limite : Justification de l'approche thermodynamique par la convergence des moyennes d'observables microscopiques.

Système : N particules avec énergies \( E_i \) → Énergie moyenne \( \bar{E} \) converge vers \( \langle E \rangle \)

⚡ Algorithmique randomisée

Analyse d'algorithmes : Bornes sur la probabilité d'échec d'algorithmes Monte Carlo.

Estimation π : Méthode des points aléatoires dans le carré unité

Garantie : \( P(|\hat{\pi} - \pi| \geq \epsilon) \leq \frac{\sigma^2}{n\epsilon^2} \)

Impact et perspectives futures

"Les inégalités de concentration constituent le pont fondamental entre l'incertitude théorique et les garanties pratiques"

Développements récents
  • 🔹 Inégalités matricielles : Extension aux matrices aléatoires
  • 🔹 Concentration sous contraintes : Variables dépendantes
  • 🔹 Méthodes variationnelles : Optimisation des bornes
Applications émergentes
  • 🔹 Intelligence artificielle : Réseaux de neurones profonds
  • 🔹 Cryptographie : Sécurité probabiliste
  • 🔹 Bio-informatique : Analyse de séquences

Ces outils mathématiques continuent d'évoluer pour répondre aux défis de l'analyse de données massives et de l'intelligence artificielle moderne.

🎲 Simulateur d'Inégalités de Concentration - Loi Binomiale
50
0.5
2
📊 Variable Aléatoire X ~ B(n,p)
X : Nombre de faces ≥ 4 obtenues
E[X] = μ = n × p : 25
Var(X) = σ² = n × p × (1-p) : 12.5
σ = √(n × p × (1-p)) : 3.54
📐 Inégalité de Bienaymé-Tchebychev
P(|X - μ| ≥ k) ≤ σ²/k²
Borne théorique : 0.000
Probabilité simulée : 0.000
📈 Visualisation Interactive
⚠️ Zone |X - μ| ≥ k μ = E[X] Valeurs de X (nombre de succès) Probabilité
🎲
Succès : Face ≥ 4
Échec : Face < 4
Zone normale
Zone d'écart |X-μ| ≥ k
🧠 Interprétation et Compréhension
Contexte : On lance un dé à 6 faces n fois. X compte le nombre de fois où on obtient une face ≥ 4 (donc 4, 5 ou 6).
Probabilité de succès : p = 3/6 = 0.5 (3 faces favorables sur 6).
Principe de l'inégalité : L'inégalité de Bienaymé-Tchebychev nous garantit que la probabilité d'observer un écart important par rapport à la moyenne est limitée. Plus k est grand, plus cette limite devient petite, ce qui signifie que les grandes déviations sont de plus en plus improbables.
Exercice 1: ★ ★ ☆ ☆ ☆

Soit une pièce de monnaie équilibrée. On considère la variable aléatoire \(X_n\) qui représente le nombre de faces obtenues lors de \(n\) lancers.
1. Déterminer l'espérance et la variance de \(X_n\).
2. Montrer que \( \frac{X_n}{n} \) converge en probabilité vers \( \frac{1}{2} \) lorsque \( n \to +\infty \).

1. Calcul de l'espérance et de la variance :
La variable aléatoire \(X_n\) suit une loi binomiale \(B(n, p)\) avec \(p = \frac{1}{2}\) (probabilité d'obtenir une face).
    • Espérance :
       \(E[X_n] = np = n \cdot \frac{1}{2} = \frac{n}{2}\)
       Cela signifie qu'en moyenne, on s'attend à obtenir \(\frac{n}{2}\) faces après \(n\) lancers.
    • Variance :
       \(\text{Var}(X_n) = np(1-p) = n \cdot \frac{1}{2} \cdot \frac{1}{2} = \frac{n}{4}\)
       La variance indique la dispersion des résultats. Une variance plus élevée signifie que le nombre de faces peut varier considérablement autour de l'espérance.

2. Convergence en probabilité :
La loi des grands nombres stipule que lorsque \(n\) augmente, la proportion de faces obtenues \( \frac{X_n}{n} \) converge vers \(p\).
    Ainsi, \( \frac{X_n}{n} \) converge en probabilité vers \(\frac{1}{2}\). Cela signifie qu'en lançant la pièce un grand nombre de fois, la proportion de faces observée se stabilisera autour de \(50\%\).


Exercice 2: ★ ★ ★ ☆ ☆

Considérons une expérience où l'on tire aléatoirement une carte d'un jeu de 52 cartes. On définit la variable aléatoire \(Y_n\) comme étant le nombre de cartes rouges obtenues lors de \(n\) tirages.
1. Calculer l'espérance et la variance de \(Y_n\).
2. Vérifier que \( \frac{Y_n}{n} \) converge en probabilité vers \( \frac{1}{2} \).

1. Calcul de l'espérance et de la variance :
La variable \(Y_n\) suit une loi binomiale \(B(n, p)\) avec \(p = \frac{26}{52} = \frac{1}{2}\) (car il y a 26 cartes rouges dans un jeu de 52).
    • Espérance :
       \(E[Y_n] = np = n \cdot \frac{1}{2} = \frac{n}{2}\)
       Ainsi, en moyenne, on s'attend à obtenir \(\frac{n}{2}\) cartes rouges.
    • Variance :
       \(\text{Var}(Y_n) = np(1-p) = n \cdot \frac{1}{2} \cdot \frac{1}{2} = \frac{n}{4}\)
       La variance indique la variabilité des résultats. Une plus grande variance signifie que le nombre de cartes rouges peut varier considérablement.

2. Convergence en probabilité :
En utilisant la loi des grands nombres, on sait que \( \frac{Y_n}{n} \) converge en probabilité vers \(p = \frac{1}{2}\).
    Cela signifie qu'avec un grand nombre de tirages, la proportion de cartes rouges observées se stabilisera autour de \(50\%\).


Exercice 3: ★ ★ ★ ★ ☆

On lance un dé à six faces équilibré \(n\) fois. Soit \(Z_n\) le nombre de fois où le nombre 6 apparaît.
1. Calculer l'espérance et la variance de \(Z_n\).
2. Montrer que \( \frac{Z_n}{n} \) converge en probabilité vers \( \frac{1}{6} \).

1. Calcul de l'espérance et de la variance :
La variable \(Z_n\) suit une loi binomiale \(B(n, p)\) avec \(p = \frac{1}{6}\) (probabilité d'obtenir un 6).
    • Espérance :
       \(E[Z_n] = np = n \cdot \frac{1}{6} = \frac{n}{6}\)
       On s'attend donc à obtenir en moyenne \(\frac{n}{6}\) fois le nombre 6 après \(n\) lancers.
    • Variance :
       \(\text{Var}(Z_n) = np(1-p) = n \cdot \frac{1}{6} \cdot \frac{5}{6} = \frac{5n}{36}\)
       La variance montre la dispersion des résultats. Une plus grande variance signifie que le nombre de 6s peut varier considérablement.

2. Convergence en probabilité :
La loi des grands nombres indique que \( \frac{Z_n}{n} \) converge en probabilité vers \( \frac{1}{6} \).
    Cela signifie qu'en lançant le dé un grand nombre de fois, la proportion de 6s observée se stabilisera autour de \(16.67\%\).


Exercice 4: ★ ★ ★ ★ ★

On considère une urne contenant 3 boules rouges et 2 boules bleues. On tire \(n\) boules avec remise. Soit \(W_n\) le nombre de boules rouges tirées.
1. Déterminer l'espérance et la variance de \(W_n\).
2. Démontrer que \( \frac{W_n}{n} \) converge en probabilité vers \( \frac{3}{5} \).

1. Calcul de l'espérance et de la variance :
La variable \(W_n\) suit une loi binomiale \(B(n, p)\) avec \(p = \frac{3}{5}\) (3 rouges sur 5 boules).
    • Espérance :
       \(E[W_n] = np = n \cdot \frac{3}{5} = \frac{3n}{5}\)
       En moyenne, on s'attend à tirer \(\frac{3n}{5}\) boules rouges.
    • Variance :
       \(\text{Var}(W_n) = np(1-p) = n \cdot \frac{3}{5} \cdot \frac{2}{5} = \frac{6n}{25}\)
       Une variance plus élevée indique que le nombre de boules rouges peut varier considérablement autour de l'espérance.

2. Convergence en probabilité :
Selon la loi des grands nombres, \( \frac{W_n}{n} \) converge en probabilité vers \( \frac{3}{5} \).
    Cela signifie qu'après un grand nombre de tirages, la proportion de boules rouges tirées se stabilisera autour de \(60\%\).


Exercice 5: ★ ★ ★ ★ ★

Une entreprise fabrique des pièces dont la probabilité de défaut est de \(0.1\). On considère \(D_n\) le nombre de pièces défectueuses sur \(n\) pièces produites.
1. Déterminer l'espérance et la variance de \(D_n\).
2. Montrer que \( \frac{D_n}{n} \) converge en probabilité vers \(0.1\) et expliquer la signification de cette convergence pour l'entreprise.

1. Calcul de l'espérance et de la variance :
La variable \(D_n\) suit une loi binomiale \(B(n, p)\) avec \(p = 0.1\).
    • Espérance :
       \(E[D_n] = np = n \cdot 0.1 = 0.1n\)
       Cela signifie que sur \(n\) pièces produites, on s'attend à ce qu'environ \(10\%\) soient défectueuses.
    • Variance :
       \(\text{Var}(D_n) = np(1-p) = n \cdot 0.1 \cdot 0.9 = 0.09n\)
       La variance indique la variabilité du nombre de pièces défectueuses. Une plus grande variance signifie une plus grande incertitude dans le contrôle qualité.

2. Convergence en probabilité :
La loi des grands nombres nous dit que \( \frac{D_n}{n} \) converge vers \(0.1\).
    Cela signifie qu'à long terme, l'entreprise peut s'attendre à ce que 10% de ses pièces soient défectueuses, ce qui aide à prévoir les coûts associés aux retours et à améliorer la qualité des processus de production.


Exercice 6: ★ ★ ★ ★ ☆

On lance un dé à six faces équilibré \(n\) fois. Soit \(A_n\) le nombre de fois où le nombre 1 apparaît.
1. Calculer l'espérance et la variance de \(A_n\).
2. Montrer que \( \frac{A_n}{n} \) converge en probabilité vers \( \frac{1}{6} \) et déduire les implications de cette convergence.

1. Calcul de l'espérance et de la variance :
La variable aléatoire \(A_n\) suit une loi binomiale \(B(n, p)\) avec \(p = \frac{1}{6}\), car il y a une chance sur six d'obtenir un 1 à chaque lancer.
    - Espérance :
       \(E[A_n] = np = n \cdot \frac{1}{6} = \frac{n}{6}\)
       Cela signifie qu'en moyenne, on s'attend à obtenir \(\frac{n}{6}\) fois le nombre 1 après \(n\) lancers.
    - Variance :
       \(\text{Var}(A_n) = np(1-p) = n \cdot \frac{1}{6} \cdot \frac{5}{6} = \frac{5n}{36}\)
       La variance mesure la dispersion des résultats par rapport à l'espérance. Une plus grande variance signifie plus de variabilité dans le nombre de 1s obtenus.

2. Convergence en probabilité :
La loi des grands nombres stipule que lorsque \(n\) augmente, la proportion des succès (ici, l'apparition du nombre 1) tend à la probabilité réelle \(p\).
    Ainsi, \( \frac{A_n}{n} \) converge en probabilité vers \(\frac{1}{6}\). Cela signifie qu'en lançant le dé un grand nombre de fois, la proportion des lancers affichant 1 se stabilisera autour de \(16.67\%\).
    En pratique, cela aide à prédire que sur 600 lancers, on peut s'attendre à voir environ 100 fois le nombre 1.


Exercice 7: ★ ★ ★ ★ ★

Une urne contient 4 boules rouges et 6 boules vertes. On tire avec remise \(n\) boules. Soit \(R_n\) le nombre de boules rouges obtenues.
1. Déterminer l'espérance et la variance de \(R_n\).
2. Vérifier que \( \frac{R_n}{n} \) converge en probabilité vers \( \frac{2}{5} \) et expliquer pourquoi cela est pertinent.

1. Calcul de l'espérance et de la variance :
La variable \(R_n\) suit une loi binomiale \(B(n, p)\) où \(p = \frac{4}{10} = \frac{2}{5}\).
    - Espérance :
       \(E[R_n] = np = n \cdot \frac{2}{5} = \frac{2n}{5}\)
       Cela signifie qu'après \(n\) tirages, on s'attend à obtenir \(\frac{2n}{5}\) boules rouges.
    - Variance :
       \(\text{Var}(R_n) = np(1-p) = n \cdot \frac{2}{5} \cdot \frac{3}{5} = \frac{6n}{25}\)
       Une variance plus élevée indique que le nombre de boules rouges tirées peut varier considérablement autour de l'espérance.

2. Convergence en probabilité :
La loi des grands nombres nous indique que \( \frac{R_n}{n} \) converge vers \( \frac{2}{5} \) lorsque \(n\) devient grand. Cela indique que plus on tire de boules, plus la proportion de boules rouges se rapproche de \(40\%\).
    Par exemple, sur 1000 tirages, on peut s'attendre à obtenir environ 400 boules rouges, ce qui est important pour prendre des décisions sur le stock ou la production.


Exercice 8: ★ ★ ★ ★ ★

Un joueur de football tire au but. La probabilité de marquer un but est de \(0.3\). On considère \(N\) le nombre de tirs effectués par le joueur.
1. Calculer l'espérance et la variance du nombre de buts marqués \(B_n\) après \(n\) tirs.
2. Montrer que \( \frac{B_n}{n} \) converge en probabilité vers \(0.3\) et discuter des implications pour le joueur à long terme.

1. Calcul de l'espérance et de la variance :
La variable \(B_n\) suit une loi binomiale \(B(n, p)\) où \(p = 0.3\).
    - Espérance :
       \(E[B_n] = np = n \cdot 0.3 = 0.3n\)
       Cela indique qu'après \(n\) tirs, le joueur peut s'attendre à marquer \(0.3n\) buts.
    - Variance :
       \(\text{Var}(B_n) = np(1-p) = n \cdot 0.3 \cdot 0.7 = 0.21n\)
       La variance ici indique la variabilité dans le nombre de buts marqués. Plus la variance est élevée, plus le nombre de buts marqués peut varier d'un match à l'autre.

2. Convergence en probabilité :
Comme pour les précédents exercices, la loi des grands nombres affirme que \( \frac{B_n}{n} \) converge vers \(0.3\).
    Cela signifie qu'à long terme, le joueur peut s'attendre à marquer environ 30% de ses tirs, ce qui est essentiel pour évaluer sa performance et ajuster ses entraînements.


Exercice 9: ★ ★ ★ ★ ★

Une entreprise fabrique des pièces dont la probabilité de défaut est de \(0.1\). On considère \(D_n\) le nombre de pièces défectueuses sur \(n\) pièces produites.
1. Déterminer l'espérance et la variance de \(D_n\).
2. Montrer que \( \frac{D_n}{n} \) converge en probabilité vers \(0.1\) et expliquer la signification de cette convergence pour l'entreprise.

1. Calcul de l'espérance et de la variance :
La variable \(D_n\) suit une loi binomiale \(B(n, p)\) avec \(p = 0.1\).
    - Espérance :
       \(E[D_n] = np = n \cdot 0.1 = 0.1n\)
       Cela signifie qu'après avoir produit \(n\) pièces, l'entreprise s'attend à ce qu'environ \(10\%\) des pièces soient défectueuses.
    - Variance :
       \(\text{Var}(D_n) = np(1-p) = n \cdot 0.1 \cdot 0.9 = 0.09n\)
       La variance ici indique la variabilité du nombre de pièces défectueuses. Une variance plus élevée signifie une plus grande incertitude dans le contrôle qualité.

2. Convergence en probabilité :
La loi des grands nombres nous dit que \( \frac{D_n}{n} \) converge vers \(0.1\).
    Cela signifie qu'à long terme, l'entreprise peut s'attendre à ce que 10% de ses pièces soient défectueuses. Cela aide à prévoir les coûts associés aux retours et à améliorer les processus de production pour réduire ce taux.


Exercice 10: ★ ★ ★ ★ ★

Une enquête révèle que 70% des consommateurs préfèrent le produit A au produit B. Soit \(C_n\) le nombre de consommateurs préférant le produit A parmi \(n\) interrogés.
1. Calculer l'espérance et la variance de \(C_n\).
2. Montrer que \( \frac{C_n}{n} \) converge en probabilité vers \(0.7\) et discuter de l'importance de cette convergence pour l'entreprise.

1. Calcul de l'espérance et de la variance :
La variable \(C_n\) suit une loi binomiale \(B(n, p)\) avec \(p = 0.7\).
    - Espérance :
       \(E[C_n] = np = n \cdot 0.7 = 0.7n\)
       Cela signifie qu'après avoir interrogé \(n\) consommateurs, on s'attend à ce que \(70\%\) d'entre eux préfèrent le produit A.
    - Variance :
       \(\text{Var}(C_n) = np(1-p) = n \cdot 0.7 \cdot 0.3 = 0.21n\)
       La variance indique la diversité des réponses. Une variance plus élevée signifie une plus grande variabilité dans les préférences des consommateurs.

2. Convergence en probabilité :
La loi des grands nombres assure que \( \frac{C_n}{n} \) converge vers \(0.7\).
    Cela signifie qu'à long terme, l'entreprise peut s'attendre à ce que 70% des consommateurs préfèrent le produit A, ce qui est essentiel pour adapter ses stratégies de marketing et de production.


Exercice 11: ★ ★ ★ ☆ ☆

Soit \(X\) une variable aléatoire positive telle que \(E[X] = 10\).
1. En utilisant l'inégalité de Markov, montrer que pour tout \(a > 0\), on a \(P(X \geq a) \leq \frac{E[X]}{a}\).
2. Calculer \(P(X \geq 20)\).

1. Application de l'inégalité de Markov :
Selon l'inégalité de Markov, pour une variable aléatoire positive \(X\) et pour tout \(a > 0\), on a :
    \(P(X \geq a) \leq \frac{E[X]}{a}\)
    Ici, avec \(E[X] = 10\), cela donne :
    \(P(X \geq a) \leq \frac{10}{a}\).

2. Calcul :
Pour \(a = 20\), on obtient :
    \(P(X \geq 20) \leq \frac{10}{20} = 0.5\).


Exercice 12: ★ ★ ★ ★ ☆

Soit \(Y\) une variable aléatoire telle que \(E[Y] = 5\) et \(Y \geq 0\).
1. Appliquer l'inégalité de Markov pour \(a = 10\) et interpréter le résultat.
2. Quel est le plus petit \(a\) tel que \(P(Y \geq a) \leq 0.2\) ?

1. Application de l'inégalité de Markov :
En utilisant l'inégalité de Markov, on a :
    \(P(Y \geq 10) \leq \frac{E[Y]}{10} = \frac{5}{10} = 0.5\).
    Cela signifie qu'il y a au maximum \(50\%\) de chances que \(Y\) soit supérieur ou égal à 10.

2. Résolution de l'inégalité :
On cherche \(a\) tel que \(P(Y \geq a) \leq 0.2\).
    D'après l'inégalité de Markov :
    \(P(Y \geq a) \leq \frac{5}{a} \leq 0.2\).
    Cela implique \(a \geq \frac{5}{0.2} = 25\).


Exercice 13: ★ ★ ★ ★ ★

Soit \(Z\) une variable aléatoire positive avec \(E[Z] = 15\).
1. Montrer que pour \(a = 30\), \(P(Z \geq 30) \leq \frac{15}{30}\).
2. Que peut-on conclure si \(P(Z \geq 30) = 0.4\) ?

1. Application de l'inégalité de Markov :
On applique l'inégalité de Markov :
    \(P(Z \geq 30) \leq \frac{E[Z]}{30} = \frac{15}{30} = 0.5\).
    Cela signifie que la probabilité que \(Z\) soit supérieur ou égal à 30 est au maximum \(50\%\).

2. Interprétation du résultat :
Si \(P(Z \geq 30) = 0.4\), cela est conforme à l'inégalité de Markov, car \(0.4 \leq 0.5\). Cela indique que la distribution de \(Z\) respecte bien l'inégalité.


Exercice 14: ★ ★ ★ ★ ★

Considérons une variable aléatoire \(W\) avec \(E[W] = 12\) et \(W \geq 0\).
1. En utilisant l'inégalité de Markov, déterminer \(P(W \geq 24)\).
2. Si l'on sait que \(P(W \geq 24) = 0.1\), que peut-on dire de la variable \(W\) ?

1. Application de l'inégalité de Markov :
D'après l'inégalité de Markov :
    \(P(W \geq 24) \leq \frac{E[W]}{24} = \frac{12}{24} = 0.5\).
    Donc, la probabilité que \(W\) soit supérieur ou égal à 24 est au maximum \(50\%\).

2. Interprétation de \(P(W \geq 24) = 0.1\) :
Si \(P(W \geq 24) = 0.1\), cela est bien en dessous de la limite donnée par l'inégalité de Markov, ce qui indique que \(W\) est probablement concentrée sur des valeurs inférieures à 24.


Exercice 15: ★ ★ ★ ☆ ☆

Soit \(V\) une variable aléatoire positive telle que \(E[V] = 8\).
1. Utiliser l'inégalité de Markov pour établir une borne pour \(P(V \geq 16)\).
2. Que peut-on conclure si \(P(V \geq 16) > 0.25\) ?

1. Application de l'inégalité de Markov :
D'après l'inégalité de Markov :
    \(P(V \geq 16) \leq \frac{E[V]}{16} = \frac{8}{16} = 0.5\).
    Cela signifie que la probabilité que \(V\) soit supérieur ou égal à 16 ne peut pas dépasser \(50\%\).

2. Conclusion sur \(P(V \geq 16) > 0.25\) :
Si \(P(V \geq 16) > 0.25\), cela reste conforme à l'inégalité de Markov, car \(0.25 \lt 0.5\). Cela indique que \(V\) peut avoir une certaine concentration sur des valeurs plus élevées, mais reste limitée par l'espérance.


Exercice 16: ★ ★ ★ ☆ ☆

Soit \(X\) une variable aléatoire avec \(E[X] = 10\) et \(\text{Var}(X) = 4\).
1. Utiliser l'inégalité de Bienaymé-Tchebychev pour établir une borne pour \(P(|X - 10| \geq 4)\).
2. Que peut-on conclure à partir de cette inégalité ?

1. Application de l'inégalité :
Selon l'inégalité de Bienaymé-Tchebychev :
    \(P(|X - E[X]| \geq k) \leq \frac{\text{Var}(X)}{k^2}\).
    Ici, pour \(k = 4\), on a :
    \(P(|X - 10| \geq 4) \leq \frac{4}{4^2} = \frac{4}{16} = 0.25\).

2. Conclusion :
Cela indique que la probabilité que \(X\) s'écarte de sa moyenne de plus de 4 est au maximum \(25\%\).


Exercice 17: ★ ★ ★ ★ ☆

Considérons une variable aléatoire \(Y\) avec \(E[Y] = 5\) et \(\text{Var}(Y) = 9\).
1. Montrer que \(P(|Y - 5| \geq 3) \leq \frac{9}{3^2}\).
2. Quel est le résultat numérique de cette inégalité ?

1. Application de l'inégalité :
Avec l'inégalité de Bienaymé-Tchebychev :
    \(P(|Y - E[Y]| \geq k) \leq \frac{\text{Var}(Y)}{k^2}\).
    Pour \(k = 3\), cela donne :
    \(P(|Y - 5| \geq 3) \leq \frac{9}{3^2} = \frac{9}{9} = 1\).

2. Résultat numérique :
Cette inégalité nous dit que la probabilité que \(Y\) soit à une distance de 3 de sa moyenne est au maximum \(100\%\), ce qui est trivially vrai.


Exercice 18: ★ ★ ★ ★ ★

Soit \(Z\) une variable aléatoire avec \(E[Z] = 7\) et \(\text{Var}(Z) = 16\).
1. Utiliser l'inégalité de Bienaymé-Tchebychev pour établir une borne pour \(P(Z \leq 3)\).
2. Que signifie ce résultat en termes de probabilité ?

1. Application de l'inégalité :
En utilisant l'inégalité de Bienaymé-Tchebychev :
    Pour \(k = 4\) (car \(7 - 3 = 4\)),
    \(P(Z \leq 3) = P(Z - 7 \leq -4) \leq \frac{\text{Var}(Z)}{4^2} = \frac{16}{16} = 1\).

2. Signification :
Ce résultat indique que la probabilité que \(Z\) soit inférieure ou égale à 3 est au maximum \(100\%\), ce qui est trivially vrai.


Exercice 19: ★ ★ ★ ★ ★

Considérons une variable aléatoire \(W\) avec \(E[W] = 8\) et \(\text{Var}(W) = 4\).
1. Montrer que \(P(W \geq 10) \leq \frac{4}{(10 - 8)^2}\).
2. Quel est le résultat numérique de cette inégalité ?

1. Application de l'inégalité :
Par l'inégalité de Bienaymé-Tchebychev :
    \(P(W \geq 10) \leq \frac{\text{Var}(W)}{(10 - E[W])^2} = \frac{4}{(10 - 8)^2} = \frac{4}{4} = 1\).

2. Résultat numérique :
Cette inégalité indique que la probabilité que \(W\) soit supérieur ou égal à 10 est au maximum \(100\%\), ce qui est encore une fois trivially vrai.


Exercice 20: ★ ★ ★ ☆ ☆

Soit \(V\) une variable aléatoire avec \(E[V] = 6\) et \(\text{Var}(V) = 2\).
1. Utiliser l'inégalité de Bienaymé-Tchebychev pour établir une borne pour \(P(|V - 6| \geq 2)\).
2. Que peut-on conclure à partir de cette inégalité ?

1. Application de l'inégalité :
En utilisant l'inégalité de Bienaymé-Tchebychev :
    \(P(|V - 6| \geq 2) \leq \frac{\text{Var}(V)}{2^2} = \frac{2}{4} = 0.5\).

2. Conclusion :
Cela signifie que la probabilité que \(V\) s'écarte de sa moyenne de plus de 2 est au maximum \(50\%\).


Exercice 1: ★ ★ ☆ ☆ ☆

Une variable aléatoire \(X\) a pour espérance \(E(X) = 50\) et variance \(\text{Var}(X) = 25\).
En utilisant l'inégalité de Bienaymé-Tchebychev, donner une borne supérieure pour \(P(|X - 50| \geq 15)\).

L'inégalité de Bienaymé-Tchebychev énonce que pour toute variable aléatoire \(X\) d'espérance \(\mu\) et de variance \(\sigma^2\), et pour tout \(k > 0\) :
\[ P(|X - \mu| \geq k) \leq \frac{\sigma^2}{k^2} \]
Ici : \(\mu = 50\), \(\sigma^2 = 25\), \(k = 15\)
Application : \(P(|X - 50| \geq 15) \leq \frac{25}{15^2} = \frac{25}{225} = \frac{1}{9} \approx 0.111\)


Exercice 2: ★ ★ ★ ☆ ☆

On lance une pièce équilibrée \(n\) fois. Soit \(S_n\) le nombre de "pile" obtenus.
Utiliser l'inégalité de Bienaymé-Tchebychev pour déterminer le nombre minimum de lancers nécessaire pour que \(P\left(\left|\frac{S_n}{n} - \frac{1}{2}\right| \geq 0.1\right) \leq 0.05\).

Pour une pièce équilibrée, chaque lancer suit \(\mathcal{B}(1/2)\) avec \(E(X_i) = 1/2\) et \(\text{Var}(X_i) = 1/4\).
Pour la moyenne empirique : \(\text{Var}\left(\frac{S_n}{n}\right) = \frac{1}{4n}\)
Application : \(P\left(\left|\frac{S_n}{n} - \frac{1}{2}\right| \geq 0.1\right) \leq \frac{1}{4n \times (0.1)^2} = \frac{25}{n}\)
On veut \(\frac{25}{n} \leq 0.05\), donc \(n \geq 500\).
Réponse : Il faut au minimum 500 lancers.


Exercice 3: ★ ★ ☆ ☆ ☆

Une variable aléatoire \(X \geq 0\) a pour espérance \(E(X) = 12\).
Utiliser l'inégalité de Markov pour majorer \(P(X \geq 20)\).

L'inégalité de Markov énonce que pour toute variable aléatoire \(Y \geq 0\) et tout \(a > 0\) :
\[ P(Y \geq a) \leq \frac{E(Y)}{a} \]
Application avec \(E(X) = 12\) et \(a = 20\) :
\[ P(X \geq 20) \leq \frac{12}{20} = \frac{3}{5} = 0.6 \]


Exercice 4: ★ ★ ★ ★ ☆

Soit \(X\) une variable aléatoire avec \(E(X) = 10\) et \(\text{Var}(X) = 4\).
Comparer les bornes obtenues par les inégalités de Markov et de Bienaymé-Tchebychev pour \(P(X \geq 16)\).

Inégalité de Markov : \(P(X \geq 16) \leq \frac{10}{16} = 0.625\) (si \(X \geq 0\))
Inégalité de Bienaymé-Tchebychev :
\(P(X \geq 16) = P(X - 10 \geq 6) \leq P(|X - 10| \geq 6) \leq \frac{4}{6^2} = \frac{1}{9} \approx 0.111\)
Conclusion : Bienaymé-Tchebychev donne une borne plus fine car elle utilise l'information sur la variance.


Exercice 5: ★ ★ ★ ★ ★

Soient \(X_1, X_2, \ldots, X_{100}\) des variables aléatoires indépendantes uniformes sur \([0,1]\). Soit \(\bar{S} = \frac{X_1 + \ldots + X_{100}}{100}\) la moyenne empirique.
Utiliser l'inégalité de Bienaymé-Tchebychev pour majorer \(P\left(\left|\bar{S} - \frac{1}{2}\right| \geq 0.1\right)\).

Bienaymé-Tchebychev :
\(\text{Var}(\bar{S}) = \frac{1/12}{100} = \frac{1}{1200}\), donc \(P\left(\left|\bar{S} - \frac{1}{2}\right| \geq 0.1\right) \leq \frac{1/1200}{0.01} = \frac{1}{12} \approx 0.083\)
Conclusion : Cette borne fournit une estimation utile de la probabilité que la moyenne empirique s'écarte de \(0.1\) de la valeur attendue \(0.5\).


Exercice 6: ★ ★ ★ ☆ ☆

Une machine produit des pièces dont \(5\%\) sont défectueuses en moyenne. On prélève un échantillon de 400 pièces.
Quelle est la probabilité que le pourcentage de pièces défectueuses dans l'échantillon s'écarte de plus de \(2\%\) de la moyenne théorique ?

Soit \(X\) le nombre de pièces défectueuses. \(X \sim \mathcal{B}(400, 0.05)\)
\(E(X) = 20\), \(\text{Var}(X) = 19\)
Pour la proportion \(\hat{p} = \frac{X}{400}\) : \(E(\hat{p}) = 0.05\), \(\text{Var}(\hat{p}) = \frac{19}{160000}\)
Application : \(P(|\hat{p} - 0.05| \geq 0.02) \leq \frac{19/160000}{(0.02)^2} = \frac{19}{64} \approx 0.297\)
Réponse : La probabilité est majorée par environ \(29.7\%\).


Exercice 7: ★ ★ ★ ★ ★

On dispose de 1000 variables aléatoires indépendantes \(X_1, \ldots, X_{1000}\) de loi exponentielle de paramètre \(\lambda = 2\).
Comparer les bornes données par l'inégalité de Bienaymé-Tchebychev et l'approximation normale pour \(P\left(\left|\bar{S} - \frac{1}{2}\right| \geq 0.1\right)\), où \(\bar{S}\) est la moyenne empirique.

Pour une loi exponentielle \(\mathcal{E}(\lambda = 2)\) : \(E(X_i) = \frac{1}{2}\), \(\text{Var}(X_i) = \frac{1}{4}\)
Pour la moyenne : \(E(\bar{S}) = \frac{1}{2}\), \(\text{Var}(\bar{S}) = \frac{1}{4000}\)
Bienaymé-Tchebychev : \(P\left(\left|\bar{S} - \frac{1}{2}\right| \geq 0.1\right) \leq \frac{1/4000}{0.01} = 0.025\)
Théorème central limite : \(\bar{S} \sim \mathcal{N}\left(\frac{1}{2}, \frac{1}{4000}\right)\)
\(P\left(\left|\bar{S} - \frac{1}{2}\right| \geq 0.1\right) \approx 2\Phi(-6.32) \approx 0\)
Conclusion : L'approximation normale est beaucoup plus précise pour de grands échantillons.


Forum(s) associé(s)

Page: