LES PROBABILITÉS

 

2.1 - DÉFINITIONS

2.1.1 - Définition classique (mathématique)

p = Pr(E) = Nombre de cas favorables / Nombre de cas possibles.

* Pr(E*) probabilité de non - réalisation de E (E*) : Pr(E*) = 1 - Pr(E).

2.1.2 - Définition statistique

* Dans le calcul de p, on a supposé tous les cas possibles équiprobables. On aurait pu faire une étude empirique (c'est à dire réaliser "expérimentalement" un grand nombre de lancers de dés) et estimer, à partir de l'observation, la fréquence de divers événements favorables. Cette fréquence de réalisation correspondrait alors exactement à la probabilité de réalisation définie ci dessus, dès lors que l'hypothèse d'équiprobabilité des cas est vérifiée. D'où pour nous l'équivalence entre : fréquence relative de réalisation (expérimentale/constatée) et probabilité de réalisation (théorique /mathématique)

2.1.3 - Variable aléatoire - Fonction de répartition - Densité de probabilité

* X variable aléatoire ; à chaque valeur (Xi) on associe Pr (Xi).

* L'ensemble des couples (Xi ; Pr(Xi)) définit la distribution de probabilités de X.

* La fonction : Fr(Xi) = Pr(µ < X < Xi ) = Sj< i Pr(Xj) est appelée fonction de répartition ("distribution des fréquences cumulées"). Lorsque la variable Xi est continue, on définit aussi : Pr(X) = f(X) dX , où f(X) est appelée densité de probabilité de X (à rapprocher de la densité de fréquence).

2.1.4 - Événements dépendants / indépendants. Probabilité conditionnelle.

* événements indépendants : la réalisation d'un événement n'affecte pas la réalisation du/des autres (ex : apparition des chiffres lors de jets successifs d'un dé).

*événements dépendants : la réalisation d'un événement affecte celle du/des autres ( ex : le tirage sans remise d'une carte d'un jeu de 32 cartes réduit à 1/31ème la probabilité d'apparition d'une autre carte lors d'un second tirage).

* Probabilité conditionnelle. Elle est relative aux événements dits dépendants :

Pr (E2 / E1) est la probabilité de réalisation de E2 , sachant que E1 est réalisé (ou "si E1 est réalisé").

2.2 - THÉORÈMES FONDAMENTAUX

 

2.2.1 - Probabilités composées : Pr(E1 et E2) ou Pr(E1 U E2) ou Pr(E1,E2).

* Pr(E1 et E2) probabilité pour que E1 et E2 soient réalisées (probabilité composée).
i) Si E1 et E2 sont indépendants :

Pr(E1 et E2) = Pr(E1,E2) = Pr(E1) x Pr(E2)

ii) Si E1 et E2 sont dépendants :

Pr(E1et E2) = Pr(E1) x Pr(E2/E1) = Pr(E2) x Pr(E1/E2)

2.2.2 - Probabilités totales : Pr(E1 ou E2)

i) Si E1 et E2 sont incompatibles (ne peuvent être réalisés "en même temps" (donc Pr(E1 et E2) = 0 ):

Pr(E1ou E2) = Pr(E1) + Pr(E2)

ii) Si E1 et E2 sont compatibles (peuvent se réaliser en même temps):

Pr(E1ou E2) = Pr(E1) + Pr(E2) + Pr(E1,E2)

Remarque : Pr(E1 ou E2) = 1 - Pr (E1 et E2).

2.3 - RAPPELS D'ANALYSE COMBINATOIRE

 

2.3.1 - Combinaisons de n objets groupés p à p

Cnp =n! / p! (n - p)!

2.3.2 - Arrangements de n objets, nombre de suites différentes de p objets

Anp= n!/(n-p)! ( attention , l'ordre compte !)

2.3.3 - Permutations de n objets ; nombre de suites différentes de ces n objets (l'ordre ne compte pas).

Pn = Cnn = n!

2.4 - LES DISTRIBUTIONS USUELLES

 

Distributions de probabilités théoriques de variables continues ou discrètes.

2.4.1 - Distribution binomiale : Bi (n,p)

* Définition :
- on considère des épreuves à deux alternatives, aboutissant à la réalisation, ou la non réalisation, d'un événement E.

- p est la probabilité de réalisation de E et q = (1 - p) la probabilité de non réalisation.

- variable aléatoire discrète X.

- on définit la probabilité de X réalisations de l'événement E en n expériences? ( X entier appartenant à l'intervalle fermé (0, n) :

P(X) = Cnx px qn-x

Loi de distribution binomiale.

REMARQUE : les différentes valeurs de P(X) pour X = 0, .., n sont les termes du "développement du binôme " : (p + q)n = pn + Cn1 pn-1 q + Cn2 pn-2 q2 + .+ Cnj pn-j qj +.... Les Cnj sont appelés coefficients binomiaux.

* Propriétés

centrage -------------------> moyenne = np

dispersion ---------> variance = s2 = n.p.q

RAPPEL : on connaît ici le nombre total n d'événements, ce qui n'est pas le cas pour la distribution de Poisson .

2.4.2 - Distribution de GAUSS Carl Friedrich GAUSS (1777-1855), grand physicien, mathématicien et astronome allemand.ou "NORMALE" :N( m ,s)

* Définition :
- variable continue X

- valeur moyenne : m ; écart type : s

Y(X) = exp(-(X-m)2/2s2) / (2p)1/2 s

Distribution normale ou "Gaussienne".

- on introduit la variable réduite centrée : Z = (X-m)/s

- d'où la nouvelle "distribution normale centrée":

Y ( Z ) = exp(-Z2/2) / (2p)1/2

Distribution normale réduite centrée.
- on a toujours : -µ Y(X) dX = 1 = -µ Y(Z) dZ

* Propriétés

centrage ----------------------> moyenne = m

dispersion --------------------> variance = s2

* REMARQUES

i) Changer X en ( X - m ) a centré la distribution sur 0, elle est symétrique.

ii) Changer ( X - m ) en ( X- m )/s a réduit l'échelle sur l'axe des abscisses ; son écart type est maintenant égal à 1.

iii) Des tables donnent : Y(Z) , P(Z) et F(Z)  telles que : P(Z) = -Z+Z Y(Z') dZ' et F(Z) = -µZ Y(Z') dZ'

Fonction de répartition.

iv) Table succincte de Y(Z) et P(Z) :

Z

0,000

1,000

2,000

3,000

µ

Y(Z)

0,399

0,242

0,054

0,004

0,000

P(Z)

0,000

0,682

0,954

0,997

1,000

La probabilité de trouver Z :
- entre (-1 et +1) est de 68,2 % ,

- entre (-2 et +2) est de 95,4 % ,

- entre (-3 et +3) est de 99,7 % ;

à l'inverse, la probabilité d'avoir Z extérieur à [-1,+1] est de 31,8 % , extérieur à Z [-2,+2] de 4,6 % et extérieur à Z [-3,+3]  de 0,3 %.

iv) Considérons k échantillons de n éléments issus de la population N normale (m,s).

 Chaque échantillon i a pour moyenne et écart type : Xi et s . L'ensemble des Xi a une répartition normale :

* de moyenne : moy(Xi) = m = moy(X)

* d'écart-type : var(Xi) = s2 / n = var(X) / n

v) Si X appartient à la distribution normale N(m,s) alors aX appartient à la distribution normale : N (am,as) ;  si différentes variables Xi, Yi, Zi appartiennent à des distributions normales, alors la variable (Xi + Yi + Zi) appartient à la distribution normale : N( mX+ mY+ mZ ; (sX2sY2+ sZ2 )1/2 )

2.4.3 - Distribution de Poisson Siméon Denis POISSON (1781-1840), mathématicien, géomètre et physicien français ayant eu une contribution importante en mathématiques et physique. Po (l)

* Distribution à un seul paramètre l , relative à une variable discrète.

P(X) = lX e-l / X!

Distribution de Poisson.

* Propriétés :

centrage ----------------------> moyenne = l

dispersion --------------> écart-type : s = l1/2

-  P(X) ne dépend que du seul paramètre l.

-  La loi de Poisson ne s'applique qu'à une seule alternative et avec une probabilité de réalisation faible (p << 1) ; on a alors l = Np. On notera également que le nombre total d'épreuves n'est pas connu et ceci contrairement à la distribution binomiale.

2.4.4 - Distribution exponentielle (Loi de Laplace)Pierre-Simon de LAPLACE. (1749-1827), mathématicien, astronome et physicien français qui a apporté des contributions fondamentales en mathématiques, astronomie et théorie des probabilités.

* variable X continue : 0 < X < + µ

* Définition :

- un seul paramètre l ( moyenne = 1 / l).

- elle caractérise des processus temporels sans mémoire.

Distrubution exponentielle.

P(X) = e-lX

* Propriétés

centrage---------------> moyenne = 1 / l

dispersion--------------> écart-type = 1 / l

2.4.5 - Distribution uniforme.

* variable X continue : -µ < X < + µ

* Définition :

- un seul paramètre A (inverse de la moyenne).

  • f(X) = 1/2A pour -A < X < + A
  • f(X) = 0 ailleurs

* Propriétés

centrage---------------> moyenne = 0

dispersion--------------> v(X) = A2/3

2.4.5 - Distribution en U.

* variable X continue : -µ < X < + µ

* Définition :

- un seul paramètre A

  • f(X) = (1/2pA) /(1-X2/A2)1/2 pour -A < X < + A
  • f(X) = 0 ailleurs
Distribution en U.

* Propriétés

centrage---------------> moyenne = 0

dispersion--------------> v(X) = A2/2

2.4.7 - Remarques. Relations entre distributions.

 i) N grand et X variable discrète :

 Loi binomiale --------------> Loi de Gauss

Bi(N, p)---------------->N(l , l1/2) ; (l =Np)

Loi binomiale ------------------> Loi de Poisson

Bi(N, p) ---------------->Po (Np)

ii) l croît indéfiniment :

Loi de Poisson ------------------------> Loi de Gauss 

Po (l) ----------->N(l , l1/2)