Terminale S - 2019 / 2020 P 3 – cours Page 1 0) Ecart-type Rappelons (ou découvrons) ce qu'est un écart-type. En statistique il existe deux sortes d'indicateurs : les indicateurs de position, et ceux de dispersion. Les indicateurs de position fournissent une valeur censée représenter, résumer, la série toute entière en une seule valeur "positionnée à un endroit stratégique". Parmi ceux-ci, vous connaissez évidemment la moyenne qui est "la valeur qu'auraient toutes les valeurs de la série statistique si elles étaient égales" (oui oui c'est ça, la définition d'une moyenne, réfléchissez…) ou la médiane qui est "une valeur centrale, telle qu'autant de valeurs de la série lui sont supérieures qu'inférieures". Il existe également le mode qui est "la valeur d'effectif maximal". Par exemple si les sept notes d'un élèves (dans l'ordre croissant) lors d'un trimestre sont 7 – 10 – 10 – 14 – 15 – 16 – 19 alors la moyenne est évidemment 7+10+10+14+15+16+19 7 = 13 et effectivement, c'est bien la note qu'aurait eue l'élève si ses sept notes avaient été identiques… tandis que la médiane est 14 puisqu'il y a bien trois notes inférieures à 14 et trois notes supérieures à 14. Enfin le mode est 10 puisque c'est la note qui a été obtenue le plus grand nombre de fois. Les indicateurs de dispersion sont complémentaires des précédents. Ils expriment de quelle façon, dans quelle proportion, les valeurs de la série statistique s'écartent les unes des autres (se dispersent) ou au contraire sont proches entre elles (se resserrent). Il y a l'étendue ou amplitude (écart maximal dans la série, autrement dit entre la valeur la plus petite et la valeur la plus grande) et l'écart-type, que l'on va voir. Dans l'exemple précédent l'étendue est 19-7 = 12. Pour parler de l'écart-type il faut réfléchir à des exemples pertinents qui en montrent l'utilité. Imaginons un deuxième élève, que nous appellerons Jean-Eudes (et pourquoi pas ?) dont les six notes (il a été absent à un devoir) ont été : 10 – 10 – 10 – 10 – 10 – 10. Nous sommes d'accord pour dire que sa moyenne est … (on calcule, allez, vite…) 10 ! Son voisin, Calisthème (mais si, ça existe) quant à lui, a obtenu ce trimestre : 0 – 20 – 0 – 20 – 0 – 20. Sa moyenne est … la même, ok ! Leur amie, Mairande, a pour notes : 0 – 10 – 10 – 10 – 10 – 20, et donc pour moyenne… encore la même. Pensez-vous pour autant que leur prof va rédiger la même remarque dans leurs bulletins ? Bien sûr que non… la moyenne n'est pas un indicateur suffisant
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Terminale S − 2019 / 2020 P3 – cours
Page 1
0) Ecart-type
Rappelons (ou découvrons) ce qu'est un écart-type.
En statistique il existe deux sortes d'indicateurs : les indicateurs de position, et ceux de dispersion.
Les indicateurs de position fournissent une valeur censée représenter, résumer, la série toute entière
en une seule valeur "positionnée à un endroit stratégique".
Parmi ceux-ci, vous connaissez évidemment la moyenne qui est "la valeur qu'auraient toutes les
valeurs de la série statistique si elles étaient égales" (oui oui c'est ça, la définition d'une moyenne,
réfléchissez…) ou la médiane qui est "une valeur centrale, telle qu'autant de valeurs de la série lui
sont supérieures qu'inférieures". Il existe également le mode qui est "la valeur d'effectif maximal".
Par exemple si les sept notes d'un élèves (dans l'ordre croissant) lors d'un trimestre sont 7 – 10 – 10
– 14 – 15 – 16 – 19 alors la moyenne est évidemment 7+10+10+14+15+16+19
7 = 13 et
effectivement, c'est bien la note qu'aurait eue l'élève si ses sept notes avaient été identiques… tandis
que la médiane est 14 puisqu'il y a bien trois notes inférieures à 14 et trois notes supérieures à 14.
Enfin le mode est 10 puisque c'est la note qui a été obtenue le plus grand nombre de fois.
Les indicateurs de dispersion sont complémentaires des précédents. Ils expriment de quelle façon,
dans quelle proportion, les valeurs de la série statistique s'écartent les unes des autres (se dispersent)
ou au contraire sont proches entre elles (se resserrent).
Il y a l'étendue ou amplitude (écart maximal dans la série, autrement dit entre la valeur la plus petite
et la valeur la plus grande) et l'écart-type, que l'on va voir.
Dans l'exemple précédent l'étendue est 19−7 = 12.
Pour parler de l'écart-type il faut réfléchir à des exemples pertinents qui en montrent l'utilité.
Imaginons un deuxième élève, que nous appellerons Jean-Eudes (et pourquoi pas ?) dont les six
notes (il a été absent à un devoir) ont été : 10 – 10 – 10 – 10 – 10 – 10.
Nous sommes d'accord pour dire que sa moyenne est … (on calcule, allez, vite…) 10 !
Son voisin, Calisthème (mais si, ça existe) quant à lui, a obtenu ce trimestre : 0 – 20 – 0 – 20 – 0 –
20.
Sa moyenne est … la même, ok !
Leur amie, Mairande, a pour notes : 0 – 10 – 10 – 10 – 10 – 20, et donc pour moyenne… encore la
même.
Pensez-vous pour autant que leur prof va rédiger la même remarque dans leurs bulletins ? Bien sûr
que non… la moyenne n'est pas un indicateur suffisant
Page 2
Comment les différencier ?
On voit bien que ce sont les écarts, donc ce qu'on appelle la dispersion, qui distingue les trois amis.
Essayons avec l'étendue.
Celle de Jean-Eudes est nulle : 10−10 = 0 !
Celle de Calisthème est maximale : 20−0 = 20.
On peut se dire que cet indicateur suffit, en l'associant à la moyenne, à caractériser la série.
Pourtant, Mairande a elle aussi pour étendue 20−0 = 20.
Mais son profil n'est pas du tout le même que Calisthème : lui est systématiquement dans les
extrêmes, alors qu'elle a été très régulière, comme Jean-Eudes, avec un accident et un coup d'éclat
qui s'annulent.
Il faut donc autre chose.
Puisque la moyenne est la même pour eux trois, à savoir 10, observons la façon dont les six notes se
dispersent autour de la cette moyenne.
Pour Jean-Eudes c'est simple : chaque note EST la moyenne ! Donc l'écart entre les notes et leur
moyenne est six fois le même : 0.
Ainsi, l'écart moyen entre les notes et leur moyenne vaut 0.
Pour Calisthème, c'est l'extrême inverse.
Quand il obtient 0, sa note est à 10 points (vers le bas) de la moyenne qui est à 10.
Quand il obtient 20, sa note est à 10 points (vers le haut) de la moyenne qui est à 10.
Donc en fait, chacune des six notes est située à un écart de 10 points de la moyenne qui est 10.
Ainsi, là aussi, l'écart moyen entre les notes et leur moyenne vaut 10.
Cet "écart moyen entre les valeurs de la série et leur moyenne" est, à peu de choses près, ce qu'on
appelle l'écart-type.
En pratique, c'est un tout petit peu différent même si ça revient presque au même :
L'écart-type d'une série statistique est la racine carrée de la moyenne des carrés des écarts entre les
valeurs de la série et leur moyenne.
Le fait de prendre les carrés puis ensuite la racine carrée annule en partie l'élévation au carré;
pourquoi le fait-on ? Pour des raisons totalement hors programme et qui ne doivent pas vous
préoccuper pour le moment.
En tout cas ça fonctionne.
Pour Jean-Eudes on commence par calculer la moyenne des carrés des écarts à la moyenne :
(10−10)
2+(10−10)2+(10−10)
2+(10−10)2+(10−10)
2+(10−10)2
6 = 0 : c'est ce qu'on appelle la
variance de la série statistique.
Ensuite, l'écart-type est donc la racine carrée de la variance : 0 = 0 !
Page 3
Pour Calisthème, la variance vaut (0−10)
2+(20−10)2+(0−10)
2+(20−10)2+(0−10)
2+(20−10)2
6
= 100+100+100+100+100+100
6 = 100 et l'écart-type vaut bien 100 = 10.
Calculons celui de Mairande.
Sa variance est (0−10)
2+(10−10)2+(10−10)
2+(10−10)2+(10−10)
2+(20−10)2
6
= 100+0+0+0+0+100
6 =
200
6 =
100
3 et donc son écart-type est
100
3 =
10
3
� 5,8.
Voilà donc un bon indicateur de dispersion :
• Chez Jean-Eudes, les notes sont en moyenne à 0 pt de leur moyenne qui vaut 10
• Chez Calisthème, les notes sont en moyenne à 10 pts de leur moyenne qui vaut 10
• Chez Mairande, les notes sont en moyenne à 5,8 pts de leur moyenne qui vaut 10
Intéressons-nous maintenant à la façon dont la moyenne et l'écart-type subissent (ou non) les
variations à l'intérieur des séries statistiques.
On se place désormais du côté du prof, un certain Monsieur C.
A la fin du trimestre, il constate que la moyenne de la classe est de 10 et que son écart-type est de 4.
Comme Monsieur C. est le plus gentil de tous les professeurs de la terre, il décide d'augmenter les
notes de chaque élève.
Il a deux possibilités pour mettre en pratique l'immensité de sa bienveillance.
• Premièrement, il va au plus simple, et augmente chaque élève d'un point.
Que deviennent la moyenne et l'écart-type de la classe ?
Il est à peu près évident que la moyenne augmente elle-aussi d'un point.
En effet, la moyenne étant "la note qu'auraient obtenue chaque élève s'ils avaient tous eu la
même note", on voit bien qu'ajouter 1 à toutes les notes, ajoute au final 1 à la moyenne des notes.
Celle-ci passe donc à 11.
Mais l'écart-type ?
L'élève qui avait 8, était à un écart de 2pts de la moyenne de 10.
Après l'intervention de Dieu, pardon de Monsieur C., cet élève a désormais 9 pour une moyenne
de classe de 11… donc il est toujours à 2 points de la moyenne.
Ainsi les écarts ne bougent pas : l'écart-type n'est pas sensible aux additions d'une même valeur,
ajoutée à chaque terme de la série statistique. Dans le cas de la classe de Monsieur C, il reste à 4.
Si on change de vocabulaire et qu'on passe à celui des probabilités, une série statistique est
simplement l'ensemble des valeurs d'une variable aléatoire X, la moyenne s'appelle alors
espérance et se note E(X) , tandis qu'on note usuellement σ(X) l'écart-type.
On vient d'expliquer la propriété suivante :
Si X est une variable aléatoire et que b est un nombre réel quelconque, alors :
E(X+b) = E(X)+b et σ(X+b) = σ(X)
En français dans le texte : si on augmente les valeurs d'une série X de b, alors la moyenne augmente
également de b, mais l'écart-type reste inchangé.
Page 4
• Deuxième possibilité, il décide de récompenser davantage les élèves plus méritants en les
augmentant "au pourcentage de la note initiale".
Il décide donc d'augmenter chaque élève de 10%.
Cela revient à multiplier toutes les notes par 1,1 !
L'élève qui avait 2 passe à …2,2.
Mais l'élève qui avait 15 passe à 16,5 !
C'est évidemment discutable mais ce n'est pas le propos.
Là aussi, on s'intéresse à ce que deviennent moyenne et écart-type.
La moyenne de 10 signifie que si tous les élèves avaient la même note, ils auraient 10, mais dans
ce cas chaque élève serait relevé de 10% donc d'1 point et chaque nouvelle note serait de 11 de
sorte que la nouvelle moyenne est elle-aussi passée à 11.
Donc comme dans la première méthode, la moyenne a été sensible, a suivi, l'opération effectuée
sur la série : elle-aussi a été augmentée de 10%.
Mais l'écart-type ?
Cette fois-ci les écarts changent.
En effet l'élève passé de 2 (écart de 8 à la moyenne 10) à 2,2 (écart de 8,8 à la moyenne 11) a vu
son écart augmenter de 8 à 8,8 c’est-à-dire … de 10 %.
L'élève passé de 15 (écart de 5) à 16,5 (écart de 5,5) a lui-aussi vu son écart augmenter de 10% !
Ainsi, les écarts augmentent dans les mêmes proportions que les notes : si celles-ci sont
multipliées par 1,1, alors les écarts entre les notes et leur moyenne, donc l'écart-type, également.
Le nouvel écart-type de la classe de Monsieur C. est donc désormais de 1,1×4 = 4,4 pour une
moyenne de 11.
En prenant le vocabulaire probabiliste :
Si X est une variable aléatoire et que a est un nombre réel strictement positif, alors :
E(aX) = aE(X) et σ(aX) = aσ(X)
En français dans le texte : si on multiplie les valeurs d'une série X par a > 0, alors la moyenne et
l'écart-type sont également multipliés par a.
On peut résumer ces deux propriétés en une seule, appelée le théorème de la transformation affine
d'une variable aléatoire :
Soit X une variable aléatoire.
Soit a un nombre réel strictement positif, et b un nombre réel quelconque.
On fait subir à X une transformation affine en posant Y = aX+b .
Alors on obtient les résultats suivants :
E(Y) = aE(X)+b
σ(Y) = aσ(X)
Nous allons être amenés à utiliser ce théorème.
Page 5
1) Introduction
La loi normale est le résultat d'une question simple (bon, ok, on ne se la pose pas tous les jours au
petit-déjeuner…) : que se passe-t-il si, dans une loi binomiale de paramètres n et p, le paramètre n
(le nombre de répétitions de l'expérience aléatoire) devient grand ? Voire même, tend vers l'infini ?
Essayons de contextualiser cette question ô combien existentielle…
Si on joue à pile ou face avec une pièce, nous sommes dans le cas typique d'une loi binomiale.
Disons qu'on parie sur "pile".
On note p la probabilité que la pièce tombe sur pile (p = 0,5 si la pièce est équilibrée, p > 0,5 si elle
est truquée en faveur de pile, p < 0,5 si elle est truquée en faveur de face).
On note n le nombre de fois qu'on décide de lancer la pièce.
On note X la variable aléatoire égale au nombre de fois que la pièce retombera sur pile parmi les n
lancers.
Alors X suit la loi binomiale de paramètres n et p (on la note B(n;p)).
Voilà ce que cela donne si on lance une pièce équilibrée (p = 0,5) quarante fois (n = 40) :
Les abscisses représentent les valeurs possibles de X : de 0 (si la pièce retombe à chaque lancer sur
face) à 40 (si elle retombe à chaque lancer sur pile) et les ordonnées sont la probabilité de chacune
de ses valeurs, calculée avec la formule que l'on connait.
Page 6
Par exemple P(X=15) =
40
15×p15×(1−p)
25 = 40225345056×0,515×0,525 � 0,037.
Si on monte à quatre-vingt lancers (n = 80) voilà le nouveau diagramme des valeurs de X :
Et si on lance la pièce cent fois cela devient:
Que remarque-t-on ?
Page 7
Que les diagrammes suivent un même mouvement : une montée assez tardive vers un maximum
d'où ils redescendent de façon symétrique par rapport à la montée.
Réfléchissons à ces constats.
• Les valeurs basses de X (de 0 à 10 sur le premier schéma, de 0 à 25 sur le second, de 0 à 35 sur le
troisième) sont très peu probables, de même que les valeurs hautes (de 30 à 40 sur le premier, de
55 à 80 sur le second, de 65 à 100 sur le troisième, sachant que la valeur maximale est la valeur n
elle-même).
C'est compréhensible.
Si on lance quarante fois la pièce, on conçoit volontiers qu'il est très improbable qu'elle retombe
quasi systématiquement du même côté (X = 1 signifierait 1 fois pile et 39 fois face, alors
qu'inversement X = 38 signifierait 38 fois pile et 2 fois face).
On dit que les valeurs extrêmes sont négligeables.
• Il y a une probabilité maximale dans chaque situation.
A quoi correspond-elle ?
Souvenons-nous que l'espérance d'une variable aléatoire "binomiale" est donnée par E(X) = np .
Dans le premier cas de figure, E(X) = 40×0,5 = 20 : c'est bien cette valeur qui a la probabilité
maximale.
Dans le deuxième cas, E(X) = 80×0,5 = 40 : là aussi, c'est sur cette valeur de X que le maximum
est atteint.
Dans le troisième cas, E(X) = 100×0,5 = 50… même constat.
Donc la valeur de X qui a la plus grande probabilité est son espérance. Quoi de plus logique ? La
valeur moyenne est en effet celle qui est la plus "représentative" d'une série statistique. La pièce
étant équilibrée, si on la lance cent fois, intuitivement, on sent bien que "50 fois pile et 50 fois
face" est une situation tout à fait crédible, bien davantage que "0 fois pile et 100 fois face" ou "3
fois pile et 97 fois face".
• La distribution des probabilités est symétrique par rapport à l'espérance.
En effet, là aussi c'est assez intuitif. Pour une pièce équilibrée qu'on lance 50 fois, tomber 10 fois
sur pile est exactement la même chose que tomber 10 fois sur face, puisque pile et face ont la
même probabilité.
Essayons maintenant des situations où la pièce n'est pas équilibrée : p � 0,5.
Commençons par un cas de figure où elle est légèrement en faveur de pile, en prenant p = 0,6.
On la lance quarante fois (n = 40).
Les valeurs de X vont donc de 0 (0 fois pile 40 fois face) à 40 (l'inverse).
Son espérance est E(X) = np = 40×0,6 = 24.
On constate (schéma page suivante) que les propriétés constatées précédemment demeurent
observables.
Le maximum est bien atteint pour la valeur de X égale à son espérance, 24, ce que l'on a mis en
évidence sur le diagramme.
La symétrie se fait toujours par rapport à la valeur maximale.
Et enfin les valeurs extrêmes restent négligeables (même si la pièce est truquée en tombant 60% des
fois sur pile, on imagine bien que sur quarante lancers, tomber systématiquement sur pile reste très
peu probable).
Page 8
Prenons maintenant une pièce truquée pour tomber 80% du temps sur face (autrement dit p = 0,2) et
lançons-la quarante fois (n = 40). On a E(X) = 40×0,2 = 8.
Page 9
Puis lançons-la désormais cent fois (n = 100, E(X) = 100×0,2 = 20).
Et enfin lançons-la deux cents fois (n = 200, E(X) = 200×0,2 = 40).
Page 10
Dans tous les cas de figure, le même constat s'impose.
Si X suit une loi B(n;p) alors :
• Les valeurs extrêmes de X sont négligeables (de probabilités proches de 0) ;
• La probabilité maximale est celle de la valeur de X égale à E(X) = np ;
• La distribution des probabilités pour l'ensemble des valeurs de X allant de 0 à n est symétrique
par rapport à l'espérance E(X).
Intéressons-nous plus précisément au cas où n = 200.
Le nombre de valeurs possibles de X est alors de 201 (de X = 0 à X = 200).
Prenons un cas avec n = 400 et p = 0,1. Il y a alors 401 valeurs possibles pour X.
Pour les grandes valeurs de n, il y a de très nombreuses valeurs possibles pour X (puisque le nombre
total de valeurs possibles de X est n+1 : de 0 à n).
Si n devait devenir vraiment très grand (tendre vers l'infini), la variable X prendrait alors une
quantité elle-même infinie de valeurs… et cesserait d'être une variable aléatoire discrète.
Le problème est que pour de grandes valeurs de n, les histogrammes vont courir le long de l'axe des
abscisses et les probabilités devenir très faibles (car réparties sur une quantité gigantesque de
valeurs possibles) donc imperceptibles.
L'idée est alors de réaliser une transformation affine de X afin de la normaliser, c’est-à-dire de la
forcer à se confronter à une norme de façon à ce que tous les cas de figures envisagés (selon n et p)
puissent facilement être comparés.
On va donc retrancher à X son espérance (ce qui, d'après le théorème de la transformation affine,
donnera une espérance nulle à la nouvelle variable aléatoire) et la diviser par son écart-type (ce qui,
toujours selon le même théorème, donnera un écart-type égal à 1 à la nouvelle variables aléatoire).
Page 11
On pose donc Y = X−E(X)
σ(X) =
X−np
np(1−p)
.
On a normalisé la variable X en lui imposant une espérance fixe (0) et un écart-type fixe (1).
Y est appelée une version de X centrée et réduite : E(Y) = 0 (centrée) et σ(Y) = 1 (réduite).
Sur le schéma suivant, les histogrammes bleus sont ceux uniquement centrés, et les verts
correspondent à Y.
Même chose mais avec p = 400 et p = 0,25 : les histogrammes correspondant à X ont disparu du
schéma (trop à droite) mais ceux de Y en vert semble analogues aux précédents.
Page 12
Augmentons encore n en prenant n = 700 :
puis n = 1000 :
Plus n est grand plus les histogrammes sont nombreux (car de plus en plus de valeurs possibles pour
X et donc pour Y) et plus on quitte le domaine des probabilités discrètes : les sommets des
histogrammes commencent à dessiner une sorte de courbe continue… celle d'une densité !
Page 13
Cette variable Y en vert, qui ne change visiblement pas quelles que soit les valeurs données à n et p,
possède donc, pour les valeurs élevées de n, une densité que l'on peut représenter en rouge :
Nous venons de faire apparaître la loi normale centrée réduite.
Cette loi est donc "ce que devient une loi binomiale qui a été centrée et réduite quand n devient très
grand".
De façon plus rigoureuse, elle est le passage au continu d'une variable aléatoire binomiale centrée
réduite quand n tend vers +õ .
Page 14
2) Lois normales
a) Loi normale centrée réduite
Notre introduction est récapitulée dans le :
Théorème de Moivre – Laplace
Soit une variable aléatoire X suivant une loi binomiale de paramètres n et p.
On a donc E(X) = np et σ(X) = np(1−p) .
Soit une variable aléatoire Yn = X−E(X)
σ(X) =
X−np
np(1−p)
.
Alors pour les grandes valeurs de n, la variable Yn peut être approximée par une variable aléatoire
continue dont la densité est f(t) = 1
2π
e-
t2
2
.
Autrement dit lim n−>+õ
P( )aÂYnÂb =
a
b
1
2π
e-
t2
2
dt
La loi continue ainsi définie est appelée loi normale centrée réduite, ou loi normale de paramètres 0
et 1 et on la note N(0;1).
Remarques
• La première chose qui frappe c'est ce 1
2π
dont on ne voit absolument pas ce qu'il fait là.
On a bien compris que la fonction f(t) = 1
2π
e-
t2
2
a une courbe en cloche (appelée courbe de
Gauss) compatible avec les propriétés attendues du passage au continu des histogrammes centrés
et réduits de la loi binomiale :
Page 15
En effet cette courbe est symétrique par rapport à l'axe des ordonnées (car f est paire), elle atteint
bien son maximum en 0 et les valeurs extrêmes sont négligeables, ce qui se traduit par les
asymptotes horizontales que sont l'axe des abscisses en –õ et +õ , car les deux limites de f y
sont nulles.
Le coefficient 1
2π
est simplement le nombre qui fait "vraiment" de f une densité.
f est évidemment continue et positive (c'est une exponentielle…) dont il faut encore, pour
achever le travail, que l'aire sous la courbe soit égale à 1.
Or il se trouve qu'on peut démontrer (mais il vous faudra attendre au moins trois ans pour y
parvenir) que :
-õ
+õe-
t2
2
dt = 2π
Ainsi, par linéarité, en divisant par 2π , on trouve bien :
-õ
+õf(t)dt =
-õ
+õ
1
2π
e-
t2
2
dt = 1
• Ensuite, intéressons-nous aux notations.
La loi normale centrée réduite se note donc N(0 ; 1).
Ces deux paramètres correspondent à l'espérance (0) et à l'écart-type (1) de la loi normale issue
du "centrage – réduction" de la loi binomiale.
Elles en sont donc la conséquence : on a fait en sorte, dans la construction de l'introduction, d'en
arriver là.
D'ailleurs un calcul permet de le vérifier :
0
xtf(t)dt =
1
2π
0
x
te-
t2
2
dt = 1
2π
−e
- t2
2
0
x
= 1
2π
( 1−e-
x2
2
).
Donc lim x−>+õ
0
x tf(t)dt =
1
2π
.
De même, - x
0tf(t)dt =
1
2π
−e
- t2
2
- x
0
= 1
2π
(-1+e-
x2
2
).
Donc lim x−>+õ
- x
0tf(t)dt = -
1
2π
.
Ainsi, l'espérance de N(0 ; 1) est :
-õ
+õtf(t)dt
= lim x−>+õ
- x
xtf(t)dt
= lim x−>+õ
- x
0tf(t)dt+
0
x tf(t)dt
= lim x−>+õ
- x
0tf(t)dt + lim
x−>+õ
0
x tf(t)dt
= 1
2π
− 1
2π
= 0.
Page 16
• D'un point de vue pratique, si on note désormais X une variable aléatoire de loi N(0 ; 1), alors :
P(aÂXÂb) =
a
b
1
2π
e-
t2
2
dt (principe de la densité).
Utilisation de la calculatrice
Bien évidemment, il est impossible de calculer
a
b
1
2π
e-
t2
2
dt "à la main" (je vous mets au défi de
trouver une primitive…) donc les calculs ne se feront qu'avec la calculatrice.
Cherchons par exemple la probabilité que X soit entre 0 et 2 : P(-2ÂXÂ-1).
On appuie sur la touche "2nde
" puis "distrib" (derrière la touche "var").
Cet écran apparait :
On choisit la commande 2 : normalFRép(
Ce nouvel écran apparait :
lower désignera toujours la borne du bas (-2 dans cet exemple).
upper désignera toujours la borne du haut (-1 dans cet exemple).
µ désigne le paramètre µ (la moyenne) donc 0 pour X dans cet exemple.
σ désgne le paramètre σ (l'écart-type) donc 1 pour X dans cet exemple.
Page 17
On remplit donc en conséquence de la probabilité cherchée, ici toujours P(2ÂXÂ-1) :
On clique sur "paste" pour "coller" la demande sous cette forme :
On valide :
Et ainsi, pour X suivant N(0 ; 1), on a : P(-2ÂXÂ-1) � 0,1359.
Dans ce qui suit, cette manipulation sera notée, comme elle apparait finalement à l'écran, sous la
forme normalFRép(-2,-1,0,1).
Pour une probabilité non pas d'un intervalle mais seulement d'une inégalité, on utilise le fait que les
valeurs extrêmes sont négligeables.
Par exemple on assimile P(XÃ1,5) à P( )1,5ÂXÂ109 puisque au-delà de 109 les valeurs sont
devenues négligeables. Ainsi on tape P(XÃ1,5) = normalFRép(1.5,109,0,1) � 0,00908.
De même P(XÂ0,5) = normalFRép(-109,1.5,0,1) � 0,69146.
Page 18
Bilan
On dit qu’une variable aléatoire suit une loi normale de paramètres N(0 ; 1) si sa densité est la
fonction f définie sur � par f( t) = 1
2π
e-
t2
2
.
La loi normale centrée réduite N(0 ; 1) correspond à des distributions de fréquences (donc de
probabilités) symétriques par rapport à leur moyenne nulle et d’écart type 1.
D’autre part si une variable aléatoire X suit une loi binomiale de paramètres (n ; p) et donc
d’espérance µ = np et d’écart-type σ = np(1−p) , on pose Y = X−µσ
.
Alors E(Y) = E(X)−µ
σ = 0 et σ(Y) =
1
σ σ = 1.
On peut démontrer (théorème de Moivre – Laplace) que pour les grandes valeurs de n (c'est-à-dire
si n tend vers +õ) Y suit une loi normale centrée réduite.
Exemple
Une usine fabrique des caisses de 20000 composants électroniques.
La probabilité qu’un composant soit défectueux est estimée à 0,08.
On note X le nombre de composants défectueux dans la caisse.
On cherche une estimation de P(XÂ1500).
On suppose le nombre de composants dans la caisse suffisamment grand pour que le fait qu'ils
soient ou non défectueux soit des événements indépendants.
Dans ces conditions, X suit une loi binomiale de paramètres n = 20000 et p = 0,08.
E(X) = np = 1600 et σ(X) = np(1−p) = 1472 .
n étant suffisamment grand, d’après le théorème de Moivre-Laplace, la variable Y = X−1600