Variabili aleatorie Matematica con elementi di Informatica Tiziano Vargiolu Dipartimento di Matematica [email protected]Corso di Laurea Magistrale in Chimica e Tecnologie Farmaceutiche Anno Accademico 2018/19 Variabili aleatorie Anno Accademico 2018/19 1 / 36
36
Embed
Matematica con elementi di Informaticavargiolu/MatCTF/CTFVariabiliAleatorie.pdf · de nito l’evento fw 2W jX(w) 2Ig= fX 2Ig E possibile anche de nire variabili aleatorie a partire
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Corso di Laurea Magistrale in Chimica e Tecnologie Farmaceutiche
Anno Accademico 2018/19
Variabili aleatorie Anno Accademico 2018/19 1 / 36
Variabili aleatorie
Una variabile aleatoria e semplicemente una funzione X : Ω→ E , che aseconda del verificarsi dei possibili risultati ω ∈ Ω assume valori diversinell’insieme E .Esempio: lancio di un dado. Supponiamo di vincere 10 Euro se esce 6, 2Euro se esce 5 e 0 altrimenti. Come modellizzare questo?Iniziamo dicendo che un modello sensato per l’esperimento aleatorio eporre Ω = 1, 2, . . . , 6 con la probabilita uniforme P (tale chePω = 1/6 per ogni ω ∈ Ω).Allora possiamo definire due variabili aleatorie ”significative”:
la variabile aleatoria ”risultato del lancio” puo essere definita come
X (ω) := ω ∀ω ∈ Ω (E = Ω)
la variabile aleatoria ”vincita” puo essere definita come
Y (ω) =
10 se ω = 6 (o X = 6),2 se ω = 5 (o X = 5),0 se ω = 1, 2, 3 o 4 (o X ∈ 1, 2, 3, 4)
(E = 0, 2, 10)
Variabili aleatorie Anno Accademico 2018/19 2 / 36
Esempio: variabili aleatorie gaussiane
Esempio: misura di una altezza.Supponiamo di voler misurare l’altezza X di un individuo, e che quindi Xsia la nostra variabile aleatoria. Come costruiamo tutto?Spazio campionario: Ω = R (se vogliamo essere sofisticati, Ω = R+)Probabilita: P tale che, per ogni intervallo I ⊆ R di estremi−∞ ≤ a < b ≤ +∞, si abbia
P(I ) =∫ b
a
1√2πσ2
e−12(x−µ)2
σ2 dx
Anche qui, possiamo porre X (ω) = ω, e quindi
PX ∈ I =∫ b
a
1√2πσ2
e−12(x−µ)2
σ2 dx
Diciamo allora che X ha legge gaussiana o normale N(µ, σ2).
Variabili aleatorie Anno Accademico 2018/19 3 / 36
Operazioni tra variabili aleatorie
Una variabile aleatoria X puo essere chiamata, a seconda dello spazio diarrivo E :
reale se E ⊆ R;
complessa se E ⊆ C;
discreta se E e discreto (cioe finito o numerabile).
Queste definizioni non si autoescludono: le variabili aleatorie X e Y delprimo esempio sono reali discrete.Invece le gaussiane sono reali ma NON discrete (E = R).Le operazioni tra variabili aleatorie sono quelle che si possono fare traelementi degli insiemi di arrivo (e il risultato e ancora una variabilealeatoria).Ad esempio, nel caso di variabili aleatorie reali, sono possibili tutte leoperazioni possibili tra numeri reali (quattro operazioni, elevamento apotenza, esponenziali e logaritmi, funzioni trigonometriche, ecc.)
Variabili aleatorie Anno Accademico 2018/19 4 / 36
Operazioni tra eventi e variabili aleatorie
Tramite le variabili aleatorie e possibile descrivere eventi.Esempio: se X e una variabile aleatoria reale, per ogni I ⊆ R rimanedefinito l’evento
ω ∈ Ω | X (ω) ∈ I = X ∈ I
E possibile anche definire variabili aleatorie a partire da eventi.L’esempio tipico e quello della funzione indicatrice di un evento A:
1A =
1 se si verifica A,0 se non si verifica A,
Quindi, la funzione indicatrice e una variabile aleatoria discreta a valori inE = 0, 1.
Variabili aleatorie Anno Accademico 2018/19 5 / 36
Distribuzione di una variabile aleatoria
Per ogni valore x che la variabile aleatoria X puo assumere, si puoconsiderare la probabilita dell’evento X = x.Possiamo quindi considerare la distribuzione di X .Esempio: lancio di un dado.
PX = 10 = P6 = 1
6,
PX = 2 = P5 = 1
6,
PX = 0 = P1, 2, 3, 4 = 4
6=
2
3
Piu in generale, se una variabile aleatoria X assume valori in E , possiamoconsiderare PX ∈ A per ogni A ⊆ E .Esempio:
PX 6= 0 = PX ∈ 2, 10 = 2
6=
1
3
Variabili aleatorie Anno Accademico 2018/19 6 / 36
Distribuzione di una variabile aleatoria
Se una variabile aleatoria X assume valori in E , un risultato fondamentalee che la distribuzione di X definisce una probabilita su E
PX (A) = PX ∈ A ∀A ⊆ E
Per indicare che la variabile aleatoria X ha distribuzione PX , si usa lascrittura X ∼ PX .Esempio: possiamo considerare X ∼ N(µ, σ2), che significa (come giavisto) che per ogni intervallo I ⊆ R di estremi a < b abbiamo
PX ∈ I =∫ b
a
1√2πσ2
e−12(x−µ)2
σ2 dx
Notiamo che, a differenza della costruzione presentata inizialmente, quinon abbiamo bisogno di specificare lo spazio campionario.
Variabili aleatorie Anno Accademico 2018/19 7 / 36
Variabile aleatoria di Bernoulli
Un esempio significativo di variabile aleatoria e la seguente. Sia dato unevento A, con P(A) = p ∈ (0, 1), e consideriamo la funzione indicatrice diA:
X = 1A =
1 se si verifica A,0 se non si verifica A,
Ovviamente X assume valori su E = 0, 1.Se vogliamo interessarci solo alla sua distribuzione, abbiamo
PX (∅) = PX ∈ ∅ = 0,
PX (0) = PX = 0 = P(Ac) = 1− p,
PX (1) = PX = 1 = P(A) = p,
PX (E ) = PX ∈ E = 1,
Una variabile aleatoria di questo tipo (cioe a valori in E = 0, 1) vienechiamata variabile aleatoria di Bernoulli di parametro p, in simboliX ∼ Be(p) (ricordiamo: p = PX = 1).
Variabili aleatorie Anno Accademico 2018/19 8 / 36
Variabili aleatorie discrete e continue
Se X e una variabile aleatoria discreta, allora e possibile calcolarePX ∈ A, con A finito o complementare di insieme finito, a partire daivalori PX = x:
PX ∈ A = ∑x∈A
PX = x
C’e un’altra importante classe di variabili aleatorie, che sono le variabilialeatorie continue.Una variabile aleatoria reale X si dice continua di densita fX se, per ogniintervallo I ⊆ R di estremi a < b, si ha
PX ∈ I =∫ b
af (x) dx
Esempio: variabili aleatorie gaussiane.In generale, se due variabili aleatorie X e Y hanno la stessa distribuzione,si dicono identicamente distribuite (i.d.)
Variabili aleatorie Anno Accademico 2018/19 9 / 36
Funzione di ripartizione di una variabile aleatoria
Abbiamo visto che variabili aleatorie discrete e continue hannodistribuzioni (o leggi) individuate da somme piuttosto che da integrali.C’e pero un concetto che unifica questi due tipi di calcolo, che e quello difunzione di ripartizione.Data una variabile aleatoria reale X , la sua funzione di ripartizioneFX : R→ [0, 1] e definita da
FX (t) = PX ≤ t ∀t ∈ R
Quindi: per variabili aleatorie discrete si ha
FX (t) = ∑x≤t
PX = x
e per variabili aleatorie continue si ha
FX (t) =∫ t
−∞fX (x) dx
Variabili aleatorie Anno Accademico 2018/19 10 / 36
Uso della funzione di ripartizione
Tramite la funzione di ripartizione si possono eseguire la maggior parte deicalcoli di probabilita su variabili aleatorie. Ad esempio:
Pa < X ≤ b = P(X ≤ b \ X ≤ a) == PX ≤ b −PX ≤ a = FX (b)− FX (a)
Variabili aleatorie Anno Accademico 2018/19 11 / 36
Esempi di funzione di ripartizione
Esempio: variabile aleatoria di Bernoulli. Se X ∼ Be(p), allora
FX (t) =
0 se t < 0,1− p se 0 ≤ t < 1,1 se t ≥ 1,
Esempio: variabile aleatoria continua. Se X e continua di densita f , alloraper ogni intervallo I di estremi a < b (cioe I = (a, b), (a, b], [a, b), [a, b])si ha
PX ∈ I =∫ b
af (x) dx = FX (b)− FX (a)
Questo e molto utile sulle variabili aleatorie gaussiane: siccome la densitagaussiana non ammette primitiva, i calcoli si possono fare tramite laconoscenza di FX (tavole della gaussiana).
Variabili aleatorie Anno Accademico 2018/19 12 / 36
Variabili aleatorie gaussiane
Tramite le funzioni di ripartizione, e molto facile vedere che tutte levariabili aleatorie gaussiane (e di conseguenza i relativi calcoli) si possonoricondurre ad una normale N(0, 1) (standard).
Difatti, se X ∼ N(µ, σ2), e definiamo Y = X−µσ , allora Y ∼ N(0, 1). Per
vedere questo, basta calcolare la sua funzione di ripartizione:
FY (t) = PY ≤ t = PX ≤ µ + σt =∫ µ+σt
−∞
1√2πσ2
e−12(x−µ)2
σ2 dx =
=∫ t
−∞
1√2π
e−12 y
2dy
dove abbiamo fatto il cambio di variable dentro l’integrale y = x−µσ .
Questo significa anche che possiamo rappresentare ogni X ∼ N(µ, σ)come X = σY + µ con Y ∼ N(0, 1).Di conseguenza. . . basta conoscere (i.e. tabulare) la legge N(0, 1) perottenere tutte le probabilita gaussiane!
Variabili aleatorie Anno Accademico 2018/19 13 / 36
Tavole della funzione di ripartizione FZ per Z ∼ N(0, 1)
Variabili aleatorie Anno Accademico 2018/19 14 / 36
Simmetria delle variabili aleatorie gaussiane
Una variabile aleatoria reale X si dice simmetrica se X e −X sono i.d.Proposizione. Per ogni σ > 0, la variabile aleatoria X ∼ N(0, σ2) esimmetrica.Dimostrazione. Per ogni t ∈ R abbiamo
F−X (t) = P−X ≤ t = PX ≥ −t =∫ +∞
−t
1√2πσ2
e−12x2
σ2 dx
Facendo il cambio di variabile y = −x otteniamo
F−X (t) =∫ t
−∞
1√2πσ2
e−12y2
σ2 dy = FX (t)
Esempio. Se X ∼ N(1, 2), calcolare P0 < X < 2.Per risolvere il problema, poniamo Z = X−1√
2. Allora
P0 < X < 2 = P
−1√
2<
X − 1√2
<2− 1√
2
= FZ
(1√2
)− FZ
(−1√
2
)=
= FZ
(1√2
)− 1 + FZ
(1√2
)= 0.522
Variabili aleatorie Anno Accademico 2018/19 15 / 36
Variabili aleatorie indipendenti
Ricordiamo che due eventi A e B si dicono indipendenti se
P(A∩ B) = P(A)P(B)
Due variabili aleatorie X e Y si dicono indipendenti se ogni coppia dieventi esprimibile tramite queste sono indipendenti.In dettaglio, se X assume valori in E ed Y assume valori in F , allora sidicono indipendenti se, per ogni A ⊆ E , B ⊆ F si ha
PX ∈ A,Y ∈ B = PX ∈ APY ∈ B
L’idea e sempre che, anche se si possiedono informazioni su una delle duevariabili aleatorie, questo non modifichi in alcun modo la distribuzionedell’altra.
Variabili aleatorie Anno Accademico 2018/19 16 / 36
Variabili aleatorie indipendenti: caso generale
Il concetto di indipendenza si puo estendere a piu di due variabili aleatoriein questo modo: le variabili aleatorie X1, X2, . . . , Xn, a valoririspettivamente in E1, E2, . . . , En, si dicono indipendenti se per ogniscelta di Ai ⊆ Ei , i = 1, . . . , n,
P
(n⋂
i=1
Xi ∈ Ai)
=n
∏i=1
PXi ∈ Ai
Se le variabili aleatorie (Xi )i oltre ad essere indipendenti, sono anche i.d.(e quindi Ei ≡ E ), allora si usa la dicitura indipendenti e identicamentedistribuite (i.i.d.)
Variabili aleatorie Anno Accademico 2018/19 17 / 36
Variabili aleatorie binomiali
Consideriamo una famiglia di variabili aleatorie (Xi )i , i = 1, . . . , n i.i.d., dilegge Xi ∼ Be(p), con p ∈ (0, 1).Interpretazione: vogliamo ”contare” n eventi aleatori indipendenti tra loroe ”simili”, o meglio ugualmente probabili.Ha senso chiedersi quanti di questi eventi si verificanocontemporaneamente. Questo numero e dato da
Sn =n
∑i=1
Xi
Che legge ha Sn?Sn assume valori su E = 0, 1, . . . , n. La sua legge e quindi determinataunivocamente dalle quantita PSn = k. Per k = 0 e k = n e facile:
PSn = 0 = PXi = 0 ∀i = 1, . . . , n =n
∏i=1
PXi = 0 = (1− p)n,
PSn = n = PXi = 1 ∀i = 1, . . . , n =n
∏i=1
PXi = 1 = pn
Variabili aleatorie Anno Accademico 2018/19 18 / 36
Distribuzione binomiale
Per k 6= 0, n, le cose sono piu complicate.Ad esempio, gia per k = 1, abbiamo un piccolo ragionamento da fare:
PSn = 1 = P∃i : Xi = 1,Xj = 0 ∀j 6= i == P (∪ni=1Xi = 1,Xj = 0 ∀j 6= i) =
=n
∑i=1
PXi = 1,Xj = 0 ∀j 6= i =n
∑i=1
p(1− p)n−1 =
= np(1− p)n−1
dove la somma e giustificata dal fatto che l’unione sopra e disgiunta.Ugualmente, per k = n− 1, con lo stesso ragionamento si arriva a:
PSn = n− 1 = n(1− p)pn−1
Per il caso generale, serve sapere la soluzione al seguente problemamatematico classico: quanti sottoinsiemi diversi di k elementi si possonoestrarre da un insieme di n elementi?
Variabili aleatorie Anno Accademico 2018/19 19 / 36
Distribuzione binomiale: caso generale
Risposta: coefficiente binomiale:(n
k
)=
n!k !(n− k)!
Per il caso generale, k variabili su n saranno uguali a 1 e n− k uguali a 0:
PSn = k = P(∪A⊆1,...,n,|A|=kXi = 1 ∀i ∈ A,Xj = 0 ∀j /∈ A
)=
= ∑A⊆1,...,n,|A|=k
PXi = 1 ∀i ∈ A,Xj = 0 ∀j /∈ A =
= ∑A⊆1,...,n,|A|=k
pk(1− p)n−k =
(n
k
)pk(1− p)n−k
Ovviamente, per k = 0, 1, n− 1, n, si riottengono i casi visti prima.Una variabile aleatoria con la legge sopra si chiama binomiale di parametrin e p, in simboli Sn ∼ B(n, p).
Variabili aleatorie Anno Accademico 2018/19 20 / 36
Speranza (valor medio) di una variabile aleatoria
Una volta che conosciamo la distribuzione di X , possiamo calcolarne lamedia (valor medio, speranza matematica).Se X e discreta, allora
E[X ] = ∑x∈E
x ·PX = x
Se la somma e infinita: serie!Esempio: lancio di un dado.
E[X ] = 10 · 1
6+ 2 · 1
6+ 0 · 2
3=
12
6= 2
o anche
E[X ] = 10 ·P6+ 2 ·P5+ 0 ·P1, 2, 3, 4 = 2
Variabili aleatorie Anno Accademico 2018/19 21 / 36
Speranza matematica: esempi notevoli
Se X ∼ Be(p), allora
E[X ] = 1 ·PX = 1+ 0 ·PX = 0 = 1 · p = p
Se X ∼ B(n, p), allora
E[X ] =n
∑k=0
kPX = k =n
∑k=0
k
(n
k
)pk(1− p)n−k = . . .???
Possono essere utili alcune proprieta della speranza matematica!
Variabili aleatorie Anno Accademico 2018/19 22 / 36
Proprieta della speranza
Se X e Y sono variabili aleatorie reali che ammettono speranza finita,allora:
1 se X ≥ Y , allora E[X ] ≥ E[Y ] (monotonia);
2 se X ≡ c ∈ R, allora E[X ] = c ;
3 se a, b ∈ R, allora E[aX + bY ] = aE[X ] + bE[Y ] (linearita);
4 se X e Y sono i.d., allora E[X ] = E[Y ].
Esempio di applicazione: se X ∼ B(n, p), allora X ha la stessa legge diSn = ∑n
i=1 Xi , con (Xi )i i.i.d. di legge Be(p). Allora
E[X ] = E[Sn] = E
[n
∑i=1
Xi
]=
n
∑i=1
E[Xi ] =n
∑i=1
p = np
Variabili aleatorie Anno Accademico 2018/19 23 / 36
Speranza di una variabile aleatoria continua
Se X e una variabile aleatoria continua di densita f , allora la speranza edefinita da
E[X ] =∫
xf (x) dx
Dobbiamo pero controllare che l’integrale sia ben definito! Questo succedesicuramente se e verificata la condizione sufficiente∫
|x |f (x) dx < +∞
Variabili aleatorie Anno Accademico 2018/19 24 / 36
Speranza di variabili aleatorie gaussiane
Esempio: se X ∼ N(0, 1), allora
∫|x | 1√
2πe−
12 x
2dx = 2
∫ +∞
0x
1√2π
e−12 x
2dx = 2
[− 1√
2πe−
12 x
2
]+∞
0
=
=2√2π
< +∞
e quindi possiamo calcolare
E[X ] =∫
x1√2π
e−12 x
2dx =
[− 1√
2πe−
12 x
2
]+∞
−∞= 0
Esempio: se X ∼ N(µ, σ2), allora usiamo la rappresentazioneX = σY + µ, con Y ∼ N(0, 1), e abbiamo
E[X ] = E[σY + µ] = σE[Y ] + µ = µ
Variabili aleatorie Anno Accademico 2018/19 25 / 36
Formula della speranza di una variabile aleatoria composta
Se X e una variabile aleatoria discreta a valori in E , e g : E → R, comepossiamo calcolare E[g(X )]?
E[g(X )] = ∑x∈E
g(x)PX = x
Difatti g(X ) e ancora una variabile aleatoria discreta, a valori nell’insiemeg(E ). Allora
E[g(X )] = ∑y∈g (E )
yPg(X ) = y
Ma abbiamo g(X ) = y = X ∈ Ay, conAy = g−1(y) = x ∈ E | g(x) = y. Ma allora
E[g(X )] = ∑y∈g (E )
yPX ∈ Ay = ∑y∈g (E )
∑x∈Ay
g(x)PX = x =
= ∑x∈E
g(x)PX = x
Variabili aleatorie Anno Accademico 2018/19 26 / 36
Formula della speranza di una variabile aleatoria composta
Nel caso di una variabile aleatoria X continua di densita f , abbiamo
E[g(X )] =∫
g(x)f (x) dx
Le formule sopra sono vere ogniqualvolta il secondo membro nella formulaper E[g(X )] da un risultato ben definito.
Variabili aleatorie Anno Accademico 2018/19 27 / 36
Varianza di una variabile aleatoria
Consideriamo, nella formula precedente, il caso g(x) = (x −E[X ])2.Allora possiamo definire
Var[X ] = E[(X −E[X ])2](= E[X 2]−E[X ]2)
Abbiamo quindi sempre Var[X ] ≥ 0, e potrebbe verificarsi Var[X ] = +∞.In questo caso, diciamo che X non ammette varianza finita.Esempio. Se X ∼ Be(p), con p ∈ (0, 1), allora
La covarianza misura il grado di ”comonotonia” di due variabili aleatorie:se Cov(X ,Y ) > 0, significa che quando X > E[X ] anche Y > E[Y ].Le variabili aleatorie X e Y si dicono:
positivamente correlate se Cov(X ,Y ) > 0;
negativamente correlate se Cov(X ,Y ) < 0;
non correlate o scorrelate se Cov(X ,Y ) = 0.
Si puo dimostrare che, se X e Y sono indipendenti, allora sono scorrelate.Il viceversa non e vero in generale!
Variabili aleatorie Anno Accademico 2018/19 30 / 36
Varianza di una somma
Ovviamente, applicando la definizione abbiamo Cov(X ,X ) = Var[X ].Se X e Y ammettono varianza finita, anche X +Y la ammette, e abbiamo
Var[X + Y ] = Var[X ] + Var[Y ] + 2Cov(X ,Y )
In particolare, se X e Y sono indipendenti, abbiamo
Var[X + Y ] = Var[X ] + Var[Y ]
Variabili aleatorie Anno Accademico 2018/19 31 / 36
Esempi notevoli
Esempio. Se X ∼ B(n, p), allora X ha la stessa legge di Sn = ∑ni=1 Xi ,
con (Xi )i i.i.d. di legge Be(p). Allora
Var[X ] = Var[Sn] =n
∑i=1
Var[Xi ] = np(1− p)
Esempio: se X ∼ N(µ, σ2), allora usiamo la rappresentazioneX = σY + µ, con Y ∼ N(0, 1), e abbiamo
Y ) sono indipendenti,allora X + Y ∼ N(µX + µY , σ2
X + σ2Y ).
Dimostrazione. La parte difficile (che non faremo) e dimostrare cheX + Y e gaussiana. Una volta fatto questo, i suoi parametri seguono dalleproprieta additive di media e varianza.
Variabili aleatorie Anno Accademico 2018/19 32 / 36
Teoremi limite
Vediamo ora due teoremi molto utili in Statistica, che riguardano ilcomportamento di successioni di variabili aleatorie reali (Xn)n≥1.Diciamo che la successione (Xn)n converge in probabilita alla variabile
aleatoria X (in simboli, XnP→ X ) se, per ogni δ > 0, si ha
limn→∞
P|Xn − X | > δ = 0
Diciamo che la successione (Xn)n converge in legge, o in distribuzione
alla variabile aleatoria X (in simboli, Xnlegge→ X ) se, dette FXn e FX le
funzioni di ripartizione di Xn e X , si ha
limn→∞
FXn(t) = FX (t)
in ogni punto in cui FX e continua.Attenzione: per quest’ultima convergenza, possiamo anche sostituire Xcon la sua distribuzione! Si puo quindi dire, se ad esempio X ∼ N(0, 1),
che Xnlegge→ N(0, 1).
Variabili aleatorie Anno Accademico 2018/19 33 / 36
Legge dei grandi numeri
Supponiamo che (Xn)n sia una successione di variabili aleatorie reali i.i.d. Idue teoremi limite seguenti riguardano il comportamento della loro sommaparziale
Sn =n
∑i=1
Xi
quando n→ ∞.Legge dei grandi numeri. Se le (Xn)n sono i.i.d., ciascuna con mediaE[Xn] = µ, allora Sn/n converge in probabilita a µ:
1
nSn =
Snn
=1
n
n
∑i=1
XiP→ µ
Variabili aleatorie Anno Accademico 2018/19 34 / 36
Teorema limite centrale
Teorema limite centrale. Se le (Xn)n sono i.i.d., ciascuna con mediaE[Xn] = µ e varianza Var[Xn] = σ2, e definiamo
S∗n =Sn − nµ
σ√n
allora S∗n converge in legge ad una N(0, 1):
S∗n =Sn − nµ
σ√n
legge→ N(0, 1)
Applicazione: approssimazione normale. Se dobbiamo calcolare unaprobabilita del tipo PSn ≤ t, allora per ”n grande” abbiamo
PSn ≤ t = P
Sn − nµ
σ√n≤ t − nµ
σ√n
= FS∗n
(t − nµ
σ√n
)' FZ
(t − nµ
σ√n
)dove Z e una generica variabile aleatoria di legge N(0, 1).
Variabili aleatorie Anno Accademico 2018/19 35 / 36
Esempio con variabili aleatorie di Bernoulli
Consideriamo (Xn)n i.i.d. di legge Be(p).Allora µ = E[Xi ] = p e σ =
√Var[Xi ] =
√p(1− p).
La frase “n grande” in questo caso consiste nelle condizioni np > 5 en(1− p) > 5: se queste due condizioni sono verificate, allora valel’approssimazione normale:
PSn ≤ t ' FZ
(t − nµ
σ√n
)= FZ
(t − np√np(1− p)
)Esempio. Supponiamo di avere n = 25 variabili aleatorie Xi ∼ Be(1/2) edi voler calcolare PSn ≤ 15.Innanzitutto abbiamo np = n(1− p) = 25 · 12 = 12.5 > 5.Quindi, per quanto visto prima, il risultato si puo approssimare con
PS25 ≤ 15 ' FZ
15− 25 · 12√25 · 12 ·
12
= FZ (1) = 0.841
Il calcolo esatto darebbe PS25 ≤ 15 ' 0.885.Variabili aleatorie Anno Accademico 2018/19 36 / 36