Corso di Alta Formazione in Finanza Matematica Teoria della probabilit` a e calcolo stocastico applicati alla finanza. Docente: Andrea Pascucci Contenuti: il corso intende fornire gli strumenti matematico-probabilistici e le nozioni basilari per potere comprendere il settore della moderna finanza matematica che si occupa degli strumenti derivati. Indicazioni bibliografiche: per quanto riguarda una presentazione self-contained di teoria della misura e integrazione astratta, si veda l’appendice in [3]. Per quanto riguarda una presentazione degli elementi di teoria della probabilit`a si pu`o consultare, in ordine crescente di difficolt`a, [1], [7], [11], [5], [9], [10], [8]. Per quanto riguarda la valutazione di derivati si vedano [1] e [7], il secondo anche per l’implementazione di metodi numerici. 1
72
Embed
Teoria Della Probabilita e Calcolo Stocastico Per La Finanza(Pascucci)
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Corso di Alta Formazione in
Finanza Matematica
Teoria della probabilita e calcolo stocastico applicati
alla finanza.
Docente: Andrea Pascucci
Contenuti: il corso intende fornire gli strumenti matematico-probabilistici e le
nozioni basilari per potere comprendere il settore della moderna finanza matematica
che si occupa degli strumenti derivati.
Indicazioni bibliografiche: per quanto riguarda una presentazione self-contained
di teoria della misura e integrazione astratta, si veda l’appendice in [3]. Per quanto
riguarda una presentazione degli elementi di teoria della probabilita si puo consultare,
in ordine crescente di difficolta, [1], [7], [11], [5], [9], [10], [8]. Per quanto riguarda la
valutazione di derivati si vedano [1] e [7], il secondo anche per l’implementazione di
4.8 Volatilita implicita e generalizzazioni del modello di Black&Scholes . . 65
4.9 Opzioni asiatiche e modelli con dipendenza dal passato . . . . . . . . . 65
Indice analitico 69
Capitolo 1
Elementi di teoria della probabilita
1.1 Spazi di probabilita
Nel seguito Ω indica un insieme non vuoto e P(Ω) l’insieme delle parti di Ω ossia la
famiglia di tutti i sottoinsiemi di Ω.
Definizione 1.1 (σ-algebra). Una famiglia F di sottinsiemi di Ω, F ⊆ P(Ω), si dice
σ-algebra se:
1. ∅ ∈ F ;
2. se A ∈ F allora Ac ≡ (Ω \ A) ∈ F ;
3. data una successione (An)n∈N di elementi di F si ha che∞⋃
n=1
An ∈ F .
Dato A ⊆ P, si pone
σ(A) =⋂F⊇A
F σ−algebra
F ,
ossia σ(A) e l’intersezione di tutte le σ-algebre contenenti A. Non e difficile verificare
(esercizio!) che l’intersezione di σ-algebre e ancora una σ-algebra. Si ha quindi che
σ(A) e la piu piccola σ-algebra contenente A ed e detta σ-algebra generata da A.
Esempio 1.2 (σ-algebra di Borel). Si indica con B(RN) la σ-algebra generata dalla
topologia euclidea di RN , ossia
B(RN) = σ(A | A aperto di RN).
5
6 Elementi di teoria della probabilita
Ove non ci sara confusione scriveremo semplicemente B = B(RN). Si puo provare che
B(R) = σ( ]a, b[ | a, b ∈ Q, a < b),e un analogo risultato vale in dimensione maggiore di uno.
Definizione 1.3 (Misura di probabilita). Data una σ-algebra F su Ω, si dice misura
di probabilita un’applicazione P : F → [0, 1] tale che:
1. P (∅) = 0;
2. per ogni successione (An)n∈N di elementi di F a due a due disgiunti vale
P
( ⋃n≥1
An
)=
∑n≥1
P (An);
3. P (Ω) = 1.
Definizione 1.4 (Spazio di probabilita). Una terna (Ω,F , P ) con F σ-algebra su Ω e
P misura di probabilita su F , si dice spazio di probabilita.
L’insieme Ω e detto spazio campione o spazio dei risultati: si puo pensare ad
ogni elemento ω di Ω come al risultato di un esperimento o allo stato di un fenomeno,
per esempio la posizione di una particella nello spazio o il prezzo di un titolo. Nel
seguito, gli elementi B di F verranno chiamati eventi e P (B) sara chiamata probabilita
dell’evento B. In particolare, un evento E ∈ F si dice impossibile (rispettivamente,
certo) se P (E) = 0 (P (E) = 1).
Per esempio, se Ω = R+ e lo spazio campione che rappresenta l’insieme dei possibili
prezzi di una particolare azione, allora P (]a, b[) rappresenta la probabilita che il prezzo
sia maggiore di a e minore di b.
Definizione 1.5. Una misura di probabilita definita su (RN ,B) e detta distribuzione.
Il prossimo esempio mostra come sia relativamente facile costruire una distribuzione
a partire dalla misura di Lebesgue.
Esempio 1.6. Sia f : R→ R una funzione misurabile (ossia tale che f−1(H) ∈ B per
ogni H ∈ B), f ≥ 0 e tale che∫R f(x)dx = 1. Posto
P (H) =
∫
H
f(x)dx, H ∈ B, (1.1)
si puo provare che, in base alle proprieta dell’integrale di Lebesgue, P e una distribu-
zione. In questo caso f si dice densita di P rispetto alla misura di Lebesgue.
1.1 Spazi di probabilita 7
Esempio 1.7 (Distribuzione uniforme). Dati a, b ∈ R con a < b, si dice distribuzione
uniforme su [a, b] la distribuzione con densita
f(x) =1
b− aχ[a,b](x), x ∈ R. (1.2)
In (1.2), χA indica la funzione caratteristica dell’insieme A definita da
χA(x) =
1, x ∈ A,
0, x /∈ A.
In questo caso, per ogni H ∈ B, P (H) = 1b−a
m(H ∩ [a, b]), con m(H) misura di
Lebesgue di H. Intuitivamente, P distribuisce uniformemente su [a, b] la probabilita
che la “particella” (o il prezzo di un titolo) si trovi in [a, b]; e invece impossibile che la
particella sia fuori da [a, b].
Si noti che per una distribuzione P della forma (1.1), con densita f , vale necessa-
riamente che
m(H) = 0 =⇒ P (H) = 0. (1.3)
La (1.6) si esprime dicendo che P e assolutamente continua rispetto alla misura di
Lebesgue.
Non tutte le distribuzioni sono del tipo (1.1) ossia non tutte le distribuzioni hanno
densita rispetto alla misura di Lebesgue. Per esempio, dato x0 ∈ RN , si consideri la
distribuzione Delta di Dirac definita da
δx0(H) =
1, x0 ∈ H,
0, x0 /∈ H,
per H ∈ B. Intuitivamente, con tale distribuzione si rappresenta la certezza di trovare
la particella nella posizione x0. Chiaramente la distribuzione Delta di Dirac δx0 non ha
densita rispetto a m, giacche non si annulla se valutata nell’evento x0 che ha misura
di Lebesgue nulla, contraddicendo la (1.3).
Vediamo altri esempi di distribuzioni definite specificando la loro densita rispetto
alla misura di Lebesgue m.
Esempio 1.8 (Distribuzione esponenziale). Dato λ > 0, la distribuzione con densita
fλ(x) = λe−λxχR+
(x), x ∈ R,
8 Elementi di teoria della probabilita
si dice distribuzione esponenziale (di parametro λ). In figura e rappresentato il grafico
di fλ corrispondente a λ = 1.
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 1 2 3 4 5 6
exponential distribution
Esempio 1.9 (Distribuzione di Cauchy). La distribuzione con densita
f(x) =1
π
1
1 + x2, x ∈ R,
si dice distribuzione di Cauchy.
Esempio 1.10 (Distribuzione normale reale). Siano dati µ ∈ R e σ > 0. La distribu-
zione con densita f(x) = Γ(x− µ, σ2) dove
Γ(x, t) =1√2πt
exp
(−x2
2t
), x ∈ R, t > 0, (1.4)
si dice distribuzione normale o di Gauss in R. Ricordiamo che Γ e la soluzione
fondamentale dell’operatore del calore 12∂xx − ∂t in R2.
Notazione: denotiamo Nµ,σ2 la distribuzione normale:
Nµ,σ2(H) =
∫
H
1
σ√
2πexp
(−(x− µ)2
2σ2
)dx
=
∫
RχH(x)
1
σ√
2πexp
(−(x− µ)2
2σ2
)dx, H ∈ B.
Poniamo anche Nµ,σ2 = δµ per σ = 0.
Per esercizio, verificare che le funzioni degli esempi precedenti sono densita nel senso
che hanno integrale su R pari a 1.
1.2 Variabili aleatorie
Sia (Ω,F , P ) uno spazio di probabilita.
1.2 Variabili aleatorie 9
Definizione 1.11 (Variabile aleatoria). Si dice variabile aleatoria (v.a.) una fun-
zione X, da Ω a valori in RN , misurabile ossia
X : Ω → RN t.c. X−1(H) ∈ F ∀H ∈ B.
Se N = 1 si parla di v.a. reale.
Data una v.a. X, si definisce PX : B → [0, 1] ponendo
PX(H) = P (X−1(H)), H ∈ B.
Si verifica (esercizio) che PX e una distribuzione detta distribuzione (o legge) di X.
Notazione: essendo X−1(H) = ω ∈ Ω | X(ω) ∈ H, si usa scrivere P (X ∈ H)
per indicare P (X−1(H)). Dunque
PX(H) = P (X ∈ H),
indica la “probabilita che la v.a. X appartenga ad H ∈ B”.
Notazione: per indicare che una v.a. X ha distribuzione PX scriveremo X ∼ PX .
Esempio 1.12. Consideriamo l’esempio classico del lancio di due dadi. In questo caso
Ω = (m,n) ∈ N × N | 1 ≤ m,n ≤ 6, F = P(Ω) e la misura P e definita da
P ((m,n)) = 136
per ogni (m,n) ∈ Ω. Definiamo su questo insieme la v.a. X(m,n) =
m + n. Allora
PX(7) = P (X = 7) = P (X−1(7)) =6
36,
poiche 6 sono le combinazioni di lanci con cui posso ottenere 7 rispetto ai 36 lanci
possibili. Analogamente abbiamo:
P (3 ≤ X < 6) = P(X−1 ([3, 6[)
)=
2 + 3 + 4
36=
1
4
Definizione 1.13 (Funzione di distribuzione). Sia X una v.a. reale su (Ω,F , P ). La
funzione ϕX : R→ [0, 1] definita da
ϕX(y) = P (X ≤ y) = P(X−1 ( ]−∞, y])
)
e detta funzione di distribuzione di X.
10 Elementi di teoria della probabilita
Osserviamo che diverse v.a. (anche definite su spazi di probabilita distinti) possono
avere la stessa distribuzione. Un esempio banale e il seguente: per esercizio provare che
una v.a. X definita sullo spazio di probabilita (Ω,F , P ) ha la stessa distribuzione PX
della v.a. identita id, id(y) = y, definita su (R,B, PX). Per esercizio provare anche che
se A,B ∈ F hanno la stessa probabilita P (A) = P (B), allora le v.a. χA e χB hanno la
stessa distribuzione.
Tuttavia, per le applicazioni che ci interesseranno, vedremo che ci sara sostanzial-
mente sufficiente conoscere la distribuzione di una v.a. X piuttosto che conoscere
esplicitamente X e lo spazio di probabilita su cui e definita.
Uno dei concetti fondamentali associati a una v.a. X e quello di valore atteso (o
media) definito come una media dei valori assunti da X. Per introdurre questa nozione,
occorre dare una definizione di integrale di X rispetto alla misura di probabilita P :
∫
Ω
XdP. (1.5)
La costruzione dell’integrale in (1.5) e analoga a quella dell’integrale di Lebesgue su
RN e ne diamo un breve cenno in modo schematico:
[I passo] si comincia col definire l’integrale di v.a. reali semplici. Ricordiamo che
una v.a. X : Ω → R si dice semplice se la cardinalita di X(Ω) e finita, ossia
X(Ω) = α1, . . . , αn.
In tal caso, posto Ak = X−1(αk) ∈ F per k = 1, . . . , n, vale
X =n∑
k=1
αkχAk(1.6)
ossia X e una combinazione lineare di funzioni caratteristiche. Volendo che∫Ω
χAdP =
P (A) per A ∈ F e che l’integrale sia un funzionale lineare, e ragionevole definire per
X in (1.6) ∫
Ω
XdP =n∑
k=1
αkP (Ak). (1.7)
[II passo] consideriamo ora una v.a. reale non-negativa ossia tale che X(ω) ≥ 0 per
ogni ω ∈ Ω e poniamo
∫
Ω
XdP = sup
∫
Ω
Y dP | Y v.a. semplice, 0 ≤ Y ≤ X
.
1.2 Variabili aleatorie 11
In generale sara∫Ω
XdP ≤ +∞ ossia non e detto che l’integrale di X converga. Questa
definizione puo ricordare quella di integrale di Riemann, se pensiamo che il concetto
v.a. semplice generalizza quello di funzione a scala o costante a tratti in R.
[III passo] consideriamo una v.a. reale X. Poniamo X+ = max0, X e X− =
max0,−X cosicche X+ e X− sono entrambe v.a. non-negative e vale X = X+−X−.
Se almeno uno fra∫Ω
X+dP e∫
ΩX−dP (definiti nel passo II) e finito, si dice che X e
P -integrabile e definiamo∫
Ω
XdP =
∫
Ω
X+dP −∫
Ω
X−dP.
In generale∫Ω
XdP puo essere finito o infinito (±∞). Se entrambi∫Ω
X+dP e∫Ω
X−dP
sono finiti, si dice che X e P -sommabile e si scrive X ∈ L1(Ω, P ); in questo caso∫
Ω
|X|dP =
∫
Ω
X+dP +
∫
Ω
X−dP < ∞.
[IV passo] infine se X : Ω → RN e una v.a. e X = (X1, . . . , XN), poniamo∫
Ω
XdP =
(∫
Ω
X1dP, . . . ,
∫
Ω
XNdP
).
Con questa definizione di integrale, si puo provare che tutti i risultati principali
della teoria dell’integrazione di Lebesgue su RN continuano a valere, in particolare
valgono i teoremi di passaggio al limite sotto al segno di integrale (di Beppo Levi e
della convergenza dominata di Lebesgue).
Notazione: nel seguito, se vorremo mettere in evidenza la variabile di integrazione,
useremo anche la notazione∫
Ω
XdP =
∫
Ω
X(ω)P (dω).
Per esempio, nel caso della misura di Lebesgue m, scriveremo indifferentemente∫
RN
f(x)dx =
∫
RN
f dm =
∫
RN
f(x)m(dx).
Possiamo ora dare la seguente
Definizione 1.14. Data una v.a. X : Ω → RN sommabile, il vettore di RN
E(X) ≡∫
Ω
XdP
si dice valore atteso di X.
12 Elementi di teoria della probabilita
Osserviamo che il valore atteso corrisponde alla media dei valori assunti da una
v.a., e non al valore piu probabile. Infatti se questi ad esempio coincidono nel caso
della distribuzione normale e invece evidente che per la distribuzione uniforme oppure
per la distribuzione bimodale questo non e vero:
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
1.1
-4 -3 -2 -1 0 1 2 3 4
Bimodal distribution
Si pone immediatamente il problema di come in pratica calcolare il valore atteso
di una data v.a. X. Il seguente teorema da una soluzione e nel contempo chiarisce
anche il fatto che E(X) dipende solo dalla distribuzione di X.
Teorema 1.15. Siano X : Ω → RN una v.a sullo spazio di probabilita (Ω,F , P ) e
g : RN → Rn una funzione misurabile. Allora
g X ∈ L1(Ω, P ) ⇐⇒ g ∈ L1(R, PX)
e in tal caso vale ∫
Ω
g(X)dP =
∫
RN
g dPX . (1.8)
Dimostrazione. Anzitutto e sufficiente considerare il caso N = n = 1. La dimostrazione
e basata su un metodo standard che in pratica riconduce il problema a considerare solo
il caso in cui g sia una funzione caratteristica. In questo caso, essendo g = χH con
H ∈ B, si ha
∫
Ω
χH(X)dP =
∫
X−1(H)
dP = P (X ∈ H) = PX(H) =
∫
H
dPX =
∫
RχHdPX .
Avendo dimostrato la tesi per le funzioni caratteristiche, dalla linearita dell’integrale
si ha la tesi anche per g semplice e misurabile. Applicando il teorema di Beppo-Levi si
poi ha la tesi anche per g misurabile a valori non negativi. Infine in generale si utilizza
la scomposizione di g in parte positiva e parte negativa e si utilizza ancora una volta
la linearita dell’integrale per concludere la prova.
1.2 Variabili aleatorie 13
Osservazione 1.16. Nel caso in cui la distribuzione di X sia assolutamente continua
rispetto alla misura di Lebesgue e quindi PX sia della forma (1.1) con densita f , allora
la (1.8) diventa ∫
Ω
g(X)dP =
∫
RN
g(x)f(x)dx. (1.9)
Definizione 1.17 (Varianza). Data X v.a. su uno spazio di probabilita (Ω,F , P ), si
definisce varianza di X
var(X) = E[(X − E(X))2]. (1.10)
La varianza fornisce una stima di quanto X si discosta in media dal valore atteso.
Utilizzando il Teorema 1.15, calcoliamo varianza e valore atteso di v.a. che abbiano
una delle distribuzioni introdotte precedentemente.
Esempio 1.18 (Distribuzione uniforme). Sia X una v.a. con distribuzione uniforme
su [a, b]:
X ∼ 1
b− aχ[a,b](y)dy.
Il valore atteso di X vale
E(X) =
∫
Ω
XdP =
∫
RyPX(dy) =
∫
R
y
b− aχ[a,b](y)dy =
a + b
2.
Verificare per esercizio che
var(X) =
∫
Ω
(X − E(X))2dP =
∫
R
(y − a + b
2
)2
PX(dy) =(a− b)2
12.
Esempio 1.19 (Distribuzione di Dirac). Se X ∼ δx0 allora
E(X) =
∫
Ryδx0(dy) =
∫
x0yδx0(dy) = x0 δx0 (x0) = x0,
var(X) =
∫
R(y − x0)
2δx0(dy) = 0.
Esempio 1.20 (Distribuzione esponenziale). Se X ∼ λe−λyχR+
(y)dy, allora
E(X) =
∫ +∞
0
yλe−λydy =1
λ, V ar(X) =
1
λ2.
Osservazione 1.21. Si noti che la funzione g(y) = y non e integrabile rispetto alla
distribuzione di Cauchy e dunque non possiamo parlare di valore atteso di una v.a. con
distribuzione di Cauchy.
14 Elementi di teoria della probabilita
Esempio 1.22 (Distribuzione normale). Se X ∼ Nµ,σ2 allora
E(X) =
∫
RyNµ,σ2(dy) =
∫
R
y
σ√
2πexp
(−(y − µ)2
2σ2
)dy =
(col cambio di variabili z = y−µ
σ√
2)
=1√π
∫
Rze−z2
dz +µ√π
∫
Re−z2
dy = µ.
Inoltre
var(X) =
∫
Ω
(X − µ)2dP =
∫
R
(y − µ)2
σ√
2πexp
(−(y − µ)2
2σ2
)dy =
(col cambio di variabili z = y−µ
σ√
2)
= σ2
∫
R
2z2
√π
e−z2
dz = σ2.
Verificare per esercizio l’ultima uguaglianza, integrando per parti.
Osservazione 1.23. Consideriamo una v.a. X ∼ Nµ,σ2 . Allora, dati α, β ∈ R, si ha
che (αX + β) ∼ Nαµ+β, α2σ2 . Infatti, per il Teorema 1.15, per ogni H ∈ B si ha
P ((αX + β) ∈ H) =
∫
Ω
χH(αX + β)dP =
∫
R
χH(αy + β)√2πσ
e−(y−µ)2/2σ2
dy =
(col cambio di variabili z = αy + β)
=
∫
H
1√2πσα
e−(z−αµ−β)2/2α2σ2
dz = Nαµ+β, α2σ2(H).
In particolareX − µ
σ∼ N0,1
dove N0,1 e detta distribuzione normale standard, e vale
P (X ≤ y) = P
(X − µ
σ≤ y − µ
σ
)= Φ
(y − µ
σ
)(1.11)
dove Φ e la funzione di distribuzione normale standard.
Definizione 1.24. Data X v.a. definiamo σ(X), la σ-algebra generata da X, come la
σ-algebra generata dalle controimmagini mediante X dei Borelliani. Precisamente
σ(X) = σ(X−1(H) | H ∈ B) .
1.3 Indipendenza 15
Ovviamente σ(X) ⊆ F e si puo provare per esercizio che σ(X) = X−1(H) | H ∈B. Nel seguito, specialmente per le applicazioni finanziarie, sara utile pensare ad una
σ-algebra come ad un insieme di informazioni. Per chiarire questa affermazione che
per ora risulta abbastanza incomprensibile facciamo un esempio elementare.
Esempio 1.25. Supponiamo di voler fare un modello per studiare la probabilita che
lanciando un dado il risultato sia un numero pari oppure dispari. Consideriamo Ω =
n ∈ N | 1 ≤ n ≤ 6, F = P(Ω) e la misura P definita da P (n) = 16
per ogni
n ∈ Ω. Consideriamo poi la v.a.
X(n) =
1, se n e pari,
−1, se n e dispari.
Chiaramente
σ(X) = 2, 4, 6, 1, 3, 5, ∅, Ω.In questo caso σ(X) e strettamente contenuta in F . Gli eventi di σ(X) sono quelli di
cui e necessario conoscere la probabilita al fine di sapere il comportamento di X. In
questo senso σ(X) contiene le informazioni su X.
1.3 Indipendenza
Definizione 1.26. Sia dato uno spazio di probabilita (Ω,F , P ) e un evento B con
P (B) > 0. Si definisce misura di probabilita condizionata a B e si indica con P (· | B),
la misura di probabilita su (Ω,F) definita modo seguente
P (A|B) =P (A ∩B)
P (B), A ∈ F .
Provare per esercizio che P (· | B) e una misura di probabilita su (Ω,F). La
probabilita condizionata P (A|B) rappresenta la probabilita dell’evento A ammesso che
sia “avvenuto” l’evento B.
Definizione 1.27. Si dice che due eventi A,B ∈ F sono indipendenti se:
P (A ∩B) = P (A)P (B). (1.12)
Osservazione 1.28. Nel caso in cui P (B) > 0, (1.12) equivale a P (A|B) = P (A) ossia
la probabilita dell’evento A e indipendente dal fatto che B sia accaduto o meno.
16 Elementi di teoria della probabilita
Definizione 1.29. Due σ-algebre G, H su Ω si dicono indipendenti se:
P (A ∩B) = P (A)P (B), ∀A ∈ G, ∀B ∈ H.
Due v.a. X, Y su (Ω,F , P ) si dicono indipendenti se lo sono le corrispondenti σ-algebre
σ(X) e σ(Y ).
Per esercizio provare che, date X, Y v.a. indipendenti, vale:
i) se Z e una v.a. σ(Y )-misurabile, allora X e Z sono indipendenti;
ii) se f, g sono funzioni reali B-misurabili, allora le v.a. f(X) e g(Y ) sono indipen-
denti.
Talvolta e utile il seguente risultato (non banale): se X, Y sono v.a. e Y e σ(X)-
misurabile, allora Y = f(X) per una certa funzione f B-misurabile.
Dare un esempio di X, Y ∈ L1(Ω, P ) tali che XY /∈ L1(Ω, P ). Il seguente teorema
afferma che occorre che X,Y non siano indipendenti. Vale infatti:
Teorema 1.30. Se X, Y ∈ L1(Ω, P ) sono v.a. reali indipendenti, allora si ha
XY ∈ L1(Ω, P ), E(XY ) = E(X)E(Y ).
Dimostrazione. Con un procedimento analogo a quello utilizzato nella prova del Teore-
ma (1.15), e sufficiente dare la prova nel caso di v.a. caratteristiche: X = χE, Y = χF
con E,F ∈ F . Per ipotesi X,Y sono indipendenti e quindi (provarlo!) anche E, F
sono indipendenti. Allora si ha
∫
Ω
XY dP =
∫
E∩F
dP = P (E ∩ F ) = P (E)P (F ) = E(X)E(Y ).
1.4 Teorema di Radon-Nikodym
Date due misure (qualsiasi) P,Q su (Ω,F), si dice che Q e P -assolutamente continua
in F se per ogni A ∈ FP (A) = 0 =⇒ Q(A) = 0.
In tal caso si scrive Q ¿ P in F . Se P, Q sono misure di probabilita, Q ¿ P in Fsignifica che gli eventi di F impossibili per P lo sono anche per Q (ma non e detto il
viceversa).
1.4 Teorema di Radon-Nikodym 17
Osservazione 1.31. L’assoluta continuita dipende dalla σ−algebra considerata. Se
G ⊆ F sono σ-algebre, allora Q ¿ P in G non implica che Q ¿ P in F .
Per esercizio provare che se Q ¿ P in F , allora per ogni A ∈ F si ha
P (A) = 1 =⇒ Q(A) = 1,
ossia gli eventi in F certi per P lo sono anche per Q (ma non e detto il viceversa).
Esempio 1.32. Abbiamo gia visto in (1.3) che, per σ > 0, Nµ,σ2 ¿ m in (R,B).
Inoltre e vero anche che m ¿ Nµ,σ2 (provarlo per esercizio): diremo in questo caso che
m e Nµ,σ2 sono equivalenti.
Esempio 1.33. La δx0 di Dirac non e m-assolutamente continua, infatti m(x0) = 0
ma δx0(x0) = 1.
Abbiamo gia osservato che se P e una distribuzione del tipo (1.1), ossia con densita
rispetto alla misura di Lebesgue m, allora P ¿ m. Ci si puo chiedere se tutte le misure
P tale che P ¿ m sono della forma (1.1). Il seguente importante risultato da una
Cio significa che la variazione del valore del portafoglio dal tempo tn a tn+1 e dovuto
solo alla variazione dei prezzi dei titoli e non al fatto che e stata introdotta o tolta
liquidita. Dunque per un portafoglio autofinanziante si stabilisce al tempo iniziale la
somma da investire e successivamente non si aggiunge o toglie liquidita2.
Ipotesi: in tutto il capitolo considereremo soltanto portafogli autofinanzianti.
Definizione 2.6. Si dice che un portafoglio autofinanziante V = (Vn)n=0,...,N e un
portafoglio di arbitraggio se
i) V0 = 0,
ed esiste n tale che
ii) P(Vn ≥ 0) = 1,
iii) P (Vn > 0) > 0.
Un portafoglio d’arbitraggio e tale che, pur richiedendo un investimento iniziale
nullo e (quasi) nessun rischio (P (Vn ≥ 0) = 1), ha la possibilita di assumere un valore
finale positivo.
Esempio 2.7. Supponiamo che u, d in (2.2) siano tali che d < 1 + r < u. Si intuisce
che l’idea di prendere in prestito soldi dalla banca per investirli nell’azione da una
probabilita positiva di guadagno, superiore al lasciare i soldi nel conto corrente, essendo
1 + r < u: cio corrisponde al punto iii) della Definizione 2.6. Tuttavia questa strategia
di investimento non corrisponde ad un (portafoglio di) arbitraggio, perche ci si espone
anche al rischio di perdita (essendo d < 1 + r, c’e una probabilita positiva che l’azione
renda meno rispetto al conto in banca) ossia e negata la proprieta ii).
Nel Paragrafo 2.5, dedicato alla valutazione del derivato H, assumeremo la seguente
fondamentale ipotesi di tipo economico:
Principio di Non Arbitraggio (PNA): non esistono portafogli di arbitraggio.
Vale il seguente risultato che dimostreremo alla fine del paragrafo.
2Per esempio, se supponiamo γn ≡ 0, la (2.6) e equivalente a
βn+1 = βn − (αn+1 − αn)Sn+1
Bn+1.
La formula precedente esprime come deve cambiare βn+1 se al tempo tn+1, essendo noti Sn+1 e Bn+1,vogliamo variare il numero di titoli rischiosi αn+1.
2.2 Portafoglio autofinanziante e di arbitraggio 25
Proposizione 2.8. Il PNA implica che
d < 1 + r < u (2.7)
in (2.2).
In effetti, sotto ulteriori ipotesi, il PNA e la (2.7) sono equivalenti (si veda la
Proposizione 2.12).
Osservazione 2.9. Assumendo il PNA, se U,W sono portafogli autofinanzianti tali
che P (UN = WN) = 1 allora si ha anche P (Un = Wn) = 1 per ogni n = 0, . . . , N − 1.
E’ utile, prima di vedere la dimostrazione seguente, provare a dimostrare la tesi da
soli, per esercizio.
Supponiamo che per assurdo sia P (Uk > Wk) > 0 per un certo k < N . Consi-
deriamo k = 0 e costruiamo un portafoglio d’arbitraggio: poniamo α = U0 − W0 e
V = W − U + αB0
B. Essendo U,W autofinanzianti, anche V lo e (verificarlo!). Inoltre
si ha
V0 = W0 − U0 + α = 0,
VN = UN −WN +α
B0
BN = q.s.
= α(1 + r)N
e dunque P (VN > 0) = P (α > 0) > 0 per ipotesi. Il caso k ≥ 1 e analogo.
Dimostrazione. (della Proposizione 2.8) Per assurdo sia 1 + r ≤ d < u. Usiamo l’idea
dell’Esempio 2.7 per costruire un portafoglio d’arbitraggio. Il portafoglio V = B0
S0S−B
e ovviamente autofinanziante, vale V0 = 0 e
VN =B0
S0
SN −BN ≥
(poiche d ≥ 1 + r allora SN ≥ S0(1 + r)N)
≥ B0(1 + r)N −BN = 0.
Inoltre, poiche SN = uNS0 con probabilita pN , e chiaro che l’evento
VN = B0uN −B0(1 + r)N > 0
ha probabilita positiva. Dunque abbiamo costruito un arbitraggio. Allo stesso modo
si prova che se d < u ≤ 1 + r allora il PNA e violato.
26 Il modello binomiale
2.3 Misura martingala o neutrale al rischio
Posto
q =1 + r − d
u− d, (2.8)
si ha
1 + r = qu + (1− q)d. (2.9)
Se supponiamo valida la (2.7) allora q ∈ ]0, 1[ e possiamo sostituire p con q in (2.2) e
definire una nuova misura di probabilita Q sullo spazio di probabilita (Ω,F) tale che3
Q(ξn = u) = q, Q(ξn = d) = 1− q. (2.10)
Osserviamo che la misura Q e equivalente a P .
Ricordando la (1.7) e indicando con EQ(S1) l’attesa della v.a. semplice S1 rispetto
alla misura Q, vale
1
1 + rEQ(S1) =
1
1 + r(uS0Q(S1 = uS0) + dS0Q(S1 = dS0))
=S0
1 + r(qu + (1− q)d) = S0.
Dunque Q l’unica misura di probabilita rispetto alla quale il valore attuale del titolo
rischioso e pari al valore scontato della corrispondente attesa al tempo successivo. Piu
in generale, e facile4 provare che
EQ(Sn) = (1 + r)nS0, n = 1, . . . , N. (2.11)
Economicamente, la (2.11) esprime la valutazione di Sn espressa da un investitore
neutrale al rischio in base al valore attuale del titolo.
Per questo motivo, Q e detta misura risk neutral o, piu frequentemente misura
martingala equivalente (a P ).
3Volendo essere precisi: possiamo supporre F = σ(ξ1, . . . , ξN ) e assumere la (2.10). Inoltre Q(A),per un generico A ∈ F , si definisce in modo ovvio assumendo che ξ1, . . . , ξN siano v.a. Q-indipendenti.
4
1(1 + r)n
EQ(Sn) =1
(1 + r)n
n∑
j=0
ujdn−jS0 Q(Sn = ujdn−jS0)
=S0
(1 + r)n
n∑
j=0
(n
j
)(uq)j(d(1− q))n−j = S0.
2.4 Strategia adattata 27
Nell’Osservazione 2.2 avevamo chiamato P misura oggettiva, da determinare in
base ad osservazioni sul mercato. La misura martingala Q e invece una misura definita
a posteriori a partire da P : non ha alcun “legame col modo reale”, ma e utile per
semplificare i conti.
Riassumendo i risultati degli ultimi paragrafi, nel modello binomiale il PNA implica
l’esistenza di una (unica) misura martingala equivalente.
2.4 Strategia adattata
In questo paragrafo proviamo il viceversa della Proposizione 2.8 e approfondiamo il con-
cetto di misura martingala equivalente. Chi non e interessato puo passare direttamente
al paragrafo successivo.
In questo paragrafo assumiamo le seguenti ipotesi:
i) vale la (2.7) (e di conseguenza si puo definire la misura Q come in (2.10));
ii) consideriamo solo portafogli autofinanzianti con investimenti solo in azioni e
bonds (ossia γn ≡ 0).
Poniamo
Fn = σ(ξ1, . . . , ξn), n = 1, . . . , N. (2.12)
La σ-algebra Fn indica le informazioni sul mercato disponibili fino al tempo tn. E’ com-
prensibile che abbiano un particolare interesse le strategie in cui αn e βn dipendano solo
da Fn: precisamente una strategia (αn, βn)n=0,...,N tale che αn, βn sono Fn-misurabili
per ogni n = 1, . . . , N , si dice strategia adattata e il portafoglio corrispondente si dice
adattato.
Osservazione 2.10. Moltiplicando per Sn ambo i membri della (2.9), si ha
quSn + (1− q)dSn = (1 + r)Sn
ossia, ricordando la (1.13), per ogni stato possibile S di Sn, si ha
EQ(Sn+1 | Sn = S) = (1 + r)S,
o, in altri termini, ricordando che Bn+1 = (1 + r)Bn, si ha
EQ
(Sn+1
Bn+1
| Fn
)=
Sn
Bn
. (2.13)
28 Il modello binomiale
La (2.13) si esprime dicendo che Sn
Bne una martingala5 (da cui il nome di Q). Nel
prossimo lemma mostriamo che un risultato analogo vale anche per i portafogli adattati.
Lemma 2.11. Per ogni portafoglio V adattato vale
EQ
(Vn+1
Bn+1
| Fn
)=
Vn
Bn
. (2.14)
In particolare vale
EQ (Vn) = (1 + r)nV0. (2.15)
Dimostrazione. Si ha
EQ
(Vn+1
Bn+1
| Fn
)=
(essendo V autofinanziante e per la linearita dell’attesa condizionata)
= EQ
(αn
Sn+1
Bn+1
| Fn
)+ EQ (βn | Fn) =
(per la proprieta (7) dell’attesa condizionata, essendo V adattato)
= αnEQ
(Sn+1
Bn+1
| Fn
)+ βn =
(per la (2.13))
= αnSn
Bn
+ βn =Vn
Bn
.
Proposizione 2.12. Se
d < 1 + r < u
allora non esistono portafogli d’arbitraggio adattati.
In altri termini, per fare un arbitraggio bisogna conoscere il futuro.
Tale espressione e calcolabile esplicitamente in funzione del valore attuale del sotto-
stante una volta data l’espressione di F .
32 Il modello binomiale
Capitolo 3
Elementi di calcolo stocastico
3.1 Moto Browniano
Sia dato uno spazio di probabilita (Ω,F , P ).
Definizione 3.1. Un processo stocastico (nel seguito p.s.)) e una famiglia X =
(Xt)t∈[0,+∞[ di v.a.
Xt : Ω −→ RN , t ≥ 0.
Il concetto di p.s. estende quello di funzione f : [0, +∞[−→ RN : come f associa a
t la variabile f(t) in RN , cosı il p.s. X associa a t la v.a. Xt in RN . Un p.s. puo essere
utilizzato per descrivere un fenomeno aleatorio che si evolve nel tempo: per esempio si
puo pensare alla v.a. Xt in R come al prezzo di un titolo rischioso al tempo t, oppure
alla v.a. Xt in R3 come alla posizione di una particella nello spazio al tempo t.
Per aiutare ancora l’intuizione, e utile pensare ad una funzione
g : [0, +∞[−→ RN
come ad una curva o traiettoria in RN : il sostegno della curva g e definito da
γ ≡ g(t) | t ∈ [0, +∞[.
Dunque, al variare del parametro t, g(t) rappresenta un punto del sostegno γ. L’idea si
estende ai p.s. e in questo caso ad ogni ω ∈ Ω corrisponde una diversa curva (e quindi
un possibile andamento del prezzo di un titolo oppure una possibile traiettoria di una
particella nello spazio):
γω ≡ Xt(ω) | t ∈ [0, +∞[.
33
34 Elementi di calcolo stocastico
Definizione 3.2. Una filtrazione F = (Ft)t≥0 in (Ω,F , P ) e una famiglia crescente di
sotto-σ-algebre di F . Dato un p.s. X = (Xt)t∈[0,+∞[ , poniamo
FXt = σ(Xs | 0 ≤ s ≤ t) = σ(X−1
s (H) | 0 ≤ s ≤ t, H ∈ B).
Chiaramente, se 0 ≤ s ≤ t, allora FXs ⊆ FX
t ⊆ F , e dunque FX = (FXt )t∈[0,+∞[ e una
filtrazione detta filtrazione associata a X.
Ricordando l’Esempio 1.25, si puo pensare a FXt come alle informazioni su X
disponibili fino al tempo t.
Definizione 3.3. Si dice Moto Browniano reale (nel seguito MB) di punto iniziale
x0 ∈ R, un qualsiasi p.s. W = (Wt)t∈[ 0,+∞[ tale che
i) P (W0 = 0) = 1;
ii) per ogni ω ∈ Ω, la funzione t 7→ Wt(ω) e continua;
iii) per ogni t, h ≥ 0, la v.a. Wt+h − Wt ha distribuzione normale N0,h ed e
indipendente da FWt .
Secondo la definizione precedente, un qualsiasi p.s. che verifichi i),ii) e iii) si dice
MB. In linea di principio, esistono dunque diversi MB definiti su diversi spazi di pro-
babilita. La definizione precedente si adatta facilmente anche al caso in cui t ∈ [a, b]
con a < b.
Notazione: nel seguito, salvo diversa ed esplicita indicazione, W denotera un MB
di punto iniziale l’origine.
Osservazione 3.4. Non e banale provare l’esistenza di un MB: chi e proprio interessato
veda per esempio [5], [9] o [8]. In particolare e possibile costruire un MB sullo spazio
Ω = C([0, +∞[,R), definendo (notare che in questo caso ω e una funzione reale)
Wt(ω) = ω(t), t ∈ [0, +∞[, ω ∈ Ω. (3.1)
Si definisce poi la seguente σ-algebra su Ω
F = σ(W−1t (H) | t ≥ 0, H ∈ B),
in modo tale che W e un p.s. A questo punto c’e la parte difficile: e possibile dimostrare
che, per ogni x0 ∈ R, esiste una misura di probabilita P x0 su (Ω,F) tale che W definito
in (3.1) e un MB di punto iniziale x0 sullo spazio di probabilita (Ω,F , P x0). Questo
particolare MB si dice moto Browniano standard.
3.1 Moto Browniano 35
Osservazione 3.5. Per le proprieta i) e ii) della Definizione 3.3, le traiettorie di un MB
di punto iniziale x0 partono (per t = 0) da x0 q.s. e sono continue. Come conseguenza
delle i) e iii), per ogni t ∈ [0, +∞[, vale
Wt ∼ Nx0,t. (3.2)
Infatti si ha q.s.
Wt = (Wt −W0) + x0 ∼ Nx0,t,
ricordando l’Osservazione 1.23. Dalla iii) segue anche che un MB ha gli incrementi
indipendenti nel senso che Wt2 − Wt1 e Wt4 − Wt3 sono v.a. indipendenti per ogni
0 ≤ t1 < t2 ≤ t3 < t4.
Osservazione 3.6. [MB come moto caotico]
Il MB e un modello probabilistico di moto casuale di una particella. Le seguenti
proprieta del MB sono ovvie conseguenza della (3.2):
a) E(Wt) = x0 per ogni t ≥ 0, ossia in ogni istante la posizione piu probabile della
particella e quella iniziale;
b) ricordando l’espressione della densita della distribuzione normale Γ(·, t) in (1.4),
si ha che, per ogni fissato t > 0, la probabilita che Wt appartenga ad un Borelliano H
diminuisce traslando H lontano da x0. Intuitivamente la probabilita che la particella
raggiunga H diminuisce allontanando H dal punto di partenza;
c) per ogni fissato H ∈ B,
limt→0+
P (Wt ∈ H) = δx0(H).
Intuitivamente, diminuendo il tempo diminuisce anche la probabilita che la particella
si sia allontanata dalla posizione iniziale;
d) E(|Wt − x0|2) = var(Wt) = t, ossia ci si attende che la distanza dal punto di
partenza, percorsa da una particella in moto casuale in un tempo t, sia√
t: questo
fatto e meno intuitivo ma corrisponde, per esempio, alle prime osservazioni empiriche
di Einstein [6].
Esempio 3.7. [MB come modello di titolo rischioso]
Sia W un MB di punto iniziale l’origine. Un primo modello a tempo continuo per
il prezzo di un titolo rischioso S e il seguente:
St = S0(1 + µt) + σWt, t ≥ 0. (3.3)
36 Elementi di calcolo stocastico
In (3.3), S0 indica il prezzo iniziale del titolo, µ indica il tasso di rendimento atteso e σ
indica la rischiosita del titolo o volatilita. Se σ = 0, la dinamica (3.3) e deterministica
e corrisponde ad una legge di capitalizzazione semplice con tasso privo di rischio pari
a µ. Se σ > 0, la dinamica (3.3) e stocastica e S = (St)t≥0 e un p.s. (a distribuzione)
normale nel senso che
St ∼ NS0(1+µt),σ2t, ∀ t ≥ 0. (3.4)
Da (3.4) segue che
E(St) = S0(1 + µt)
ossia l’andamento atteso di S corrisponde alla dinamica deterministica priva di rischio.
Inoltre σ e direttamente proporzionale alla varianza e quindi alla rischiosita del titolo.
Nella pratica questo modello non e utilizzato per due motivi: da una parte si
preferisce utilizzare la capitalizzazione composta; dall’altra (3.4) implica ovviamente
che P (St < 0) > 0 non appena t e positivo e questo e assurdo dal punto di vista
economico. Tuttavia (3.3) puo essere utilizzato come modello per i debiti/crediti di
un’azienda.
3.2 Moto Browniano ed equazione del calore
L’operatore differenziale del calore in due variabili e definito da
L =1
2∂xx − ∂t, (x, t) ∈ R2. (3.5)
In fisica l’operatore (3.5) e ben noto in quanto interviene nella modellizzazione del
processo di diffusione del calore: una soluzione u = u(x, t) dell’equazione del calore
Lu = 0 rappresenta la temperatura di un materiale al tempo t e alla posizione x.
Assegnata g ∈ C(R) e limitata, il classico problema di Cauchy per l’equazione del
calore consiste nel trovare una funzione u ∈ C2(R×]0, T [) ∩ C(R× [0, T [) tale che:
Lu(x, t) = 0, (x, t) ∈ R×]0, T [,
u(x, 0) = g(x) x ∈ R.(3.6)
La funzione g e solitamente detta dato iniziale del problema di Cauchy.
Si puo verificare direttamente che la funzione Γ in (1.4) risolve l’equazione del calore:
Γ ∈ C∞(R×]0, +∞[), LΓ = 0 in R×]0, +∞[.
3.3 Martingale 37
La funzione Γ e una soluzione molto particolare di L, detta soluzione fondamentale
dell’equazione del calore per il seguente motivo: non e difficile mostrare che il problema
di Cauchy (3.6) ha un’unica soluzione limitata data da
u(x, t) =
∫
RΓ(x− y, t)g(y)dy = (Γ(·, t) ∗ g)(x),
dove ∗ indica il simbolo di convoluzione di funzioni in R. Il risultato precedente vale
anche sotto ipotesi molto meno restrittive sulla funzione g.
Il legame fra MB ed equazione del calore dovrebbe essere ormai chiaro: consideriamo
un MB standard ed indichiamo con Ex il valore atteso nella misura P x. Allora, data
una funzione limitata g ∈ C(R), per il Teorema 1.15 si ha che
Ex(g(Wt)) =
∫
RΓ(x− y, t)g(y)dy (3.7)
e soluzione del problema di Cauchy (3.6). La (3.7) da una rappresentazione probabili-
stica della soluzione del problema di Cauchy per l’equazione del calore.
Confrontando la (3.7) con l’espressione (2.20) del prezzo di un derivato nel modello
binomiale, ci si puo aspettare che, come vedremo nel modello di Black&Scholes, il
prezzo di un derivato si ottenga come soluzione di un problema di Cauchy del tipo
(3.6).
3.3 Martingale
Sia dato uno spazio di probabilita (Ω,F , P,F) dove F = (Ft)t∈[0,+∞[ indica una
filtrazione.
Definizione 3.8. Si dice che un p.s. M e una martingala (nel seguito, mg) se, per
ogni t ∈ [0, +∞[, si ha:
i) Mt e Ft-misurabile, e in tal caso si dice che il p.s. M e F-adattato;
ii) Mt ∈ L1(Ω, P );
iii) E(Mt | Fs) = Ms q.s. per ogni 0 ≤ s ≤ t.
La i) e ii) sono proprieta di tipo tecnico, mentre la proprieta essenziale che caratterizza
una mg e la iii). Questa in particolare implica che il valore atteso di una mg M e
costante nel tempo, infatti:
E(Mt) = E(E(Mt | F0)) = E(M0), ∀ t ≥ 0.
38 Elementi di calcolo stocastico
Esempio 3.9. Un moto Browniano W di punto iniziale x0 e una mg rispetto alla
filtrazione Browniana FW . Infatti i) e ovviamente soddisfatta, inoltre si ha, per la
disuguaglianza di Holder1,
E(Wt)2 ≤ E(W 2
t ) = E((Wt − x0 + x0)2) = x2
0 + t,
che prova la ii). Infine per 0 ≤ s ≤ t si ha
E(Wt | FWs ) = E(Wt −Ws | FW
s ) + E(Ws | FWs ) =
(poiche Wt −Ws e indipendente da FWs e Ws e FW
s -misurabile)
= E(Wt −Ws) + Ws = Ws.
Esercizio 3.10. Data una v.a. Z sommabile in (Ω,F , P,F), provare che il p.s. definito
da
Mt = E(Z | Ft), t ≥ 0,
e una mg.
3.4 Regolarita delle traiettorie di un MB
Riprendiamo il modello di titolo rischioso dell’Esempio 3.7 in cui
St = S0(1 + µt) + σWt, t ∈ [0, T ].
Consideriamo una scomposizione s = t0, t1, . . . , tN di [0, T ]: per definizione 0 = t0 <
t1 < · · · < tN = T . Sia ora V = uS un portafoglio autofinanziante (cfr. Definizione
2.5) composto dal solo titolo S. Allora, per ogni k = 1, . . . , N , si ha
Vtk − Vtk−1= utk−1
(Stk − Stk−1) = µutk−1
(tk − tk−1) + σutk−1(Wtk −Wtk−1
).
1
∫|XY | ≤
(∫|X|p
) 1p
(∫|Y |q
) 1q
,
per ogni p, q ≥ 1 tali che1p
+1q
= 1
3.4 Regolarita delle traiettorie di un MB 39
Sommando per k da 1 a N , otteniamo
VT = V0 + µ
N∑
k=1
utk−1(tk − tk−1) + σ
N∑
k=1
utk−1(Wtk −Wtk−1
)
≡ V0 + µI1,s + σI2,s.
(3.8)
Per passare a tempo continuo occorre verificare l’esistenza dei limiti di I1,s e I2,s al
tendere del parametro di finezza2 |s| a zero.
Il primo termine I1,s e una somma di Riemann e dunque supponendo che la funzione
t 7→ ut(ω) sia, per esempio, continua3 in [0, T ] per ogni ω ∈ Ω, si ha semplicemente
lim|s|→0+
I1,s(ω) =
∫ T
0
ut(ω)dt,
per ogni ω ∈ Ω. Come vedremo, l’esistenza del secondo limite non e banale: suppo-
nendo che esista finito
lim|s|→0+
I2,s = I, (3.9)
per analogia, potremmo usare la notazione
I =
∫ T
0
ut dWt.
Otteniamo dunque, almeno formalmente, la seguente formula
VT = V0 + µ
∫ T
0
utdt + σ
∫ T
0
ut dWt.
In realta il limite in (3.9) non esiste in generale, a meno che non si introducano ul-
teriori ipotesi sul p.s. u. La giustificazione di questa affermazione richiede una breve
digressione di carattere matematico che porta anche ad osservare che le traiettorie di
un MB sono quasi sicuramente “irregolari” in un senso che specificheremo nel seguito.
Il resto del paragrafo puo essere tranquillamente sorvolato ad una prima lettura; nel
prossimo paragrafo vedremo sotto quali ipotesi e in quale senso vale (3.9).
2Il parametro di finezza di una scomposizione s e definito da
|s| = max1≤k≤N
|tk − tk−1|.
3Ovviamente e sufficiente che sia integrabile secondo Riemann. In effetti, in un portafoglio auto-finanziante con un solo titolo, si ha necessariamente che t 7→ ut e costante. La situazione non e piubanale nel caso di un portafoglio con almeno due titoli.
40 Elementi di calcolo stocastico
Consideriamo ω una traiettoria
t 7→ Wt(ω)
che sia di classe C1([0, T ]): in questo caso non ci sono problemi a dimostrare che esiste
lim|s|→0+
I2,s(ω) =
∫ T
0
ut(ω)W ′t(ω) dt, (3.10)
essendo l’integrale in (3.10) un normale integrale di Riemann e indicando con W ′t(ω)
la derivata ddt
Wt(ω). Infatti, per il Teorema del valor medio di Lagrange esistono
t∗k ∈ [tk−1, tk] tali che
I2,s(ω) =N∑
k=1
utk−1(ω)W ′
t∗k(ω)(tk − tk−1);
dunque I2,s(ω) e una somma di Riemann e la (3.10) segue facilmente.
Senza entrare nei dettagli, si puo procedere in maniera analoga per provare l’esisten-
za del limite in (3.9) sotto ipotesi molto piu deboli. Infatti e sufficiente assumere che
ut(ω) e Wt(ω) siano rispettivamente una funzione continua e una funzione a variazione
limitata4 della variabile t, per provare che esiste ed e finito il limite
lim|s|→0+
I2,s(ω) = l ∈ R.
Per definizione l =(∫ T
0ut dWt
)(ω) viene chiamato integrale di Riemann-Stieltjes di
ut(ω) rispetto a Wt(ω) su [0, T ].
4Date una funzione g : [0, T ] → Rn e una scomposizione s = t0, . . . , tN di [0, T ], si definisce lavariazione di g relativa a s nel modo seguente:
VT (g, s) =N∑
k=1
|g(tk)− g(tk−1)|.
Geometricamente la variazione VT (g, s) e la lunghezza della spezzata in Rn di estremi g(tk) conk = 0, . . . , N . La funzione g si dice a variazione limitata se l’estremo superiore di VT (g, s), al variaredi tutte le scomposizioni s di [0, T ], e finito:
VT (g) ≡ sups
VT (g, s) < +∞.
VT (g) e detta variazione (totale) di g su [0, T ]. Intuitivamente, raffinando la scomposizione s, VT (g, s)da un’approssimazione della lunghezza della curva g: in altre parole la curva g e a variazione limitata(o rettificabile) se ha lunghezza finita, approssimabile con spezzate. E facile provare (esercizio!) chele funzioni di classe C1([0, T ]) sono a variazione limitata.
3.4 Regolarita delle traiettorie di un MB 41
Concludiamo il paragrafo mostrando che l’insieme degli ω ∈ Ω tale che t 7→ Wt(ω)
e a variazione limitata, ha P -misura nulla: in parole povere, un MB ha le traiettorie
irregolari (non rettificabili5) quasi sicuramente. Di conseguenza, per quasi tutte le
traiettorie di un MB, non e possibile definire l’integrale nel senso di Riemann-Stieltjes.
Date una funzione g : [0, T ] → Rn e una scomposizione s = t0, . . . , tN di [0, T ], si
definisce la variazione quadratica di g relativa a s nel modo seguente:
V(2)T (g, s) =
N∑
k=1
|g(tk)− g(tk−1)|2.
La variazione quadratica (totale) 〈g〉T di g su [0, T ] e definita dal seguente limite, se
esiste,
lim|s|→0+
V(2)T (g, s) = 〈g〉T .
Lemma 3.11. Se una funzione g e continua e a variazione limitata su [0, T ], allora
ha variazione quadratica nulla: 〈g〉T = 0.
Dimostrazione. La funzione g e continua sul compatto [0, T ], quindi anche uniforme-
mente continua: di conseguenza, per ogni ε > 0, esiste δε > 0 tale che
| g(tk)− g(tk−1)| ≤ ε
per ogni scomposizione s = t0, t1, . . . , tN di [0, T ] tale che |s| < δε. La tesi e
conseguenza del fatto che
0 ≤ V(2)T (g, s) =
N∑
k=1
|g(tk)− g(tk−1)|2 ≤ ε VT (g)
con VT (g) < ∞ per ipotesi.
Proposizione 3.12. Per ogni t > 0 si ha
〈W 〉t = t q.s. (3.11)
In particolare W non e a variazione limitata su [0, t] quasi sicuramente.
Dimostrazione. Per alleggerire le notazioni, fissata una scomposizione s = t0, . . . , tNdi [0, t], poniamo ∆kW = Wtk −Wtk−1
per k = 1, . . . , N . Ricordiamo che vale
E((∆kW )2
)= tk − tk−1.
5Per ogni t > 0, un MB percorre una traiettoria di lunghezza infinita.
42 Elementi di calcolo stocastico
Inoltre si puo provare (esercizio6!) che vale
E((∆kW )4
)= 3(tk − tk−1)
2. (3.12)
Per provare la (3.11) e sufficiente7 dimostrare che
lim|s|→0+
V(2)t (W, s) = t in L2(Ω, P ),
ossia
lim|s|→0+
E((V
(2)t (W, s)− t)2
)= 0.
Ora si ha
E((V
(2)t (W, s)− t)2
)= E
(( ∑
k
(∆kW )2 − t)2
)
= E
(( ∑
k
((∆kW )2 − (tk − tk−1)
) )2)
=∑
k
E((
(∆kW )2 − (tk − tk−1))2
)
+ 2∑
h<k
E((
(∆kW )2 − (tk − tk−1)((∆hW )2 − (th − th−1)
))).
Osserviamo ora che
E((
(∆kW )2 − (tk − tk−1))2
)
= E((∆kW )4
)− 2(tk − tk−1)E((∆kW )2
)+ (tk − tk−1)
2 =
(per (3.12))
= 2(tk − tk−1)2.
D’altra parte
E((
(∆kW )2 − (tk − tk−1)) (
(∆hW )2 − (th − th−1)))
=
(per l’indipendenza degli incrementi del MB, se h < k)
E((∆kW )2 − (tk − tk−1)
)E
((∆hW )2 − (th − th−1)
)= 0.
6Si haE
((∆kW )4
)=
∫
Ry4Γ(y, tk − tk−1)dy,
e poi si integra per parti. Si veda anche l’Esempio 3.30-(3).7E noto che la convergenza in L2 implica la convergenza puntuale q.s.
3.5 Integrale stocastico di processi semplici 43
In definitiva si ha
E((V
(2)t (W, s)− t)2
)= 2
∑
k
(tk − tk−1)2 ≤ 2|s|t
che tende a zero per |s| → 0+.
3.5 Integrale stocastico di processi semplici
Sia dato un moto Browniano W su uno spazio di probabilita (Ω,F , P ). Nel seguito
indichiamo con F la filtrazione Browniana. In questo paragrafo e nel seguente diamo
una traccia della costruzione dell’integrale di Ito
∫ T
0
ut dWt.
Per garantire l’esistenza di tale integrale stocastico, e necessario imporre opportune
ipotesi sul processo u.
Definizione 3.13. Il p.s. u appartiene alla classe Λ2 se
i) u e F-adattato, ossia ut e Ft-misurabile per ogni t ≥ 0;
ii) per ogni T > 0, esiste ed e finitoT∫0
E(u2t )dt.
Mentre la ii) e una normale richiesta di sommabilita dell’integrando8, la i) e la
proprieta che gioca il ruolo cruciale nel seguito. La i) e anche legata alla nozione di
portafoglio adattato introdotta nel Capitolo 2.
Analogamente alla costruzione dell’integrale vista nel Capitolo 1, cominciamo col
definire l’integrale di Ito per una particolare classe di p.s. di Λ2.
Definizione 3.14. Un processo u ∈ Λ2 si dice semplice se e della forma
u =N∑
k=1
ekχ[tk−1,tk[, (3.13)
dove 0 ≤ t0 < t1 < · · · < tN e ek sono v.a.9 su (Ω,F , P ).
8u ∈ L2(Ω× [0, T ]) per ogni T > 0.9Assumiamo anche
P (ek−1 = ek) = 0, ∀ k = 1, . . . , N,
in modo che la rappresentazione (3.13) di u sia unica q.s.
44 Elementi di calcolo stocastico
Osservazione 3.15. E importante osservare che, essendo u adattato, allora ek in (3.13)
e Ftk−1-misurabile per ogni k = 1, . . . , N . Inoltre ek ∈ L2(Ω, P ) e si ha
T∫
0
E(u2t )dt =
N∑
k=1
T∫
0
E(e2k)χ[tk−1,tk[
(t)dt =N∑
k=1
E(e2k)(tk − tk−1) (3.14)
Se u ∈ Λ2 e un processo semplice della forma (3.13), allora il limite in (3.9) esiste
banalmente ed e naturale definire l’integrale di Ito nel modo seguente:
∫ut dWt =
N∑
k=1
ek(Wtk −Wtk−1) (3.15)
ed anche, per ogni 0 ≤ a < b,
∫ b
a
ut dWt =
∫utχ[a,b[
(t)dWt.
Esempio 3.16. Integrando il processo semplice u = χ[0,t[
, si ottiene10
Wt =
∫ t
0
dWs.
Riprendendo l’Esempio 3.7, si ha
St = S0 +
∫ t
0
µds +
∫ t
0
σdWs, t > 0.
Il seguente teorema contiene alcune importanti proprieta dell’integrale di Ito di processi
semplici.
Teorema 3.17. Per ogni u, v ∈ Λ2 semplici, α, β ∈ R e 0 ≤ a < b < c si ha:
(1) linearita:∫
(αut + βvt)dWt = α
∫ut dWt + β
∫vt dWt;
(2) additivita: ∫ c
a
ut dWt =
∫ b
a
ut dWt +
∫ c
b
ut dWt;
(3) media nulla:
E
(∫ut dWt
)= 0, (3.16)
10Al solito W0 = 0.
3.5 Integrale stocastico di processi semplici 45
ed anche
E
(∫ b
a
ut dWt
∫ c
b
vt dWt
)= 0; (3.17)
(4) isometria di Ito:
E
(( ∫ b
a
ut dWt
)2)
= E
(∫ b
a
u2t dt
)(3.18)
(5) il processo stocastico
Xt =
∫ t
0
us dWs, t ≥ 0, (3.19)
e una martingala rispetto a F .
Dimostrazione. Le proprieta (1) e (2) sono immediate. Per la (3):
E
(∫ut dWt
)=
N∑
k=1
E(ek(Wtk −Wtk−1
))
=
(poiche, per l’Osservazione 1.3, ek e Ftk−1-misurabile e dunque indipendente da Wtk −
Wtk−1)
=N∑
k=1
E (ek) E(Wtk −Wtk−1
)= 0.
Proviamo poi la (3.17): se v e della forma
v =M∑
h=1
dhχ[th−1,th[,
allora E(∫ b
aut dWt
∫ c
bvt dWt
)e una somma di termini del tipo
E(ekdh(Wtk −Wtk−1
)(Wth −Wth−1)), con tk ≤ th−1,
che sono tutti nulli poiche ekdh(Wtk −Wtk−1) e Fth−1
-misurabile e quindi indipendente
dall’incremento Wth −Wth−1che ha media nulla.
Proviamo l’isometria di Ito: assumendo u della forma (3.13), si ha11
E
(( ∫ b
a
ut dWt
)2)
= E
(( N∑
k=1
∫ tk
tk−1
ek dWt
)2)
=N∑
k=1
E
(( ∫ tk
tk−1
ek dWt
)2)
+ 2∑
h<k
E
(∫ tk
tk−1
ek dWt
∫ th
th−1
eh dWt
)
11Non e restrittivo assumere anche t0 = a e tN = b.
46 Elementi di calcolo stocastico
(per la (3.17) i termini della seconda somma sono nulli)
=N∑
k=1
E(e2
k(Wtk −Wtk−1)2
)
(per l’indipendenza di ek e Wtk −Wtk−1)
=N∑
k=1
E(e2
k
)E
((Wtk −Wtk−1
)2)
=N∑
k=1
E(e2
k
)(tk − tk−1)
e la tesi segue12 dalla (3.14).
Proviamo infine che il p.s. X in (3.19) e una F -martingala. Per la definizione (3.15)
e l’Osservazione 3.15, e ovvio che X sia adattato a F . Inoltre Xt e sommabile poiche
per la disuguaglianza di Holder si ha
E(Xt)2 ≤ E(X2
t ) =
(per l’isometria di Ito)
= E
(∫ t
0
u2sds
)< ∞
essendo u ∈ Λ2. Siano poi 0 ≤ s < t:
E(Xt | Fs) = E(Xs | Fs) + E( ∫ t
s
uτ dWτ | Fs
)= Xs
poiche Xs e Fs-misurabile, mentre
E( ∫ t
s
uτ dWτ | Fs
)=
∑
k
E(ek(Wtk −Wtk−1
) | Fs
)=
(essendo ek e Wtk −Wtk−1indipendenti)
=∑
k
E (ek | Fs) E(Wtk −Wtk−1
| Fs
)
(essendo Wtk −Wtk−1indipendente da Fs poiche s ≤ tk−1)
=∑
k
E (ek | Fs) E(Wtk −Wtk−1
)= 0.
12Per il Teorema di Tonelli, vale
E
(∫ b
a
u2t dt
)=
∫ b
a
E(u2
t
)dt
3.6 Integrale di Ito 47
3.6 Integrale di Ito
La (3.18) viene detta isometria di Ito perche si puo riscrivere in termini di uguaglianza
di norme in spazi L2: ∥∥∥∫ b
a
ut dWt
∥∥∥L2(Ω)
= ‖u‖L2(Ω×[a,b]) . (3.20)
L’isometria di Ito gioca un ruolo cruciale nella costruzione dell’integrale stocastico∫ T
0
ut dWt. (3.21)
Nel paragrafo precedente abbiamo definito l’integrale in (3.21) nel caso che u ∈ Λ2 sia
un p.s. semplice. Consideriamo ora un generico u ∈ Λ2: e possibile13 costruire una
successione (u(n)) di p.s. semplici di Λ2 che approssimi u nel senso che
limn→+∞
∫ T
0
E((ut − u
(n)t )2
)dt = lim
n→+∞
∥∥u− u(n)∥∥
L2(Ω×[0,T ])= 0.
Essendo convergente, (u(n)) e una successione di Cauchy14 in L2(Ω × [0, T ]). Allora,
per l’isometria di Ito, la successione degli integrali stocastici
In ≡∫ T
0
u(n)t dWt
e di Cauchy in L2(Ω) che e uno spazio metrico completo15. Di conseguenza la succes-
sione (In) e convergente in L2(Ω): per definizione, si pone∫ T
0
ut dWt = limn→+∞
In. (3.22)
E facile verificare (esercizio!) che la definizione e ben posta, nel senso che non dipende
dalla successione approssimante.
Osservazione 3.18. E possibile estendere la costruzione dell’integrale di Ito anche a
un processo adattato u che verifica la seguente debole condizione di sommabilita
P
(∫ b
a
|ut| dt < ∞)
= 1.
13Lo dimostriamo fra poco in un caso significativo (cfr. Proposizione 3.22 e Osservazione 3.23). Peril caso generale si veda, per esempio, [8].
14La successione (u(n)) si dice di Cauchy se per ogni ε > 0 esiste nε ∈ N tale che∥∥u(n) − u(m)
∥∥L2(Ω×[0,T ])
< ε, ∀m,n ≥ nε.
15Uno spazio metrico e completo se ogni successione di Cauchy e convergente.
48 Elementi di calcolo stocastico
Non dimostriamo il seguente teorema che estende al caso generale le proprieta
dell’integrale stocastico di processi semplici.
Teorema 3.19. Le proprieta (1–5) del Teorema 3.17 valgono per ogni u, v ∈ Λ2.
Vediamo ora che la definizione (3.22) estende la nozione di integrale di Riemann-
Stieltjes vista nel paragrafo precedente.
Definizione 3.20. Un processo u si dice L2-continuo in t0 se
limt→t0
E((ut − ut0)
2)
= 0.
Esempio 3.21. Poiche
E((Wt −Wt0)
2)
= |t− t0|,
ogni MB e L2-continuo. Inoltre, dato u ∈ Λ2, anche il processo
Xt =
∫ t
0
us dWs, t ≥ 0,
e L2-continuo in ogni punto. Infatti, se t > t0,
E((Xt −Xt0)
2)
= E
(( ∫ t
t0
us dWs
)2)
=
(per l’isometria di Ito)
=
∫ t
t0
E(u2
s
)ds −→ 0, per t → t0,
per il teorema della convergenza dominata di Lebesgue. Il caso t < t0 e analogo.
Proposizione 3.22. Sia u ∈ Λ2 un processo L2-continuo su [0, T ]. Posto
u(s) =N∑
k=1
utk−1χ
[tk−1,tk[,
dove s = t0, t1, . . . , tN e una scomposizione di [0, T ], allora u(s) e un processo semplice
di Λ2 e vale
lim|s|→0+
u(s) = u, in L2(Ω× [0, T ]). (3.23)
3.7 Processi e formula di Ito 49
Dimostrazione. Per ogni ε > 0, esiste16 δε > 0 tale che se |s| < δε allora si ha
∫ T
0
E((ut − u
(s)t )2
)dt =
N∑
k=1
∫ tk
tk−1
E((ut − utk−1
)2)dt ≤ εT.
Osservazione 3.23. La proposizione afferma che u(s) e un p.s. semplice in Λ2 che
approssima u in L2(Ω× [0, T ]) per |s| → 0+. Per la definizione (3.22) si ha allora
lim|s|→0+
∫ T
0
u(s)t dWt =
∫ T
0
ut dWt, in L2(Ω),
o equivalentemente, ricordando la (3.15),
lim|s|→0+
N∑
k=1
utk−1(Wtk −Wtk−1
) =
∫ T
0
ut dWt, in L2(Ω).
In questo senso l’integrale di Ito, essendo il limite delle somme (di Riemann-Stieltjes)
in (3.8), generalizza l’integrale di Riemann-Stieltjes.
Concludiamo il paragrafo enunciando un teorema di rappresentazione delle mg.
Abbiamo visto (cfr. (5) del Teorema 3.17) che il processo definito da un integrale
di Ito e una mg: il seguente risultato mostra che ogni mg rispetto alla filtrazione
Browniana F e rappresentabile in termini di un integrale stocastico.
Teorema 3.24. Sia M una F-mg di quadrato sommabile, Mt ∈ L2(Ω, P ). Allora
esiste ed e unico u ∈ Λ2 tale che
Mt = M0 +
∫ t
0
us dWs.
3.7 Processi e formula di Ito
Definizione 3.25. Un p.s. X della forma
Xt = X0 +
∫ t
0
usds +
∫ t
0
vs dWs, t > 0, (3.24)
con u, v ∈ Λ2, si dice un processo di Ito.
16Vale il Teorema di Heine-Cantor: se X e L2-continuo sul compatto [0, T ], allora e ancheuniformemente L2-continuo.
50 Elementi di calcolo stocastico
Notazione: la (3.24) viene solitamente scritta nella seguente “forma differenziale”:
dXt = utdt + vtdWt. (3.25)
Da una parte la (3.25) e piu breve da scrivere rispetto alla (3.24) e quindi piu comoda
da utilizzare; dall’altra la (3.25) risulta piu intuitiva e familiare, in quanto (solo for-
malmente!) ricorda il calcolo differenziale usuale per le funzioni di una variabile reale.
Sottolineiamo il fatto che abbiamo definito ogni singolo termine che appare nella (3.24):
e stato il lavoro degli ultimi paragrafi. Invece la (3.25) va invece presa “tutta insieme”
ed equivale esattamente alla (3.24): per esempio, il termine dXt, benche a volte deno-
minato differenziale stocastico, non e stato definito e ha senso solo se e all’interno della
formula (3.25).
Riprendendo l’Esempio 3.16, scriviamo
dSt = µdt + σdWt
La (3.11) diventa
d〈W 〉t = dt. (3.26)
Piu in generale, dato un p.s. Y , si definisce il processo variazione quadratica di Y nel
modo seguente
〈Y 〉t = lim|s|→0+
N∑
k=1
(Ytk − Ytk−1)2, in L2(Ω, P )
ammesso che tale limite esista e dove, al solito, s indica una scomposizione di [0, t]. Si
puo procedere come nella dimostrazione della Proposizione 3.12, per provare il seguente
Lemma 3.26. Sia X un processo di Ito della forma (3.24). Allora
〈Y 〉t =
∫ t
0
v2sds
o, in termini differenziali,
d〈Y 〉t = v2t dt.
Esempio 3.27. Se dSt = µdt + σdWt allora 〈S〉t = σ2t. Dunque in questo caso si
ha proprio 〈S〉t = var(St), ossia il processo variazione quadratica e deterministico e
coincide con la varianza. Piu in generale, se
St = S0 +
∫ t
0
µ(s)ds +
∫ t
0
σ(s) dWs
3.7 Processi e formula di Ito 51
con µ, σ funzioni deterministiche, allora, per la proprieta della media nulla, si ha
E(St) = S0 +
∫ t
0
µ(s)ds
e
var(St) = E
((St − S0 −
∫ t
0
µ(s)ds)2
)=
(per l’isometria di Ito)
=
∫ t
0
σ(s)2ds.
Possiamo ora enunciare (nel caso unidimensionale) il principale risultato della teoria
del calcolo stocastico.
Teorema 3.28. [Formula di Ito]
Siano X in (3.25) un processo di Ito e f = f(t, x) ∈ C2(R2). Allora il p.s. Y , definito
da Yt = f(t,Xt), e un processo di Ito e vale
dYt = ∂tf(t,Xt)dt + ∂xf(t,Xt)dXt +1
2∂xxf(t,Xt)d〈X〉t. (3.27)
Osservazione 3.29. In (3.27), ∂tf e ∂xf indicano le derivate parziali di f rispetto alle
variabili reali t e x. La formula di Ito e valida assumendo l’esistenza delle sole derivate
parziali ∂tf e ∂xxf continue. Le ipotesi di regolarita su f si possono ulteriormente
indebolire.
Esempio 3.30.
(1) Nel caso f(t, x) = tx e X = W MB, si ha
d(tWt) = Wtdt + tdWt.
Notare la somiglianza con la classica legge di derivazione di un prodotto di funzioni.
In forma integrale otteniamo:
tWt =
∫ t
0
Wsds +
∫ t
0
sdWs.
(2) se f(t, x) = x2 e X = W MB, si ha, per la (3.26),
d(W 2t ) = 2WtdWt + dt.
Dunque ricaviamo ∫ t
0
WsdWs =W 2
t − t
2;
52 Elementi di calcolo stocastico
(3) calcoliamo E(W 4t ). Per la formula di Ito si ha
dW 4t = 4W 3
t dWt + 6W 2t dt,
ossia
W 4t =
∫ t
0
4W 3s dWs +
∫ t
0
6W 2s ds.
Per la proprieta della media nulla (3.16), si deduce