POLITECNICO DI MILANO Scuola di Ingegneria dei Sistemi Dipartimento di Matematica ”F. Brioschi” Corso di Laurea Magistrale in Ingegneria Matematica Dinamiche Evolutive ed Equilibri Correlati Tesi di Laurea Magistrale in Ingegneria Matematica Relatore Candidata Prof. Roberto Lucchetti Benedetta Bizzarri Matricola 766743 Anno Accademico 2011-2012
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
POLITECNICO DI MILANO
Scuola di Ingegneria dei Sistemi
Dipartimento di Matematica ”F. Brioschi”
Corso di Laurea Magistrale in Ingegneria Matematica
Dinamiche Evolutive ed Equilibri Correlati
Tesi di Laurea Magistrale in Ingegneria Matematica
In questa tesi viene studiata la teoria evolutiva dei giochi come connubio tra
teoria dei giochi classica e teoria dei sistemi dinamici. L’obiettivo e quello di
porre in relazione i concetti noti di equilibrio di Nash, equilibrio correlato e
strategia con quello di Strategia Evolutivamente Stabile, analizzando i giochi
non piu dal punto di vista della massimizzazione del payoff, ma da quello
della strategia piu conveniente per una specie nel lungo termine. In que-
sto senso l’introduzione di una dinamica evolutiva che rappresenti il gioco e
molto utile in quanto, grazie allo studio delle sue orbite, e possibile risalire
a quelle strategie che portano al raggiungimento di un equilibrio. Si concen-
tra l’attenzione in particolare sulla cosiddetta Dinamica della Replicazione,
suggerita dalla legge di selezione naturale, di cui si forniscono diversi esempi
anche numerici ottenuti con l’ambiente Matlab.
Abstract
In this work Evolutionary Game Theory is presented. We shall see how
this theory is a natural extension of classical game theory by adding some
dynamical systems’ tools. Our purpose is to present some new concepts, such
as Evolutionary Stable Strategies, and study their connection with classical
ones, such as strategies, correlated and Nash equilibria. An alternative
approach will be used: instead of reasoning by maximum payoffs, we will
look for those strategies which lead to what is best for the population of
players in the long run. The introduction of a dynamic to represent the
game it is found very useful since, by studying its orbits, it is possible to
find those strategies which lead to an equilibrium. We will focus especially
on the so-called Replication Dynamic, a particular dynamic suggested by the
natural selection law. Examples will be provided, some of them numerical,
obtained with the aid of Matlab.
Introduzione
La teoria evolutiva dei giochi e un’estensione della teoria dei giochi clas-
sica che studia il comportamento di vaste popolazioni di agenti che intera-
giscono ripetutamente in modo strategico. Essa infatti e nata nel 1973 dal
tentativo di John Maynard Smith e George R.Price in The logic of Animal
Conflict, [16], di modellizzare matematicamente i conflitti tra diversi ani-
mali di una o piu specie, introducendo il concetto fondamentale di Strategia
Evolutivamente Stabile o ESS. Successivamente, questo concetto e stato
formalizzato e ampliato da Maynard Smith in Evolution and the Theory of
Games nel 1982 ([15]), collegando strettamente la tematica a quella dell’e-
voluzione biologica.
Nella teoria dei giochi ‘classica’ si ipotizza che i giocatori siano razionali, in
grado cioe di valutare razionalmente le strategie a loro disposizione e di agire
di conseguenza, dando per scontato che anche l’avversario sia in grado di
fare le stesse valutazioni. Diversamente, la teoria evolutiva dei giochi non si
basa su queste ipotesi, in realta molto restrittive. Di fatto, essa assume che
i giocatori non solo non siano in grado di analizzare razionalmente il gioco,
ma addirittura potrebbero non essere consapevoli di partecipare. Da questa
caratteristica si intuisce quanto questa nuova teoria possa aderire al contesto
biologico, in quanto l’ipotesi di razionalita dei giocatori chiaramente non e
applicabile agli animali. E’ il caso, per esempio, del ‘gioco’ della selezione
naturale, in cui gli agenti sono i geni, e le strategie che portano ad un payoff
minore vengono usate via via con minore frequenza, secondo il principio del
darwinismo.
In generale, il cambiamento di comportamento di una popolazione e guidato
da una qualche ‘legge’ che indirizza all’utilizzo delle strategie piu proficue
dal punto di vista collettivo. A questo proposito, la teoria evolutiva si svi-
luppa su due piani: da un lato si hanno i concetti di equilibrio e strategie
propri della teoria dei giochi classica, rivisitati in chiave evolutiva; dall’altro
si ha una stretta connessione con la teoria dei sistemi dinamici che permette
di analizzare dal punto di vista strettamente matematico l’evoluzione nel
6
INTRODUZIONE 7
tempo della frequenza con cui una strategia viene utilizzata all’interno di
una popolazione. In questo senso esistono numerosi studi che considerano
sistemi dinamici differenti, piu o meno aderenti al problema da modellizzare.
Si vedano per esempio [12], [13] e [6].
Nonostante la teoria evolutiva dei giochi sia nata in un contesto specifico,
essa si e dimostrata utile in molti altri campi, quali quello economico e so-
ciale.
Nel primo capitolo riportiamo gli strumenti necessari per introdurre la teo-
ria evolutiva dei giochi: dapprima vengono ricordati i concetti fondamentali
della teoria dei giochi quali la definizione di gioco, le diverse tipologie di stra-
tegie ed equilibri, alcuni esempi importanti. Successivamente richiamiamo
brevemente alcune definizioni e proprieta principali della teoria dei sistemi
dinamici. Una particolare attenzione e posta sulla nozione di punto di equi-
librio e sulle condizioni di stabilita, stabilita asintotica e attrattivita. Uno
strumento molto importante ai fini dello studio della teoria evolutiva si ri-
velera essere il teorema di Lyapunov.
Nel secondo capitolo introduciamo la teoria evolutiva con il concetto chiave
di strategia evolutivamente stabile o ESS, dapprima concentrandoci sui gio-
chi simmetrici a due giocatori. Vengono forniti inoltre alcuni risultati che
mettono in relazione ESS ed equilibri di Nash. Proseguiamo poi addentran-
doci nel contesto dinamico delle cosiddette equazioni della replicazione e di
altre dinamiche che possono descrivere il gioco, fornendo risultati di equiva-
lenza tra i punti di equilibrio della dinamica ed equilibri di Nash del gioco.
Completiamo la teoria evolutiva per giochi simmetrici con l’analisi del gioco
Carta-Sasso-Forbice generalizzato. Concludiamo il capitolo estendendo tutti
i risultati al caso piu generale dei giochi asimmetrici a due giocatori, rilevan-
do alcune differenze rispetto al caso simmetrico. Particolare rilevanza ha il
fatto che, diversamente dal caso simmetrico, la relazione tra ESS e punti di
equilibrio asintoticamente stabili nella dinamica di gioco e di equivalenza.
Nel terzo capitolo viene studiato un esempio di applicazione della teoria evo-
lutiva dei giochi ad un contesto di tipo sociale: l’interazione tra immigrati di
uno stesso paese d’origine e cittadini del paese ospitante. Supponendo che
i primi possano adottare una strategia di integrazione, imparando l’idioma
del paese ospitante per esempio, oppure di indifferenza, ed i secondi possano
agire in modo accogliente oppure ostile, ogni incontro tra un immigrato ed
un cittadino si puo rappresentare come un gioco che, a seconda dei payoff
fissati, puo portare a punti di equilibrio diversi della dinamica di gioco.
Nel quarto capitolo, viene studiata la relazione tra ESS ed equilibri correlati.
In particolare, seguendo l’impronta di Viossat, [17], viene dimostrato che le
strategie nel supporto di un equilibrio correlato tendono ad essere abbando-
8 INTRODUZIONE
nate nel tempo, per una vasta classe di giochi 4 × 4 e diverse dinamiche di
gioco. Non e il caso pero dei giochi 2× 2 e 3× 3. La verifica viene fatta in
questo lavoro per i giochi 2× 2 sia nel caso simmetrico che asimmetrico, co-
me diretta conseguenza delle proprieta studiate di equilibri correlati e punti
di equilibrio della dinamica di gioco. Per quanto riguarda i giochi 3 × 3 si
rimanda a [19].
Si conclude con un capitolo riassuntivo dei risultati ottenuti, proponendo
possibili spunti per ulteriori studi ed approfondimenti.
Capitolo 1
Richiami
In questo capitolo vengono forniti gli strumenti della teoria dei giochi
classica indispensabili per la trattazione della teoria evolutiva. In particola-
re, definiremo il gioco discreto, finito, non cooperativo in forma normale, con
i relativi concetti di equilibrio di Nash, di equilibrio correlato e di funzioni
di risposta ottima (best reply). Introdurremo poi la particolare classe di
giochi simmetrici a due giocatori, e tutte le loro proprieta. Infine, forniremo
un breve richiamo sulla teoria dei sistemi dinamici.
1.1 Strategie e Payoff
1.1.1 Strategie Pure
Sia I = 1, . . . , n l’insieme dei giocatori, dove n e un intero positivo; per
ogni giocatore i ∈ I, indicheremo con σi il suo insieme (finito) di strategie
pure. Per semplicita, ogni strategia pura per il giocatore i verra indicata
con un numero intero, ovvero σi = 1, 2, . . . ,mi. Chiameremo profilo di
strategie pure un vettore s = (s1, . . . , sn), dove si e una strategia pura per
il giocatore i. Lo spazio delle strategie pure del gioco sara quindi dato da
σ =∏ni=1 σi. Per ogni profilo di strategie s ∈ σ il payoff o guadagno (in
strategie pure) del giocatore i ∈ I e una funzione πi(s) ∈ R, πi : σ → R.
La funzione di payoff del gioco e indicata con π(s) = (π1(s), . . . , πn(s)),
π : σ → Rn.
In possesso di questi elementi, possiamo dare la seguente
Definizione 1.1. Un gioco non cooperativo, in forma normale, e una terna
G = (I, σ, π).
9
10 CAPITOLO 1. RICHIAMI
Nel caso in cui n = 2, se i giocatori hanno a disposizione rispettivamente
m1 ed m2 strategie, possiamo rappresentare il payoff di entrambi come una
bimatrice P =(A,BT
)∈ Rm1×m2 dove A = (aij) = (π1(i, j)) e B = (bji) =
(π2(i, j)), per ogni i ∈ σ1 e j ∈ σ2. Il primo giocatore scegliera che riga
giocare, mentre il secondo scegliera la colonna.
Esempio 1.1 (Falchi e Colombe). In questo gioco i giocatori possono sce-
gliere se comportarsi in modo aggressivo, da Falco, o remissivo, cioe da
Colomba. La bimatrice dei payoff del gioco e:[((v − c)/2, (v − c)/2) (v, 0)
(0, v) (v/2, v/2)
]
Ritorneremo su questo gioco piu avanti.
1.1.2 Strategie Miste
Una strategia mista per il giocatore i e una distribuzione di probabilita
sul suo insieme di strategie pure σi. Dal momento che consideriamo solo
giochi discreti finiti, indicando con mi il numero di strategie pure per il
giocatore i (|σi| = mi), possiamo rappresentare ogni sua strategia mista x
come vettore in Rmi , dove la componente xh ∈ R e la probabilita con cui
il giocatore i gioca la strategia pura h. E importante notare il fatto che∑mih=1 xh = 1 e che xh ∈ [0, 1] per ogni h = 1, . . . ,mi; pertanto l’insieme
delle possibili strategie miste per il giocatore i e il simplesso unitario, mi
dimensionale
Smi = x = (x1, . . . , xmi) ∈ [0, 1]mi |∑
xh = 1.
Osserviamo che i vertici del simplesso Smi sono i vettori unitari ei1 =
(1, 0, . . . , 0) , . . . , eimi = (0, 0, . . . , 1), che sono le strategie pure o particolari
strategie miste che assegnano probabilita 1 alla strategia pura h.
D’ora in avanti concentreremo l’attenzione sui giochi a due giocatori,
I = 1, 2.Se indichiamo con u1(ek,x) il payoff che il giocatore 1 ottiene usando la
strategia mista x contro la strategia pura k del giocatore 2, allora il valore
atteso del payoff per il giocatore 1 che gioca una strategia mista x ∈ Sm1 ,
contro la strategia mista y per il secondo, e
u1(x,y) =
m1∑k=1
u1(ek,x)yk y ∈ Sm2 . (1.1)
1.1. STRATEGIE E PAYOFF 11
In altre parole, u1(x,y) e calcolato come somma pesata dei payoff che il
giocatore 1 ottiene contro ogni strategia pura giocata dal giocatore 2, dove
i pesi sono le probabilita assegnate dalla strategia mista di quest’ultimo.
Inoltre, e importante notare che dall’equazione (1.1) risulta che u1(x) e
lineare in y ∈ Sm2 . In generale, u1(x,y) verra semplicemente chiamato
payoff della strategia mista x e tutto cio vale analogamente per il giocatore
2.
Se i payoff sono lineari, dato un gioco rappresentato dalla bimatrice P =
(A,B), se i giocatori giocano rispettivamente le strategie miste x ∈ Sm1 e
y ∈ Sm2 , i loro guadagni attesi sono
u1(x,y) =∑i
xi∑j
aijyj = xTAy
per il primo e
u2(x,y) =∑i
xi∑j
bijyj = xTBy = yTBTx
per il secondo.
Si ha dunque la seguente estensione del gioco alle strategie miste:
Definizione 1.2. L’estensione mista di un gioco non cooperativo, in forma
normale, e una terna G = (I,Θ, u) dove Θ = Sm1 × Sm2 e lo spazio delle
strategie miste del gioco e u(x) = (u1(x,y), u2(x,y)) e la funzione di payoff
in strategie miste del gioco.
1.1.3 Strategie Debolmente, Strettamente e Iterativamente
Dominate
Definizione 1.3. Una strategia yi ∈ Smi , i = 1, 2:
• domina debolmente una strategia xi ∈ Smi se ui(yi, zj) ≥ ui(xi, zj) ∀zj ∈Smj , con disuguaglianza stretta per qualche z ∈ Smj ;
• domina strettamente xi ∈ Smi se ui(yi, zj) > ui(xi, zj) ∀z ∈ Smj .
Una strategia xi ∈ Smi e non dominata se non esiste una strategia yi ∈ Smiche la domina (debolmente o strettamente).
E’ possibile che una strategia pura sia strettamente dominata da una
strategia mista, pur non essendo dominata da alcuna strategia pura.
Un assioma di razionalita alla base della teoria dei giochi presuppone che i
giocatori siano razionali, nel senso che non usano mai strategie strettamente
12 CAPITOLO 1. RICHIAMI
dominate. Pertanto, tutte le strategie pure strettamente dominate possono
essere eliminate dal gioco senza che il risultato venga alterato. Questo pro-
cedimento si puo iterare un numero finito di volte, poiche al gioco partecipa
un numero finito di giocatori con un numero finito di strategie.
Esempio 1.2. Consideriamo il gioco rappresentato dalla bimatrice(3, 1) (4, 1) (6, 3)
(2, 5) (1, 3) (1, 8)
(7, 3) (0, 0) (1, 4)
.Supponiamo che il giocatore A giochi le righe ed il giocatore B giochi le
colonne. Per A, la strategia 1 (giocare la prima riga) domina strettamente
la strategia 2. Analogamente, per il giocatore B la strategia 3 (giocare la
terza colonna) domina strettamente la strategia 2. Eliminando le strategie
strettamente dominate si perviene alla seguente bimatrice, equivalente a
quella di partenza: [(3, 1) (6, 3)
(7, 3) (1, 4)
].
Ripetendo il ragionamento, si possono eliminare anche la prima strategia per
B e la seconda strategia per A, ottenendo l’equilibrio di Nash in strategie
pure (nel gioco originale) (e1, e3) con payoff (6, 3).
Definizione 1.4. Una strategia pura si ∈ σi, i = 1, 2 e non iterativamente
strettamente dominata se non e strettamente dominata nel gioco origina-
le G, ne nel gioco G1 ottenuto eliminando da G alcune(o tutte) le strate-
gie strettamente dominate, ne nel gioco G2 ottenuto eliminando le strategie
strettamente dominate da G1 e cosı via, finche non vi siano piu strategie che
possano essere eliminate (cioe finche Gk+1 = Gk per un intero positivo k).
1.2 Equilibri
1.2.1 Equilibri di Nash
Un equilibrio di Nash e un profilo di strategie (pure o miste) x =
(x1, . . . , xn) tale che, se ogni giocatore i gioca la rispettiva strategia xi,
allora nessuno ha interesse a deviare.
Nel caso di un gioco a due giocatori si ha la seguente definizione:
Definizione 1.5. Un equilibrio di Nash per il gioco non cooperativo, in
forma normale, a due giocatori G = (Sn, Sm, u1 : Sn × Sm → R, u2 : Sn ×Sm → R) e una coppia di strategie (x, y) ∈ Sn × Sm tale che
u1(x, y) ≥ u1(x, y) ∀x ∈ Sn;
1.2. EQUILIBRI 13
u2(x, y) ≥ u2(x,y) ∀ y ∈ Sm.
In particolare, se entrambe sono disuguaglianze strette per x 6= x, y 6= y,
l’equilibrio di Nash e detto stretto.
Osserviamo che, sotto l’ipotesi di razionalita dei giocatori, se per esempio
il giocatore 1 pensasse che il giocatore 2 usi la strategia y, allora cerchereb-
be di massimizzare la sua funzione di utilita x 7→ u1(x,y), ovvero vorrebbe
scegliere la strategia x ∈ BR1(y) = x ∈ Sn : u1(x,y) ≥ u1(s,y)∀s ∈ Sn.Seguendo lo stesso ragionamento per il giocatore 2 risultano definite le multi-
funzioni di risposta ottima (best reaction) BR1 : Sm → Sn e BR2 : Sn → Sm. Sia ora BR : Sn × Sm → Sm × Sn, definita come
BR(x, y) = (BR1(y), BR2(x)) .
Allora
Definizione 1.6. Un equilibrio di Nash per il gioco G = (Sn, Sm, u1 : Sn ×Sm → R, u2 : Sn × Sm → R) e un punto fisso per BR, cioe (x, y) e un
equilibrio di Nash se e solo se
(x, y) ∈ BR(x, y).
Proposizione 1.1. Un equilibrio di Nash stretto e necessariamente una
coppia di strategie pure.
Dimostrazione. Dato un equilibrio di Nash in strategie miste (x,y), per
almeno uno dei giocatori esisterebbero almeno due strategie pure che portano
allo stesso payoff massimo, violando almeno una delle disuguaglianze strette
della Definizione (1.5).
Osserviamo che non tutti i giochi hanno equilibri in strategie pure.
Esempio 1.3. Consideriamo il gioco delle monete: due bambini, ciascuno
con una moneta, devono mostrarla nello stesso momento, decidendo se tenere
in alto testa o croce. Se entrambi mostrano la stessa faccia, vince il primo
bambino, altrimenti vince il secondo.
La bimatrice dei payoff e pertanto[(1,−1) (−1, 1)
(−1, 1) (1,−1)
].
Chiaramente non esistono equilibri di Nash in strategie pure, infatti per qual-
siasi profilo di strategie pure, uno dei due giocatori vorrebbe deviare. Tutta-
via esiste un equilibrio di Nash in strategie miste: (x,y) =([
12 ,
12
],[
12 ,
12
]).
14 CAPITOLO 1. RICHIAMI
Si puo dimostrare che nei giochi discreti esiste sempre almeno un equi-
librio di Nash in strategie miste; a questo scopo occorrono alcuni richiami:
Definizione 1.7. Sia Z un sottospazio compatto e convesso di uno spazio
Eucliedeo e Φ : Z → Z. Il grafico di Φ e l’insieme (x, y) : y ∈ F (x).
Definizione 1.8. Una funzione h : Z → R, dove Z e un insieme convesso,
si dice quasi convessa se l’insieme x : h(z) ≥ a e convesso per ogni a.
A questo punto un teorema di punto fisso garantisce l’esistenza di un
equilibrio di Nash; in particolare useremo il teorema di Kakutani.
Teorema 1.2 (di Kakutani). Sia Z un sottoinsieme compatto e convesso
di uno spazio Euclideo e sia F : Z → Z tale che
• F (z) e un insieme non vuoto, chiuso e convesso per ogni z;
• il grafico di F e chiuso.
Allora F ha punto fisso: esiste z ∈ Z tale che z ∈ F (z).
Grazie a questi strumenti e ora possibile dimostrare il seguente
Teorema 1.3 (di Nash). Dato il gioco G = (Sn, Sm, u1 : Sn× Sm → R, u2 :
Sn×Sm → R), supponiamo che Sn e Sm siano sottoinsiemi convessi e com-
patti di qualche spazio euclideo; supponiamo inoltre che u1, u2 siano funzioni
continue e che
• x 7→ u1(x,y) sia quasi concava per ogni y ∈ Sm;
• y 7→ u2(x,y) sia quasi concava per ogni x ∈ Sn.
Allora esiste un equilibrio per il gioco.
Dimostrazione. Proviamo che BR1(y) e un insieme chiuso, non vuoto e
convesso per ogni y. Analogamente cio puo essere fatto per BR2(x), da cui
segue la validita delle affermazioni per BR.
BR1(y) e un insieme non vuoto dal momento che u1(x,y),funzione continua,
e massimizzata su Sn, insieme compatto. Per il teorema di Weierstrass,
infatti, segue che esiste almeno un punto di massimo. Inoltre, per l’ipotesi
di quasi concavita di u1 segue che l’insieme dei punti di massimo BR1 e
convesso. Infine, supponiamo che xn ∈ BR1(y) e che xn → x; perche
BR1 sia chiuso dobbiamo verificare che x ∈ BR1(y). Dal momento che
possiamo passare al limite ottenendo u1(x,y) ≥ u1(x,y)∀x in virtu del
1.2. EQUILIBRI 15
teorema di permanenza del segno, ovvero x ∈ BR1(y).
Vogliamo ora dimostrare che BR1 ha grafico chiuso. Seguendo la procedura
gia utilizzata, supponiamo che la coppia (xn,yn) appartenga al grafico di
BR1 e che (xn,yn) → (x, y); bisogna ora vedere che (x, y) appartiene al
grafico di BR1.
Deve valere u1(xn,yn) ≥ u1(x,yn)∀x; passando al limite e utilizzando il
teorema di permanenza del segno si ha u1(x, y) ≥ u1(x, y)∀x ma cio e vero
solo se x ∈ BR1(y) cioe la coppia (x, y) appartiene al grafico di BR1.
A questo punto, dal teorema di Kakutani, segue la tesi.
1.2.2 Equilibri Correlati
Ci concentreremo ora sui giochi finiti, in forma strategica, a due gio-
catori. Definiremo il concetto di equilibrio correlato, una generalizzazione
del concetto di equilibrio di Nash introdotta da Aumann nel 1974. L’idea
e che sia possibile per i giocatori di accordarsi su un certo piano di azione,
con un accordo che non sia vincolante per rimanere nell’ambito dei giochi
non cooperativi. Ogni giocatore infatti sceglie la sua azione a seguito del-
l’osservazione di un segnale fornito da un ‘mediatore affidabile’, sulla base
del quale egli valuta strategicamente anche i segnali che gli altri giocatori
potrebbero aver ricevuto, ed agisce di conseguenza.
Una soluzione e un equilibrio correlato se ogni giocatore ritiene conveniente
non deviare dalla strategia suggerita dal mediatore sotto l’ipotesi fonda-
mentale di razionalita dei giocatori, ovvero che nessuno abbia motivo di
deviare.
Diamo ora una definizione formale:
Definizione 1.9. Dato il gioco G = (Sn, Sm, u1, u2), dove u1, u2 : Sn ×Sm → R, Sn = (x1, . . . ,xn) e Sm = (y1, . . . ,ym),una distribuzione di equili-
bri correlati o, piu semplicemente, un equilibrio correlato e una distribuzione
di probabilita µ su Sn × Sm tale che, detta µij la probabilita assegnata alla
coppia (xi,yj), ∀i ∈ 1, . . . , n si ha che
m∑j=1
µiju1(xi,yj) ≥m∑j=1
µiju1(xi,yj) ∀i ∈ 1, . . . , n (1.2)
e ∀j ∈ 1, . . . ,m
n∑i=1
µiju2(xi,yj) ≥n∑i=1
µiju2(xi,yj) ∀j ∈ 1, . . . ,m (1.3)
16 CAPITOLO 1. RICHIAMI
Definizione 1.10. Una strategia pura i e usata in un equilibrio correlato
se esiste un equilibrio correlato µ tale che esista una strategia pura j per la
quale µ(i, j) > 0.
Per chiarire il significato della definizione 1.9 dividiamo a destra e a
sinistra della (1.2) per la quantita∑m
j=1 µij (analogamente dividiamo per∑ni=1 µij la (1.3)):
m∑j=1
µij∑mj=1 µij
u1(xi,yj) ≥m∑j=1
µij∑mj=1 µij
u1(xi,yj).
La quantita a sinistra della disequazione e, infatti, il payoff atteso del primo
giocatore che sa di dover giocare la strategia i, mentre quella a destra e il
payoff atteso del primo giocatore nel caso in cui non giochi la strategia i (di-
scorso analogo per il secondo giocatore). E’ chiaro quindi che le disequazioni
riflettono le condizioni per l’equilibrio di Nash.
Un equilibrio correlato e dunque un vettore che soddisfa un certo numero
di disequazioni lineari, quindi l’insieme degli equilibri correlati e convesso
e compatto in un certo spazio Euclideo. Inoltre risulta essere non vuoto:
ogni equilibrio di Nash e infatti un equilibrio correlato e, dal momento che
esiste sempre un equilibrio di Nash (in strategie miste) per la classe di giochi
considerata, l’insieme degli equilibri correlati e non vuoto.
Esempio 1.4 (Semaforo). Due automobili giungono in prossimita di un
incrocio con semaforo rotto. Entrambe devono decidere se passare o dare
la precedenza. Nel caso in cui entrambe decidano di passare, ha luogo un
incidente, che per entrambe le automobili si traduce in un payoff negativo
−100. Se una decide di dare la precedenza e l’altra passa, la prima ottiene 0
e la seconda guadagna 1. Infine, se entrambe decidono di fermarsi, ottengono
un payoff −1. La matrice dei payoff e[(−100,−100) (1, 0)
(0, 1) (−1,−1)
]Ci sono due equilibri di Nash in strategie pure: (e1, e2) e (e2, e1), con valore
atteso 1 per chi passa e 0 per chi si ferma (la loro somma e 1). Vi e inoltre
un equilibrio di Nash in strategie miste (x,x) dove x =(
151 ,
5051
), con valore
atteso per entrambi −850867 .
Se il semaforo viene riparato, si ha ora un mediatore affidabile che fa passare
meta delle volte un’automobile e meta l’altra. Si verifica facilmente che[0 1/2
1/2 0
]
1.2. EQUILIBRI 17
e un equilibrio correlato, che assicura ad entrambi il valore atteso 12 (e somma
anch’esso ad 1).
Teorema 1.4. Se un gioco finito a n giocatori ha un unico equilibrio cor-
relato σ, allora l’(unico) equilibrio correlato di ogni gioco in un suo intorno
ha lo stesso supporto di σ.
Per una prova di questo teorema, si rimanda a [19].
Osservazione 1.1. Sugli equilibri correlati esiste uno studio sperimentale
condotto da Timothy N. Cason e Tridib Sharma (si veda [2]), i quali hanno
messo a confronto diversi giocatori in un gioco la cui matrice dei payoff era[(3, 3) (48, 9)
(9, 48) (39, 39)
]. (1.4)
Considerando i payoff in termini monetari, e stato riscontrato che molto
spesso i giocatori sono portati a deviare dalla strategia proposta, pur essen-
do a conoscenza degli svantaggi. Per spiegare questo fenomeno, gli autori
hanno posto i giocatori davanti ad un computer come avversario, conside-
rando anche una variante del gioco in cui i guadagni del computer venivano
trasferiti ad un individuo esterno al gioco. La ragione di questa variante e
quella di capire se la scelta di deviare e dettata da una funzione di utilita in
cui la preferenza e minimizzare la differenza tra il payoff dell’avversario e il
proprio piuttosto che massimizzare il proprio. Il risultato e stato che, con-
tro un avversario non ‘umano’, cioe perfettamente razionale, i giocatori non
hanno deviato dalla strategia suggerita, indipendentemente da chi ottenesse
il guadagno del computer.
Gli autori hanno concluso che la causa di questo comportamento potrebbe
essere che i giocatori non si ‘fidano’ della razionalita degli avversari e, di
conseguenza, tentano di prevedere in che modo essi devieranno, deviando
loro stessi dalla strategia suggerita. Tuttavia e stato riscontrato che i gioca-
tori con piu esperienza tendono a seguire le raccomandazioni piu degli altri,
quindi e ragionevole supporre che col tempo essi arriveranno all’equilibrio
correlato.
Gli autori hanno potuto fornire solo congetture per spiegare questo feno-
meno, una delle quali ipotizza che gli individui meno esperti, pur essendo
razionali, suppongano che gli avversari possano in realta commettere degli
errori di valutazione nella scelta della strategia. Man mano che il gioco
viene ripetuto, ogni giocatore modifica la sua percezione dell’avversario in
base al sue azioni e di conseguenza diventa sempre piu propenso a seguire
le indicazioni.
18 CAPITOLO 1. RICHIAMI
1.3 Giochi Simmetrici
In molte applicazioni della teoria dei giochi evolutivi i giocatori vengono
considerati indistinguibili, motivo per cui e utile introdurre la particolare
classe di giochi simmetrici:
Definizione 1.11. Un gioco non cooperativo G = (I, σ, π),a due giocatori,
in forma normale e simmetrico se I = 1, 2, σ1 = σ2 = K e π2(s1, s2) =
π1(s2, s1) per ogni (s1, s2) ∈ σ.
La simmetria del gioco implica che, se U indica la matrice dei payoff del
giocatore 1 e V quella del giocatore 2, allora V = UT .
Definizione 1.12. Un equilibrio di Nash (x,y) si dice simmetrico se x = y,
cioe se i due giocatori utilizzano la stessa strategia.
Osservazione 1.2. Un gioco simmetrico non ha necessariamente solo equi-
libri simmetrici, tuttavia esiste sempre un equilibrio simmetrico nelle stra-
tegie miste. Per convincersene basta applicare il teorema di Kakutani a
BR1(= BR2).
La definizione di equilibrio correlato vale ovviamente anche per la ca-
tegoria dei giochi simmetrici. Notiamo inoltre che, se µ e un equilibrio
correlato per un gioco a due giocatori simmetrico, lo e anche µT (definito da
µT (i, j) = µ(j, i)), e quindi anche µ+µT
2 . Pertanto, se una strategia e usata in
un equilibrio correlato, e usata anche in un equilibrio correlato simmetrico.
1.3.1 Giochi Doppiamente Simmetrici
Un caso piu specifico di giochi simmetrici si ha quando i due gioca-
tori hanno uguale successo o insuccesso. In tal caso si parla di giochi
doppiamente simmetrici.
Definizione 1.13. Un gioco simmetrico a due giocatori e doppiamente
simmetrico se la matrice dei payoff U = UT .
1.4 Classificazione dei Giochi Simmetrici 2x2
In questa sezione consideriamo giochi simmetrici a due giocatori, in cui
ogni giocatori ha esattamente due strategie pure. La trattazione tornera
utile piu avanti per fornire esempi.
Per prima cosa enunciamo una proprieta di invarianza:
1.4. CLASSIFICAZIONE DEI GIOCHI SIMMETRICI 2X2 19
Proposizione 1.5. Dati due giochi G = (I, σ, π) e G′ = (I, σ, π′), se per
ogni giocatore i ∈ I esiste λi ∈ R+ ed µi ∈ R tali che π′i(s, t) = λiπi(s, t)+µiper ogni profilo di strategie s ∈ σ, allora i due giochi sono equivalenti1.
Dimostrazione. Concentriamoci sul giocatore 1, il discorso per il secondo e
analogo. Supponiamo che la coppia (s, t) sia un equilibrio di Nash per G,
cioe
π1(s, t) ≥ π1(s, t) ∀s.
Vogliamo verificare che questa coppia di strategie sia un equilibrio di Nash
Consideriamo ora un qualsiasi gioco simmetrico 2x2 con matrice dei
payoff
A =
[a11 a12
a21 a22
].
In virtu della proposizione (1.5), e possibile sottrarre alla prima colonna la
quantita a21 ed alla seconda a12, ottenendo la matrice equivalente
A′ =
[a11 − a21 0
0 a22 − a12
].
Abbiamo cosı ottenuto un gioco doppiamente simmetrico con matrice dei
payoff
A′ =
[a1 0
0 a2
]dove a1 = a11 − a21 e a2 = a22 − a12. In questo modo possiamo identificare
ogni gioco simmetrico come un punto nel piano a = (a1, a2) ∈ <2 ed, in base
alla posizione, classificarlo.
• Categoria I: a1 ≤ 0, a2 > 0 o a1 < 0, a2 ≥ 0
La seconda riga domina strettamente la prima, la seconda colonna do-
mina strettamente la prima: si ha un unico equilibrio di Nash (e2, e2)
con payoff a2. E’ speculare alla categoria IV, di cui forniremo un
esempio molto noto.
1Due giochi sono equivalenti se hanno gli stessi equilibri (ma non necessariamente gli
stessi payoff).
20 CAPITOLO 1. RICHIAMI
• Categoria II: a1 > 0, a2 > 0
Vi sono due equilibri di Nash (simmetrici e stretti) in strategie pure:
(e1, e1) e (e2, e2). Vi e inoltre un equilibrio (simmetrico) in strate-
gie miste (x,x) con x =[
a2a1+a2
, a1a1+a2
]. Un esempio e il Gioco di
Coordinazione che ha matrice dei payoff[2 0
0 1
].
• Categoria III: a1 < 0, a2 < 0
Vi sono due equilibri di Nash in strategie pure, questa volta asim-
metrici, (e1, e2) e (e2, e1), ed un equilibrio (simmetrico) in strategie
miste (x,x), dove x e la stessa della categoria II. Un esempio e quel-
lo di Falchi e Colombe: i due giocatori possono decidere di usare una
strategia aggressiva (falco) o remissiva (colomba). Se un falco incontra
una colomba, vince lo scontro guadagnando v mentre la colomba non
guadagna nulla. Se un falco si scontra con un altro falco, puo vince-
re (v) o perdere (c) con uguale probabilita: il payoff medio e quindi
(v − c)/2 < 0. Se una colomba incontra un’altra colomba, infine, lo
scontro si risolve in modo pacifico, con payoff v/2. La matrice dei
payoff e [(v − c)/2 v
0 v/2
].
• Categoria IV: a1 ≥ 0, a2 < 0 o a1 > 0, a2 ≤ 0
E’ il caso speculare alla categoria I: vi e un unico equilibrio di Nash
(e1, e1) con payoff a1 . Un esempio di questa categoria e il dilemma
del prigioniero: due ladri complici vengono catturati, se entrambi con-
fessano il furto la pena e di 3 anni di carcere ciascuno, se solo uno dei
due confessa, chi confessa viene rilasciato e l’altro sconta una pena di
5 anni, se nessuno dei due confessa, sconteranno ciascuno 1 anno di
carcere. La matrice dei payoff e quindi[−3 0
−5 −1
].
1.5 Sistemi Dinamici
In questo capitolo vengono riportate alcune nozioni sui sistemi dinamici
fondamentali per la trattazione successiva.
1.5. SISTEMI DINAMICI 21
Definizione 1.14. Dati uno spazio vettoriale E ed un insieme aperto W ⊂E, un sistema dinamico e una coppia (W,ψ), dove ψ : J ×W → W , con
J intervallo di <, e un’applicazione differenziabile che verifica le seguenti
proprieta:
1. ∃t0 ∈ J tale che ψ(t0,x) = x,
2. ψ(t+ s,x) = ψ(t, ψ(s,x)).
Per l’ipotesi di differenziabilita, e possibile definire un campo vettoriale
f(x) ≡ d
dtψ(t,x)|t=t0 (1.5)
per ogni x ∈W e per qualche t0 ∈ J fissato; se poniamo x(t) = ψ(t,x), sot-
tolineando la sola dipendenza dal tempo della ψ, la (1.5) puo essere riscritta
come
x ≡ dx
dt= f(x).
Definizione 1.15. Dato un sistema dinamico x = f(x), un punto di equili-
brio z e tale che f(z) = 0.
Definizione 1.16. Un punto di equilibrio z di un sistema dinamico x = f(x)
e
• stabile, se per ogni intorno U di z, esiste un altro intorno W, tale che
ogni soluzione che parte in W rimane in U;
• attrattivo, se esiste un intorno W di z, tale che ogni soluzione che
parte in W converge verso z;
• asintoticamente stabile, se e stabile e attrattivo;
• globalmente stabile, se tutte le soluzioni che partono nell’insieme di
definizione del sistema convergono a z;
• instabile, se non e stabile.
Definizione 1.17. Sia x = f(x) un sistema dinamico con punto di equili-
brio z. Sia J la matrice Jacobiana di f calcolata in z. Le parti reali degli
autovalori di J si chiamano esponenti di Lyapunov.
Il calcolo degli esponenti di Lyapunov in corrispondenza di un punto di
equilibrio permette di ottenere informazioni sulla sua stabilita.
Teorema 1.6. Il punto di equilibrio z e:
22 CAPITOLO 1. RICHIAMI
• asintoticamente stabile se tutti gli esponenti di Lyapunov sono negativi
(pozzo);
• instabile se tutti gli esponenti di Lyapunov sono positivi (sorgente) o
se sono uno positivo e l’altro negativo (sella);
Definizione 1.18. Una funzione V definita e di classe C1 in un intorno U
di un punto di equilibrio z si dice funzione di Lyapunov per z se valgono le
condizioni:
• V (x) = dV (x(t))dt ≤ 0
• V (z) = 0 e V (x) > 0 ∀x 6= z ∈ U
Se la prima condizione vale col segno di disuguaglianza stretta, V e una
funzione di Lyapunov stretta.
Teorema 1.7 (di Lyapunov). Dato un punto di equilibrio z di un sistema
dinamico x = f(x), se esiste una funzione di Lyapunov V per z, allora z
e un punto di equilibrio stabile. Se V e una funzione di Lyapunov stretta,
allora V e asintoticamente stabile.
Teorema 1.8 (di esistenza ed unicita locale). Sia f : D → Rk con D aperto,
D ⊂ Rk+1. Se:
(i) f e continua in D.
(ii) f = f(t,x) e localmente lipschitziana in D, rispetto a z ed uniforme-
mente in t (ovvero esiste una costante L tale che ‖f(t,x)− f(t,y)‖ ≤L ‖x− y‖ per ogni coppia di punti (t,x) ∈ D e (t, z) in un intorno di
(t,x) ).
Allora, per ogni punto (τ, ξ) ∈ D esiste un intorno Iδ di τ , Iδ = [τ−δ, τ+δ],
nel quale e definita un’unica soluzione Φ(·, ξ) : Iδ → D. Tale soluzione
e unica nel senso che ogni altra soluzione coincide con Φ nell’intervallo
comune di definizione.
Lemma 1.9 (di Gronwall). Sia I = [a, b) ⊂ R un intervallo tale che a ∈ Re b ∈ R ∪ ∞. Siano inoltre u, v : I → R due funzioni continue in I e non
negative. Se u e derivabile in I e soddisfa
u(t) ≤ |v(t)u(t)| ∀t ∈ I
allora
u(t) ≤ u(a)exp |∫ t
av(s)ds | ∀t ∈ I
.
1.5. SISTEMI DINAMICI 23
Definizione 1.19. L’orbita passante per un punto x0 e data dall’insiemex : ∃t ∈ R,x = Φ
(t,x0
).
Le orbite di un sistema dinamico possono essere di tre tipi:
1. ridotte ad un solo punto (equilibrio);
2. curve regolari chiuse (orbite periodiche);
3. orbite aperte senza punti di intersezione.
Proposizione 1.10. Sia dato un sistema dinamico
xi = fi(x1, . . . , xn).
Sia W (x1, . . . , xn) una funzione positiva sull’insieme di definizione del si-
stema dinamico. Allora quest’ultimo ammette le stesse orbite del sistema
xi = fi(x1, . . . , xn)W (x1, . . . , xn)
Definizione 1.20. Dato un campo vettoriale f, continuo e differenziabile,
definito su X ⊂ Rn, la divergenza di f nel punto x ∈ X e
div(f(x)) =
n∑i=1
∂fi∂xi
(x),
cioe e la traccia dello Jacobiano di f.
Forti di questa definizione, riportiamo un risultato molto utile:
Proposizione 1.11. Se l’insieme X e aperto e f ∈ C1(X), con div(f(x)) ≥0 per ogni x ∈ X, allora il sistema dinamico x = f(x) non ammette punti di
equilibrio asintoticamente stabili.
Capitolo 2
Teoria Evolutiva Dei Giochi
La teoria dei giochi evolutiva e nata come applicazione della teoria dei
giochi alla biologia, grazie all’introduzione alla nozione di strategia evoluti-
vamente stabile (ESS) da parte di John Maynard Smith in ‘Evolution and
the Theory of Games’, [15]. Diversamente dalla teoria classica, in cui i gioca-
tori sono ritenuti perfettamente razionali e giocano una volta sola, in questo
contesto si considera una popolazione dalla quale vengono ripetutamente
scelti dei giocatori ‘programmati’ ad utilizzare una specifica strategia. A
modificare la frequenza con cui ciascuna strategia viene giocata e un qual-
che processo evolutivo, su cui i giocatori non hanno nessuna influenza e di
cui non sono a conoscenza. Tipicamente, una strategia viene considerata
una caratteristica genetica dell’individuo, il cui payoff e determinato in base
alla capacita riproduttiva dello stesso. In molti contesti, la teoria dei giochi
evolutiva risulta essere piu accreditata di quella classica, sostituendo all’i-
potesi molto stringente di razionalita dei giocatori il concetto di stabilita
evolutiva, e fornendo una scala unidimensionale di guadagno come successo
riproduttivo, al posto di una piuttosto soggettiva funzione di utilita dei gio-
catori.
2.1 Strategie Evolutivamente Stabili
Un concetto-chiave nella teoria evolutiva e quello di strategia evoluti-
vamente stabile. Con esso si intende che una strategia e resistente alla
pressione evolutiva che deriva dalla ripetizione di un gioco non cooperativo,
discreto e finito, a due giocatori. Una particolare importanza hanno i giochi
simmetrici, ai quali d’ora in poi faremo riferimento.
Il contesto e dunque quello di una popolazione sufficientemente vasta, in
24
2.1. STRATEGIE EVOLUTIVAMENTE STABILI 25
cui ogni individuo e ‘programmato’ geneticamente ad utilizzare una certa
strategia S, pura o mista, e dalla quale vengono ripetutamente scelti due
giocatori che si affrontano nel gioco, dove per gioco intendiamo un modello
matematico di interazione strategica dove i risultati delle azioni degli indi-
vidui dipendono dalle azioni degli altri.
Supponiamo ora che vi sia una mutazione, ovvero una piccola percentuale
della popolazione sia ora programmata all’utilizzo di una strategia diversa
M. La strategia S sara quindi detta evolutivamente stabile se, per ogni pos-
sibile strategia mutante M, esiste una soglia di popolazione, la cosiddetta
barriera di invasione, tale che, se la percentuale di individui che giocano la
strategia M e minore, allora S ottiene un payoff migliore di M.
Questo approccio e focalizzato su interazioni simmetriche tra coppie di gio-
catori di un’unica popolazione. Inoltre vi e una stretta correlazione implicita
tra payoff e diffusione di una strategia tra la popolazione: secondo un’inter-
pretazione biologica il payoff misura il guadagno della fitness di un individuo.
E’ importante ricordare che, come la nozione di equilibrio di Nash, la pro-
prieta di stabilita evolutiva non specifica come la popolazione arrivi a sele-
zionare una tale strategia, ma permette solo di riconoscerla come tale, una
volta che ci si arriva.
Oltre al campo biologico, la stabilita evolutiva risulta un criterio note-
volmente robusto anche per quanto riguarda i comportamenti umani, per
esempio nelle interazioni nel campo economico o sociale. In tali contesti,
la stabilita evolutiva richiede che ogni piccolo gruppo che prova una stra-
tegia alternativa ottenga risultati peggiori di chi si attiene allo status quo.
Si potrebbe quindi pensare ad una strategia evolutivamente stabile come
convenzione.
Come abbiamo detto, la teoria evolutiva ha come scenario i giochi non
cooperativi, discreti, simmetrici, con strategie pure che appartengono all’in-
sieme K = R1, ...,Rn. Le strategie miste sono invece i punti del simplesso
Sn.
Denotando con m ∈ Sn la strategia media della popolazione, il guadagno
atteso di una strategia p ∈ Sn sara pTAm. Per esempio, se una frazione ε
della popolazione gioca la strategia q ed il resto gioca p, m = εq + (1− ε)p.
La seguente definizione formalizza il concetto si stabilita evolutiva:
Definizione 2.1. Una strategia p ∈ Sn e evolutivamente stabile (ESS) se,
per ogni q 6= p ∈ Sn esiste ε(q) ∈ (0, 1) tale che vale
qTA (εq + (1− ε)p) < pTA (εq + (1− ε)p) (2.1)
per ogni ε : 0 < ε < ε(q) .
26 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI
In poche parole, cio significa che se p viene adottata da una popolazione
di giocatori, non puo essere invasa da alcuna strategia alternativa che sia
inizialmente rara.
Proposizione 2.1. Una strategia p ∈ Sn e ESS se e solo se
qTAp ≤ pTAp,∀q ∈ Sn (2.2)
qTAp = pTAp⇒ qTAq < pTAq,∀q 6= p ∈ Sn (2.3)
Dimostrazione. Se si scrive la (2.1) come
(1− ε)(pTAp− qTAp
)+ ε(pTAq − qTAq
)> 0
si vede subito che vale solo se sono verificate le condizioni (2.2) e (2.3).
Proposizione 2.2. Ogni equilibrio di Nash stretto e ESS. Ogni ESS e
equilibrio di Nash.
Dimostrazione. Un equilibrio di Nash e stretto se vale
qTAp < pTAp ∀q ∈ Sn
ovvero se e solo se vale la (2.2) strettamente.
La (2.2) esprime esattamente il fatto che (p,p) e un equilibrio simmetrico
di Nash.
Osserviamo che il contrario della prima affermazione non e vero: basti
pensare ad una ESS in strategie miste, essa non puo essere equilibrio di Nash
stretto dal momento che un equilibrio di Nash stretto e necessariamente in
strategie pure.
Esempio 2.1. Consideriamo il gioco con matrice dei payoff
A =
[3 6
4 5
].
Ricorrendo alla classificazione dei giochi 2 × 2 della sezione 1.4, possiamo
immediatamente identificare due equilibri di Nash in strategie pure anti-
simmetrici, (e1, e2) e (e2, e1), ed un equilibrio in strategie miste (p,p) con
p = (1/2, 1/2). Si verifica immediatamente che p e ESS, infatti, dalla 2.2),
pTAp = 9/2 > qTAp = 5/2 ∀q ∈ Sn.
La strategia p e pertanto ESS ma il corrispondente equilibrio di Nash
simmetrico non puo essere stretto, essendo in strategie miste.
2.1. STRATEGIE EVOLUTIVAMENTE STABILI 27
Per fare un esempio, invece, di ESS pura ma che non sia equilibrio stretto,
basta considerare un qualsiasi gioco con matrice dei payoff del tipo[x x
x y
]
con x > y. Infatti si verifica facilmente che la strategia p = e1 = [1, 0]T e
ESS, ma non e equilibrio stretto.
Per un esempio in cui non valga la seconda affermazione, rimandiamo agli
esempi.
Proposizione 2.3. Se p ∈ intSn e ESS, allora e l’unica ESS.
Dimostrazione. Ponendo q = ei nella (2.2) si ha
(Ap)i ≤ pTAp (2.4)
per i = 1, . . . , n. Moltiplicando (Ap)i per pT e utilizzando la definizione di
prodotto scalare
pTAp =∑pi>0
pi (Ap)i ≤
∑pi>0
pi
pTAp = pTAp
Quindi, per gli indici tali che pi > 0 deve valere l’uguaglianza in (2.4). Dal
momento che pTAp e una costante a priori incognita, che possiamo indicare
con c, si ottiene che (Ap)i ≤ c per tutti gli i, con l’uguaglianza dove pi > 0.
Se p ∈ intSn le sue componenti sono tutte non nulle, allora p soddisfa le
condizione d’equilibrio se e solo se le sue componenti soddisfano il sistema(Ap)1 = . . . = (Ap)n = c
p1 + . . .+ pn = 1.
Infine, ∀q ∈ Sn, qTAp = pTAp quindi deve necessariamente valere la condi-
zione di stabilita (2.3) per ogni q 6= p. Allora, se esistesse q 6= p ∈ Sn ESS,
dal momento che la (2.2) varrebbe col segno di uguaglianza, si dovrebbe
avere qTAp > pTAp che non puo essere verificata poiche p ∈ intSn.
Proposizione 2.4. p ∈ Sn e una ESS se e solo se
pTAx > xTAx (2.5)
per ogni x 6= p in qualche intorno di p.
28 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI
Dimostrazione. Vediamo che se p e ESS allora la (2.5) e verificata. Sce-
gliendo appropriatamente q per esempio all’interno del compatto C :=
q ∈ Sn| qi = 0 per qualche i ∈ supp(p), l’unione delle facce del sim-
plesso che non contengono p, possiamo scrivere i punti vicini a p come
x = εq + (1− ε) p, per un opportuno ε. Dal momento che q ∈ C, vale la
definizione di ESS 2.1 per ogni ε < ε(q). Per provare che vale la (2.5) bi-
sogna trovare un ε indipendente da q, per cui la disequazione sia verificata.
Si puo definire ε(q) come funzione continua, per esempio
ε(q) =
(p−q)TAp
(p−q)TA(p−q)se (p− q)T Aq < 0,
1 altrimenti.
Grazie al teorema di Weierstrass, si puo concludere che esiste ε :=
min ε(q)|q ∈ C. Moltiplicando la (2.1) per ε < ε ed aggiungendo (1− ε) pTA (εq + (1− ε) p)
ad entrambi i membri, si trova, riarrangiando i termini(εqT + (1− ε) pT
)︸ ︷︷ ︸xT
A (εq + (1− ε) p)︸ ︷︷ ︸x
< pTA (εq + (1− ε) p)︸ ︷︷ ︸x
.
Facendo variare ε ∈ (0, ε) , si ottiene la (2.5) in un intorno di p.
Per l’implicazione inversa, il ragionamento e simile: per ogni q ∈ Sn,
basta scegliere un x vicino a p come combinazione convessa di q e p, per
un opportuno ε. Con questa scelta, per quanto visto, la 2.1 e la (2.5) sono
equivalenti.
Proposizione 2.5. Se p ∈ Sn e una strategia debolmente dominata, allora
non puo essere ESS.
Dimostrazione. Supponiamo che p sia un equilibrio di Nash, debolmente
dominato da un’altra strategia q ∈ Sn. Allora q e una best reply alternativa
a p (pTAp = qTAp), e per la dominanza debole qTAq ≥ pTAq, cioe p non
e ESS.
2.1.1 Esempi
Esempio 2.2. Qualsiasi gioco che abbia matrice dei payoff antisimmetrica, 0 x −x−x 0 x
x −x 0
2.1. STRATEGIE EVOLUTIVAMENTE STABILI 29
ha un equilibrio di Nash p =(
13 ,
13 ,
13
), ma si verifica facilmente che que-
sto non puo essere ESS perche prendendo, per esempio, q = e1, si ha,
considerando la (2.1),
0 = eT1 Ap ≤ pTAp = 0.
Deve valere allora la (2.2), ma si ha
0 = eT1 Ae1 < pTAe1 = 0
ovvero la condizione di stabilita non e verificata. Il gioco quindi non ha ESS.
L’esempio piu conosciuto di giochi con matrice dei payoff di questo tipo e
sasso-carta-forbice: 0 1 −1
−1 0 1
1 −1 0
Esempio 2.3. Seguendo l’impronta della sezione 1.4, vediamo per quali
categorie di giochi simmetrici 2x2 esistono una, piu o nessuna ESS.
• Categoria I e IV: Abbiamo visto che in questa categoria ricadono i
giochi tipo Dilemma del Prigioniero, per i quali vi e un unico equilibrio
di Nash stretto. In virtu della proposizione 2.2 possiamo concludere
che esso e l’unica ESS per questa categoria.
• Categoria II: Per questa categoria, esistono due equilibri di Nash che
sono stretti e quindi sono ESS. Tuttavia, esiste anche un equilibrio di
Nash in strategie miste (x,x) ∈ intS2. Pertanto, per la proposizione
2.3, x non puo essere ESS, altrimenti dovrebbe essere l’unica.
• Categoria III: In questo caso i due equilibri di Nash in strategie pure
non sono stretti. Inoltre, dopo qualche verifica, risulta che (x,x) e ESS
e, dal momento che (x,x) ∈ intS2, e l’unica.
Tornando al caso specifico di Falchi e Colombe, la cui matrice dei
payoff e [(v − c)/2 v
0 v/2
]si trova facilmente che, seguendo la notazione della sezione 1.4, a1 =
(v − c)/2 e a2 = −v/2, quindi x =(
a2a1+a2
, a1a1+a2
)=(vc ,
c−vc
), dove il
primo termine e la probabilita di giocare la strategia Falco, o meglio,
la frequenza di Falchi nella popolazione, ed il secondo quella delle
Colombe. (x,x) e una ESS, infatti
xTAy− yTAy =(v − cy1)2
2c> 0 ∀y1 6=
v
c.
30 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI
Cerchiamo di capire il senso che in questo gioco assume il concetto di
ESS: se la frequenza dei Falchi e minore di v/c, allora questa e la stra-
tegia mutante, ovvero i pochi Falchi della popolazione si scontrano piu
spesso contro le Colombe che coi loro simili, ottenendo un payoff mag-
giore e quindi un successo maggiore come strategia. A questo punto
la frequenza dei Falchi cresce, essendo la strategia migliore, fino ad un
punto in cui sono le Colombe ad essere rare ed i Falchi molto frequenti.
Dal momento che per un Falco e piu dispendioso in media affrontare
uno scontro con un altro Falco di quanto lo sia per una Colomba in-
contrare un Falco ((v − c)/2 < 0), e ora la strategia della Colomba a
diffondersi come piu conveniente. In questo senso, in corrispondenza
della ESS questa oscillazione non si verifica, ovvero nessuna delle due
strategie puo essere invasa dall’altra.
2.2 Dinamica di Gioco
In generale, un processo evolutivo e una combinazione di due elementi:
un meccanismo di mutazione che introduce varieta, e un meccanismo di
selezione che predilige certe varieta ad altre. Il criterio di stabilita evolutiva
ha a che fare con il ruolo delle mutazioni, mentre le dinamiche di replicazione
con quello della selezione.
La teoria evolutiva dei giochi studia la dinamica del gioco modellandola con
equazioni differenziali sul simplesso Sn.
2.2.1 Le Equazioni della Replicazione
Consideriamo una popolazione vasta che dispone di n strategie E1, . . . ,En
pure o miste, sia ai(t) il numero di individui che utilizza la strategia Ei.
Supponiamo che a(t) =∑
i ai(t) ≥ 0 sia il numero totale di individui della
popolazione.
Definizione 2.2. Lo stato della popolazione e un vettore x = (x1, . . . , xn),
in cui ogni componente xi(t) = ai(t)a(t) e la frazione di individui che utilizza la
strategia corrispondente, ovvero la frequenza della strategia.
Definizione 2.3. Una strategia i e eliminata (per qualche stato iniziale
x(0)) se xi(t)→ 0 per t→∞.
Chiaramente∑
i xi(t) = 1 ∀t, quindi x ∈ Sn.
Supponiamo che la popolazione sia sufficientemente vasta e che vi sia un
2.2. DINAMICA DI GIOCO 31
passaggio sufficientemente veloce tra una generazione e l’altra; allora pos-
siamo assumere che lo stato della popolazione x(t) evolva come funzione
differenziabile del tempo in Sn. Il rapporto xi/xi e il tasso di crescita della
strategia Ei e quindi misura il suo successo evolutivo. Possiamo suppor-
re che questo successo possa essere espresso in termini della differenza tra
il guadagno fi(x) della strategia Ei e il guadagno medio della popolazio-
ne f(x) =∑xifi(x), imitando il meccanismo della selezione naturale: si
ottengono le cosiddette equazioni della replicazione
xi = xi(fi(x)− f(x)
)i = 1 . . . n. (2.6)
I replicatori sono le strategie, le quali vengono copiate identiche di genera-
zione in generazione. Cio che puo cambiare e lo stato della popolazione.
Osservazione 2.1. La frazione di popolazione ‘programmata’ ad usare una
certa strategia cresce nella dinamica della replicazione solo se la strategia
guadagna un payoff maggiore di quello medio attuale della popolazione.
Proposizione 2.6. Il simplesso Sn, il suo interno intSn e il suo bordo ∂Snsono invarianti rispetto alle equazioni della replicazione (2.6).
Dimostrazione. • invarianza di ∂Sn: ∂Sn e dato dall’insieme x ∈ Sn|∃i, xi =
0; se ∃t|i(t) = 0, allora xi = 0∀t in base alle (2.6).
• invarianza di Sn: per prima cosa osserviamo che l’insieme H = x ∈<n|
∑xi = 1 e invariante. Infatti, se x ∈ H,
d
dt
∑xi =
∑xi =
∑xifi(x)−
1︷ ︸︸ ︷(∑xi
) f(x)︷ ︸︸ ︷∑xjfj(x) = 0
Notiamo inoltre che Sn = H ∩ Rn+. Vogliamo dimostrare che ogni
soluzione che parta nel simplesso, non ne esce: se per assurdo non
fosse vero, esisterebbero ξ ∈ Sn ed un tempo t, tali che la soluzione
Φ(t, ξ) /∈ Sn (ma Φ(t, ξ) ∈ H dal momento che H e invariante). Questa
soluzione dovrebbe quindi attraversare il bordo di Sn; supponendo che
f sia lipschitziana, possiamo applicare il teorema di esistenza ed uni-
cita, il quale garantisce che Φ sia soluzione unica delle equazioni della
replicazione e che sia continua in t. Per continuita, dunque, dovreb-
bero esistere un tempo s < t ed una strategia i, tali che Φi(s, ξ) = 0 e
Φi(t, ξ) < 0. Cio e assurdo in virtu del fatto che abbiamo ottenuto una
soluzione Φ(t, ξ) : < → Rn passante per Φi(s, ξ), distinta da quella con
la i-esima coordinata costantemente pari a 0, violando l’unicita.
32 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI
• invarianza di intSn: ripetendo lo stesso ragionamento, si vede subito
che un punto che parte all’interno del simplesso, non puo raggiungere
il bordo altrimenti si avrebbero due soluzioni distinte passanti per uno
stesso punto sul bordo, violando l’unicita.
Grazie a questo risultato, possiamo d’ora in avanti considerare solo la
restrizione delle (2.6) al simplesso Sn.
Osservazione 2.2. Esistono altre dinamiche, oltre quella della replicazione,
che si basano su ipotesi diverse. In particolare segnaliamo le dinamiche
di imitazione, di risposta ottima e correzione. Introduciamo brevemente
le prime due, la terza verra approfondita in seguito. Per un discorso piu
approfondito, si faccia riferimento a [7],[12] e [14].
Dinamica di Imitazione
In molti contesti, per esempio per quanto riguarda le interazioni sociali
tra giocatori umani, le strategie che ottengono piu successo si diffondono
attraverso l’imitazione piu che per ereditarieta.
Supponiamo quindi che occasionalmente venga scelto a caso un giocatore
dalla popolazione, e che gli venga offerta l’opportunita di cambiare la sua
strategia. Egli quindi sceglie casualmente un altro giocatore, di cui adottare
la strategia con una certa probabilita.
Un possibile modello potrebbe essere il seguente:
xi = xi∑j
[fij(x)− fji(x)]xj ,
dove
fij(x) = f ((Ax)i, (Ax)j)
definisce una regola di imitazione, identica per ogni giocatore ed indipenden-
te da i e j. Ovviamente, diverse scelte di f definiscono diverse dinamiche.
Una scelta abbastanza naturale potrebbe essere quella di imitare una stra-
tegia migliore della propria, cioe f(u, v) = 0 se u < v e f(u, v) = 1 se
u > v.
Dinamica di Risposta Ottima
Consideriamo generazioni discrete di individui ed assumiamo che ad ogni
generazione subentri un nuovo giocatore, razionale, in grado di valutare ed
2.2. DINAMICA DI GIOCO 33
adottare come strategia la risposta ottima allo stato corrente della popola-
zione. Pertanto, alla generazione k+1, il nuovo arrivato sceglie una strategia
rk+1 ∈ E1, . . . ,En che massimizzi il suo payoff atteso contro la strategia
media (o stato) della popolazione sk = 1k
∑ki=1 ri. Il nuovo giocatore uti-
lizzera la strategia rk+1 per il resto del gioco. La strategia media viene
modificata nel modo seguente:
sk+1 − sk =rk+1 − skk + 1
,
con rk+1 ∈ β(sk), l’insieme delle risposte ottime contro la strategia sk ∈ Sn,
cioe
β(x) = y ∈ SN : yTAx = maxz∈SN
zTAx. (2.7)
Passando da generazioni discrete a continue, dopo alcune considerazioni si
perviene alla dinamica di risposta ottima
x = β(x)− x.
2.2.2 Dinamica ed ESS
Torniamo al contesto iniziale: consideriamo un gioco G in cui una po-
polazione dispone di N strategie pure R1, . . . ,RN , vertici del simplesso
SN ; tutte le strategie per questo gioco (pure e miste) sono indicate con
E1, . . . ,En ∈ SN dove N ≤ n. Indichiamo con U ∈ RN×N la matrice dei
payoff e con x, vettore di n componenti (i.e. x ∈ Sn), lo stato della popola-
zione nel gioco G. Costruendo una matrice A ∈ Rn×n con, come componenti,
i payoff di una strategia i contro una strategia j (i.e. aij = ETi UEj ), si puo
considerare un nuovo gioco G nel quale A e la matrice dei payoff e per il
quale E1, . . . , En possono essere considerate strategie pure, mentre le com-
ponenti dello stato della popolazione x = (x1, . . . , xn) per G diventano le
strategie miste per G. Osserviamo inoltre che
fi(x) = ETi U∑j
xjEj =∑j
ETi UEjxj =
∑j
aijxj = (Ax)i .
Con questa notazione, quindi, le equazioni della replicazione diventano
xi = xi((Ax)i − xTAx
). (2.8)
I punti di equilibrio per (2.8) saranno quei punti z = (z1, . . . , zn) ∈ Sn tali
che (Az)i = zTAz = c per ogni zi > 0.
34 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI
Osservazione 2.3. In seguito, salvo diverse indicazioni, la condizione ini-
ziale per la dinamica della replicazione sara del tipo
x(0) = x ∈ intSn
perche altrimenti, per l’invarianza di ∂Sn, troveremmo soltanto soluzioni sul
bordo del simplesso.
Ricapitolando, vi e un parallelismo tra le strategie pure R1, . . . ,RN ,
punti di SN , e matrice dei payoff U di dimensione N ×N da una parte e i
‘tipi di giocatori’ E1, . . . ,En, punti di Sn, e matrice dei guadagni attesi A
di dimensione n× n dall’altra.
Definizione 2.4. x ∈ Sn e equilibrio di Nash (simmetrico) per G se
yTAx ≤ xTAx ∀x ∈ Sn.
Definizione 2.5. Uno stato x ∈ Sn e evolutivamente stabile se valgono
yTAx ≤ xTAx ∀y ∈ Sn (2.9)
yTAx = xTAx⇒ yTAy < xTAy ∀y 6= x ∈ Sn, (2.10)
ovvero x ∈ Sn e uno stato evolutivamente stabile per G se e ESS per G.
Esempio 2.4. Riprendiamo l’esempio di Falchi e Colombe: vi sono due
strategie pure, E1 = (1, 0) ed E2 = (0, 1), e due giocatori, la matrice di
payoff e
U =
[(v − c)/2 v
0 v/2
].
Vogliamo scrivere le equazioni della replicazione: chiamiamo x1 e x2 rispet-
tivamente le frequenze di E1 ed E2. Dal momento che, per questo gioco,
n = 2 e quindi x2 = 1 − x1, il sistema della replicazione si riduce alla sola
equazione per x1:
x1 = x1(1− x1)((Ax)1 − (Ax)2)
ed in questo caso (x1 = x)
x =1
2x(1− x)(v − cx).
Come abbiamo gia visto, la strategia(vc ,
c−vc
)e una ESS per il gioco. No-
tiamo, inoltre, che il punto x = vc e di equilibrio per l’equazione della repli-
cazione, e asintoticamente stabile dal momento che lo Jacobiano e negativo,
2.2. DINAMICA DI GIOCO 35
ed un teorema che vedremo in seguito garantisce addirittura che sia global-
mente stabile.
Supponiamo ora che, alle due strategie pure, si aggiunga una terza strategia
mista, ovvero una terza razza che si comporti a volte come un falco, a volte
come una colomba: E3 = xE1 + (1− x)E2 =(vc ,
c−vv
).
Costruiamo la matrice dei payoff A:
A =
ET1 UE1 ET
1 UE2 ET1 UE3
ET2 UE1 ET
2 UE2 ET2 UE3
ET3 UE1 ET
3 UE2 ET3 UE3
=
v−c
2 v v(c−v)2c
0 v2
v(c−v)2c
v(c−v)2c
v(c+v)2c
v(c−v)2c
e osserviamo che E3 e ESS nel gioco originale e per questo non puo essere
invasa da E1 o E2. Tuttavia, lo stato corrispondente e3 = (0, 0, 1) non e
evolutivamente stabile.
Ricordiamo che, ripetendo il ragionamento della dimostrazione della
proposizione 2.3, le condizioni perche x sia ESS per G diventano
(Ax)i < xTAx ∀i t.c. xi = 0 (2.11)
(Ax)i = xTAx ∀i t.c. xi > 0 (2.12)
Teorema 2.7. Valgono le seguenti proprieta:
1. Se z e un equilibrio di Nash per G, allora e punto di equilibrio per
(2.8);
2. Se z e un punto di equilibrio stabile per (2.8), allora e equilibrio di
Nash per G;
3. Se z e un punto limite di un’orbita interna per (2.8) ( cioe ∃ξ 6= z ∈intSn tale che limt→∞Φ(t, ξ) = z), allora e un equilibrio di Nash per
G.
4. Se z e uno stato evolutivamente stabile per G (ovvero e ESS per G),
allora e un punto di equilibrio asintoticamente stabile per (2.8).
Dimostrazione. 1. Se z e equilibrio di Nash allora verifica (Az)i = zTAz ∀jtale che zj > 0, quindi annulla la parte destra di (2.8) ovvero e punto
di equilibrio per il sistema.
2. Supponiamo per assurdo che z sia un punto di equilibrio stabile per il
sistema, ma che non sia un equilibrio di Nash per G.
Essendo punto di equilibrio del sistema, z soddisfa (Az)i = zTAz ∀j
36 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI
tale che zj > 0, ma non essendo equilibrio di Nash deve necessariamen-
te esistere un indice i tale che zi = 0 e (Az)i > zTAz (cioe e violata
la condizione (2.3) ). Per continuita esiste dunque un δ = δ(z) tale
che in un intorno I di z (Ay)i − yTAy ≥ δ ∀y ∈ I. Una qualsiasi
soluzione y(t) del sistema (2.8) con y(0) ∈ I allora soddisfa
yi(t) = yi(t)((Ay)i − yTAy
)≥ yi(t)δ ∀t > 0 t.c. y(t) ∈ I.
Applicando il lemma di Gronwall con v(t) = δ otteniamo
y(t) ≥ y(0)eδt ∀t > 0 t.c. y(t) ∈ I,
ovvero qualsiasi soluzione del sistema che parta in I, si allontana da z
con velocita esponenziale, in contraddizione con la nozione di equilibrio
stabile.
3. Come per il punto precedente procediamo per assurdo: supponiamo
che ∃ξ 6= z ∈ intSn, tale che limt→∞Φ(t, ξ) = z ma che ∃i tale che
zi = 0 e (Az)i > zTAz, cioe z non sia un equilibrio di Nash. Come
prima, deve esistere δ = δ(z) tale che, in corrispondenza della strategia
i, (Az)i − zTAz > δ. Dal momento che per ipotesi Φ(t, ξ) → z, esiste
un certo tempo t tale che,
(AΦ)i − ΦTAΦ > δ/2 ∀t ≥ t
cioe
Φi(t, ξ) > Φi(t, ξ)δ
2∀t ≥ t.
Applicando il lemma di Gronwall con v(t) = δ2 , risulta
Φ(t, ξ) > Φ(t, ξ)eδ2
(t−t) ∀t ≥ t,
ma, dal momento che Φ(t, ξ) > 0, si avrebbe Φ(t, ξ)→∞, in contrad-
dizione con l’ipotesi di partenza su z.
4. Supponiamo che z sia uno stato evolutivamente stabile; vogliamo usare
il teorema di Lyapunov per dimostrare che e un punto di equilibrio
asintoticamente stabile. La funzione
V (x) =∏zi>0
zzii −∏zi>0
xzii ,
risulta infatti essere una funzione di Lyapunov per z:
2.2. DINAMICA DI GIOCO 37
• V (z) = 0
• V (x) > 0 per x 6= z in un intorno di z, infatti,
V (x) > 0⇔∏zi>0
xzii <∏zi>0
zzii ⇔ log
(∏zi>0
xzii
)< log
(∏zi>0
zzii
)
che equivale a ∑zi>0
zi log
(xizi
)< 0.
Quest’ultima disuguaglianza e verificata, come si puo vedere sfrut-
tando la stretta concavita del logaritmo e la disuguaglianza di
Jensen: ∑zi>0
zi log
(xizi
)≤ log
(∑zi>0
zixizi
)= log 1 = 0
dove l’uguaglianza si ha solo nel caso in cui xi = zi per i =
1, . . . , n.
• V (x) < 0 ∀x 6= z, in un intorno di z: per verificarlo e sufficiente
dimostrare che P (x) > 0 in un intorno di z, dove
P := −V +∏zi>0
zzii =∏zi>0
xzii ,
poiche il termine∏zi>0 z
zii e costante rispetto a x e pertanto le
derivate di V e P differiscono solo per il segno. Notiamo che P e
una funzione non negativa, dunque limitiamo lo studio del segno
della derivata agli x ∈ x|xi > 0 ∀i t.c. zi > 0:
P (x) = Pd logP
dt= P
d
dt
∑zi>0
zi log xi =
= P∑zi>0
zixixi
= P∑zi>0
zi((Ax)i)− xTAx
)= P
(zTAx− xTAx
).
Dal momento che z per ipotesi e uno stato evolutivamente stabile,
per ogni x 6= z, questa quantita risulta positiva, di conseguenza
V (x) e negativa.
Abbiamo verificato quindi che V (x) e funzione di Lyapunov per z, in
particolare essa risulta essere di Lyapunov stretta, dunque applicando
il teorema risulta che z e asintoticamente stabile per (2.8).
38 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI
Esempio 2.5. Consideriamo il gioco con matrice dei payoff[6 4
5 7
].
Gli equilibri di Nash (simmetrici) sono (e1, e1), (e2, e2), stretti, e
(p,p) := ([3/4, 1/4] , [3/4, 1/4]) ∈ intSn. In virtu dei teoremi 2.2 e 2.3,
possiamo immediatamente concludere che e1 ed e2 sono ESS, mentre p non
lo e. Dal teorema precedente, ci aspettiamo che e1, e2 e p siano punti di
equilibrio per la dinamica della replicazione e che, in particolare, le due ESS
siano asintoticamente stabili nella dinamica della replicazione.
L’equazione della replicazione risulta
x = x(−4x2 + 7x− 3),
la cui parte destra si annulla per x = 1, 0, 3/4, come previsto. Calcolando
gli esponenti di Lyapunov, si trova
x = 1→ λ = −1 < 0
x = 0→ λ = −3 < 0
x = 3/4→ λ = 3/4 > 0
Pertanto, grazie al teorema 1.6, possiamo concludere che effettivamente
le due ESS sono asintoticamente stabili nella dinamica della replicazione.
Invece la strategia p risulta essere instabile.
Osservazione 2.4. Il viceversa della prima affermazione vale solo se z ∈intSn. Infatti, in quel caso zi 6= 0 per ogni i ed essendo z punto di equilibrio
(Az)1 = . . . = (Az)n, quindi z e equilibrio di Nash. Invece, se z ∈ ∂Sn,
esiste un indice i tale che zi = 0, ma il fatto che z sia punto di equilibrio
non esclude che possa verificarsi che (Az)i > zTAz, quindi z potrebbe non
essere equilibrio di Nash.
Esempio 2.6. Un esempio che mostra che non e verificato il viceversa della
quarta affermazione del teorema 2.7, ovvero di punto di equilibrio asintoti-
camente stabile che non sia evolutivamente stabile, si ottiene considerando
la matrice
A =
0 6 −4
−3 0 5
−1 3 0
.Per questo gioco, vi sono due equilibri di Nash (simmetrici): e1 = (1, 0, 0)
e m =(
13 ,
13 ,
13
). Ricordando che x3 = 1 − x1 − x2, le equazioni della
2.2. DINAMICA DI GIOCO 39
replicazione sono:
x1 = x1(−5x21 + 8x2
2 + 9x1 + 2x2 − 4)
x2 = x2(−5x21 + 8x2
2 − 3x1 − 13x2 + 5)
Il punto m e di equilibrio per il sistema della replicazione; inoltre gli espo-
nenti di Lyapunov del sistema risultano avere parte reale negativa: −13±√
23 i.
Ne segue che m e un pozzo e quindi e asintoticamente stabile.
Tuttavia e immediato verificare che e1 e ESS; cio esclude la possibilita che
lo sia anche m dal momento che m ∈ intS3 e quindi, se fosse ESS, sarebbe
l’unica.
Per gli esempi in cui non sono verificate le altre affermazioni, rimandia-
mo all’esempio dettagliato del gioco Carta-Sasso-Forbice.
Corollario 2.8. Se z ∈ intSn e una ESS per G, allora e un punto di
equilibrio globalmente asintoticamente stabile per (2.8).
Dimostrazione. Ricalcando la dimostrazione del teorema, si ha che P (x) >
0 ∀x 6= z ∈ intSn.
2.2.3 Dinamica e Strategie Strettamente Dominate
Vogliamo ora vedere come si comportano le strategie strettamente do-
minate nella dinamica della replicazione. Ricordiamo che, dato il gioco sim-
metrico con matrice dei payoff A, una strategia ei e strettamente dominata
se esiste una strategia (pura o mista) y ∈ Sn tale che
(Ax)i < yTAx
per ogni x ∈ Sn. Se i giocatori sono razionali, si puo supporre che nes-
suno di essi usera mai una strategia strettamente dominata. La dinamica
della replicazione tuttavia, non presuppone la razionalita dei giocatori ed
una domanda legittima puo essere quindi come ‘evolve’ la frequenza di una
strategia strettamente dominata. Ci proponiamo ora di dare una risposta:
vedremo che la frequenza di tali strategie tende effettivamente a zero.
Introduciamo una classe piu generale di giochi, per i quali la dinamica e
descrivibile con equazioni del tipo
xi = xigi(x), (2.13)
dove ogni funzione gi e C1(Ω), Ω aperto, Ω ⊃ Sn, e ha la proprieta che∑xigi(x) = 0 per ogni x ∈ Sn, (2.14)
in modo che Sn e ∂Sn siano invarianti.
40 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI
Definizione 2.6. Una dinamica di gioco e detta a payoff monotono se, per
ogni x ∈ Sngi(x) > gj(x)⇔ (Ax)i > (Ax)j . (2.15)
Cio significa che i tassi di crescita della frequenza di strategie diverse so-
no ordinati secondo il loro payoff (la frequenza di strategie pure con payoff
maggiore cresce piu velocemente).
Osservazione 2.5. La dinamica della replicazione e a payoff monotono,
infatti
gi(x) = (Ax)i − xTAx
e quindi
gi(x)− gj(x) = (Ax)i − (Ax)j .
Esempio 2.7. Un modello molto popolare e il seguente:
xi = xi
ek(Ax)i −n∑j=1
xjek(Ax)j
, (2.16)
con k costante positiva. Questo modello e interessante perche approssima la
dinamica della replicazione per k → 0 e la dinamica di risposta ottima per
k →∞.
Ripetendo ragionamenti gia fatti per la dinamica della replicazione, si
puo dimostrare il seguente risultato:
Proposizione 2.9. Ogni dinamica di gioco a payoff monotono ha gli stessi
punti di equilibrio della dinamica della replicazione. Inoltre vale il teorema
2.7.
Lemma 2.10. Sia x(t) ∈ Sn lo stato della popolazione. Se xi(t) soddisfa le
equazioni della dinamica di gioco (2.13), allora vale la regola del quoziente:
˙(xixj
)=
(xixj
)(gi(x)− gj(x)) (2.17)
Dimostrazione. Sviluppando il termine di destra e sostituendo le equazioni
(2.13) per xi ed xj si ha la tesi.
Dimostriamo ora un primo risultato.
Proposizione 2.11. Se una strategia pura i e strettamente dominata da
un’altra strategia pura j, cioe (Ax)i < (Ax)j per ogni x ∈ Sn, allora xi → 0
lungo tutte le soluzioni interne della dinamica (2.13) a payoff monotono.
2.2. DINAMICA DI GIOCO 41
Dimostrazione. Dal momento che la dinamica di gioco e a payoff monotono,
(Ax)i < (Ax)j ⇒ gi(x) < gj(x).
Per continuita esiste δ > 0 tale che gi(x) − gj(x) < −δ. Allora, grazie alla
regola del quoziente, si ottiene
˙(xi(t)
xj(t)
)< −xi(t)
xj(t)δ ∀t,
ovvero il rapporto xi(t)/xj(t)→ 0 con velocita esponenziale. Dal momento
che xj e limitata dal valore 1, cio significa che xi(t)→ 0 per t→∞.
Possiamo ora passare ad un risultato piu generale, introducendo per
prima cosa la dinamica di gioco monotona convessa:
Definizione 2.7. Una dinamica di gioco (2.13) e detta monotona convessa
se
yTAx > (Ax)i ⇒∑
yjgj(x) > gi(x) (2.18)
per ogni i e per ogni x,y ∈ Sn.
Osservazione 2.6. La dinamica della replicazione e monotona convessa.
Infatti gi(x) = (Ax)i − xTAx e∑yjgj(x) =
∑yj (Ax)j −
∑yjx
TAx = yTAx− xTAx.
Teorema 2.12. Se la dinamica di gioco (2.13) e monotona convessa e
la strategia pura Ri e iterativamente strettamente dominata, allora la sua
frequenza xi(t)→ 0.
Dimostrazione. Supponiamo inizialmente che Ri sia strettamente dominata
da una strategia y ∈ Sn; per la proprieta di monotonia convessa e per
continuita, esiste una costante δ > 0 tale che
gi(x)−∑
yjgj(x) < −δ
per ogni x ∈ Sn. Consideriamo la funzione P (x) := xi∏j x−yjj , cosı definita
si ha xi(t) < P (x(t)) per ogni t. Supponiamo che inizialmente vengano
giocate tutte le strategie: per ogni x(t) ∈ intSn
P (x) =∑k
∂P (x)
xjxj = xi
∏j
x−yjj − xi
∑k
xkykx−yk−1k
∏j 6=k
x−yjj =
= P (x)
(gi(x)−
∑k
ykgk(x)
)< −δP (x),
42 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI
dove l’ultima uguaglianza e dovuta al fatto che gi(x) = xi/xi. Pertanto,
P (x(t)), e quindi xi(t), decrescono con andamento esponenziale. Questo
ragionamento puo essere ripetuto per le strategie strettamente dominate
al round successivo e cosı via, finche non vi sono piu strategie da elimi-
nare. Quindi tutte le frequenze di strategie pure strettamente dominate
convergono a 0.
Esempio 2.8. Consideriamo il gioco con matrice dei payoff
A =
a c b γ
b a c γ
c b a γ
a+ β a+ β a+ β 0
,con c < a < b, 0 < β < b − a e γ > 0, le strategie R1,R2,R3 formano un
ciclo di risposte ottime (se il primo giocatore gioca la prima riga, la risposta
ottima del secondo e giocare la seconda colonna, e cosı via), pertanto la faccia
del simplesso con x4 = 0 e limitato da un’orbita eteroclina e1 → e2 → ~e3 →e1. Inoltre, in questa faccia giace il punto p = (1/3, 1/3, 1/3, 0). Notiamo
che la strategia R4 puo essere invasa da ciascuna delle altre Ri, i = 1, 2, 3,
infatti
RT4 AR4 = 0 < γ = RT
i AR4, ∀i = 1, 2, 3.
Analogamente, ogni Ri, i = 1, 2, 3 puo essere invasa da R4 dal momento
che
RTi ARi = a < a+ β = RT
4 ARi, ∀i = 1, 2, 3.
Quindi sul bordo del simplesso ci sono altri tre punti di equilibrio z1 =(γ
γ+β , 0, 0,β
γ+β
), z2 e z3 analoghi, che attraggono tutte le orbite sulle facce
x2 = 0, x3 = 0 e x1 = 0 rispettivamente, e che, pertanto, cono collegati da
un’altra orbita eteroclina (figura 2.1).
Se
a+ b+ c > 3(a+ β) (2.19)
la strategia ~p e un equilibrio di Nash e domina strettamente la strategia
R4. Per il teorema 2.12 possiamo concludere che, per la dinamica della
replicazione, e in generale per ogni dinamica monotona convessa, x4(t)→ 0.
In particolare la (2.19) implica 2a < b + c, quindi per l’equazione della
replicazione vecp e globalmente stabile: attrae tutte le orbite nell’interno
della faccia del simplesso con x4 = 0.
2.2. DINAMICA DI GIOCO 43
Figura 2.1
2.2.4 Non convergenza
Nel paragrafo 3.2.2 abbiamo visto che, se tutte le strategie sono gioca-
te inizialmente con frequenza non nulla e la soluzione della dinamica della
replicazione converge ad un punto, allora questo punto e un equilibrio di
Nash. In particolare, risulta che le soluzioni di diverse dinamiche evolutive
convergono agli equilibri di Nash per importanti classi di giochi, quali i gio-
chi con potenziale o i giochi a somma zero (si veda per esempio [14]).
Tuttavia, in generale, le soluzioni di dinamiche evolutive non devono neces-
sariamente convergere agli equilibri di Nash. Per illustrarne un esempio,
introduciamo una dinamica piu generale di quella della replicazione.
Definizione 2.8. Un’equazione differenziale x = f(x) su Sn e detta dina-
mica di correzione, se
xTAx ≥ 0, (2.20)
con disuguaglianza stretta se x non e equilibrio di Nash (o punto stazionario
della dinamica della replicazione).
Questa definizione richiede, di fatto, che la popolazione del gioco si
muova verso una risposta miglioro contro la situazione attuale, cioe x(t +
h)TAx(t) > x(t)TAx(t), per h > 0 piccolo. Nel limite per h → 0 si ha la
definizione.
Proposizione 2.13. Ogni dinamica a payoff monotono e una dinamica di
correzione.
44 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI
Da questo risultato segue che anche la dinamica della replicazione e una
dinamica di correzione.
Esempio 2.9. Sia, ε ≥ 0,
A =
0 0 −1 ε
ε 0 0 −1
−1 ε 0 0
0 −1 ε 0
. (2.21)
Per ε 6= 0 il gioco ha un unico equilibrio di Nash: p = (1/4, 1/4, 1/4, 1/4).
Scriviamo ora le equazioni della replicazione per il gioco. D’ora in avanti,
per semplicita, indicheremo ogni funzione fi con f . Indichiamo con (p, 1−p)e (q, 1− q) gli stati della popolazione, rispettivamente di A e B. Si ricava
p = p(1− p)(a1 − q(a1 + a2))
q = q(1− q)(b1 − p(b1 + b2))(3.1)
Per trovare gli equilibri di Nash e le ESS dobbiamo distinguere sei casi, in
ciascuno dei quali il gioco risulta avere un solo equilibrio di Nash:
1. a1 > 0, a2 > 0, b1 > 0, b2 < 0: l’equilibrio e (e2, e1) con payoff
(a2, b1);
2. a1 < 0, a2 > 0, b1 > 0, b2 < 0: come nel caso precedente, (e2, e1) e
equilibrio di Nash;
3. a1 > 0, a2 > 0, b1 < 0, b2 < 0: non esistono equilibri di Nash
in strategie pure ma quello in strategie miste e dato da (x,y) con
5. a1 > 0, a2 > 0, b1 < 0, b2 > 0: l’equilibrio e (e1, e2) con payoff
(a1, b2);
6. a1 < 0, a2 > 0, b1 < 0, b2 > 0: come nel caso 4, l’equilibrio di Nash
e (e2, e2) con payoff (0, 0).
E’ facile verificare che i punti (0, 0), (1, 1), (1, 0), (0, 1) e (x1, y1) sono punti
di equilibrio per la dinamica della replicazione (3.1). Questi punti, tranne
(1, 1), corrispondono agli equilibri di Nash del gioco. Grazie alla proposi-
zione 2.17 e al corollario 2.18 possiamo concludere che, in tutti e cinque i
casi in cui si ha un equilibrio di Nash in strategie pure, l’equilibrio di Nash
e una coppia di ESS, mentre nel caso 3 l’equilibrio di Nash non puo essere
evolutivamente stabile. Inoltre, per il teorema 2.25, le ESS sono punti di
equilibrio asintoticamente stabili nella dinamica della replicazione, mentre
il punto di equilibrio interno al simplesso non puo esserlo.
Per classificare le proprieta di stabilita degli altri punti di equilibrio di (3.1),
calcoliamo la matrice Jacobiana del sistema:
J =
[(1− 2p)(a1 − q(a1 + a2)) −p(1− p)(a1 + a2)
−q(1− q)(b1 + b2) (1− 2q)(b2 − p(b1 + b2))
].
Ne ricaviamo le seguenti considerazioni:
64 CAPITOLO 3. UN’APPLICAZIONE
• il punto (1, 1) (corrispondente alla coppia di strategie (e1, e1)) e insta-
bile per ogni scelta dei parametri;
• (1, 0) (corrispondente a (e1, e2)) e asintoticamente stabile nel caso 5
(come gia sappiamo), e un punto di sella nei casi 1,3 e 6, ed e instabile
nei casi 2 e 4;
• (0, 1) (corrispondente a (e2, e1)) e, come gia osservato, asintoticamente
stabile nei casi 2 e 4; e invece un punto di sella negli altri casi;
• (1, 1) (corrispondente a (e2, e2))e asintoticamente stabile nei casi 4 e
6, un punto di sella nei casi 2, 3 e 5, instabile nel caso 1.
Per quanto riguarda il punto (x, y) (corrispondente a (x,y)), abbiamo gia
detto che non puo essere asintoticamente stabile, tuttavia possiamo dimo-
strare che e stabile nel caso 3, verificando che la funzione
V (p, q) = b1 ln p+b2 ln(1−p)−a1 ln q−a2 ln(1−q)−c, c tale che V (x, y) = 0
(3.2)
e di Lyapunov non stretta per (x, y).
Proposizione 3.1. Il punto (x, y) nel caso 3 e un punto di equilibrio stabile
per la dinamica della replicazione.
Dimostrazione. Per costruzione, V (x, y) = 0. Per mostrare che V (p, q) > 0
per ogni (p, q) 6= (x, y), verifichiamo che V abbia un minimo stretto in (x, y).
Con un semplice calcolo si verifica che le ∂V (p,q)∂p e ∂V (p,q)
∂q si annullano in
(x, y). La matrice Hessiana risulta:
H =
−( b1p2 + b2(1−p)2
)0
0(a1q2
+ a2(1−q)2
) ;
essendo definita positiva (H11 > 0, H11H22 > 0), V ha un minimo in (x, y).
Sia ora B una palla aperta nel piano, che contiene (x, y). Dobbiamo veri-
ficare che dV (p,q)dt ≤ 0 per ogni (p, q) ∈ B − (x, y) e che dV (x,y)
dt = 0. Si
trova
dV (p, q)
dt= p(1− p)(a1 − q(a1 + a2))
b1(1− p)− b2pp(1− p)
+
+ q(1− q)(b1 − p(b1 + b2))−a1(1− q) + a2q
q(1− q)= 0
per ogni (p, q) 6= (x, y). Possiamo quindi concludere che, per il caso 3, V e
una funzione di Lyapunov non stretta per (x, y) che, pertanto, e stabile (ma
non asintoticamente).
3.3. ALTRE DINAMICHE ED ESEMPI 65
Da tutte queste considerazioni, si possono trarre numerose conclusioni.
Abbiamo visto che, se il costo per imparare la lingua del paese ospitante e
basso e non c’e nessuna prevenzione (da parte dello stato) contro il com-
portamento aggressivo dei cittadini (caso 1), man man nel tempo entrambe
le popolazioni tendono a diventare monomorfe, ossia ad usare ciascuna una
sola strategia. In particolare, in questa situazione, i cittadini tendono a
diventare accoglienti e gli immigrati tendono ad integrarsi completamente.
Cio accade piu facilmente quando gli immigrati provengono da un paese di
cultura molto simile a quella del paese ospitante.
Nel caso in cui il costo per l’integrazione e molto alto (caso 5), di nuovo si
ha un’evoluzione verso popolazioni monomorfe dove pero i cittadini si com-
portano tutti in modo ostile e gli immigrati non si integrano.
Se, invece, il costo per l’integrazione non e ne troppo alto ne troppo basso
(caso 3), nel tempo entrambe le popolazioni rimangono polimorfe, e l’uso di
una strategia o l’altra ha un andamento oscillatorio di generazione in gene-
razione.
Nelle situazioni in cui si puo prevenire un atteggiamento ostile da parte dei
cittadini (a1 < 0), a meno che il costo per l’integrazione sia basso (caso
2), gli immigrati non si integrano, anche se la popolazione locale tende ad
abbandonare le ostilita nei loro confronti (casi 4 e 6). Per esempi storici e
di attualita, si consulti [1].
3.3 Altre Dinamiche ed Esempi
Consideriamo la dinamica definita dalla (2.16). Ricordiamo che, per k →0, viene approssimata la dinamica della replicazione, mentre per k → +∞si ottiene la dinamica di risposta ottima. Scriviamo la dinamica del gioco:
p = p(1− p)(eka1(1−q) − eka2q
)q = q(1− q)
(ekb1(1−p) − ekb2p
) (3.3)
Come ci aspettiamo dal teorema 2.9, i punti di equilibrio del sistema sono
gli stessi della dinamica della replicazione. Nelle figure seguenti mostriamo
delle simulazioni dei vari casi, in blu sono le traiettorie del sistema (3.3) con
k = 1, in verde quelle del sistema della replicazione. I parametri utilizzati
sono i seguente: fissato (1− α)f(P ) = 1.5, per avere a1 > 0 abbiamo scelto
f(X) = 0.6 e per a1 < 0 f(X) = 2. Nei casi in cui b1 > 0 e b2 < 0 sono
stati fissati f(K) = 0.5 e f(c) = 0.4. Per avere b1 < 0 e b2 < 0, f(K) = 0.2
e f(c) = 0.55 e per b1 < 0 e b2 > 0, f(K) = 0.2 e f(c) = 1.8.
66 CAPITOLO 3. UN’APPLICAZIONE
Figura 3.1: Caso 1 Figura 3.2: Caso 2
Figura 3.3: Caso 3 Figura 3.4: Caso 4
Figura 3.5: Caso 5 Figura 3.6: Caso 6
Capitolo 4
Dinamica ed Equilibri
Correlati
In questo capitolo, seguendo [17] e [18], introduciamo una famiglia di
giochi simmetrici 4×4, ottenuti aggiungendo una strategia ad un gioco RPS,
e studiamo nel dettaglio le orbite della dinamica della replicazione. Vedremo
che, a partire da un insieme aperto di condizioni iniziali, tutte le strategie
usate in equilibri correlati vengono eliminate, ovvero la loro frequenza tende
a 0 per t → ∞. Forniremo poi degli esempi, estendendo questo risultato
ad altre dinamiche di gioco. Vedremo infine che nei giochi 2 × 2 cio non si
verifica, anzi, ogni strategia nel supporto di un equilibrio correlato non viene
mai eliminata nella dinamica della replicazione. Per l’estensione ai giochi
3× 3 rimandiamo a [19].
4.1 Dinamica della Replicazione
Per prima cosa dimostreremo che esiste un unico equilibrio correlato per
il gioco RPS (2.22). Successivamente, ci concentreremo sui giochi RPS del
tipo (2.24) e ne studieremo l’estensione 4× 4.
Proposizione 4.1. Ogni gioco RPS ha un unico equilibrio correlato: z⊗z1
(z e dato dall’espressione (2.23) ).
Dimostrazione. Supponiamo che µ sia un equilibrio correlato per (2.22).
Usando la definizione, sappiamo che, per esempio scegliendo i = 1, i = 2, 3,
1 Per x ∈ Sn, x ⊗ x e la distribuzione di probabilita su Sn indotta da x: se x e un
vettore colonna x⊗ x = xxT
67
68 CAPITOLO 4. DINAMICA ED EQUILIBRI CORRELATI
devono valere le disuguaglianze
− b1µ11 − a2µ12 + (a3 + b3)µ13 ≥ 0, (4.1)
a1µ11 − (a2 + b2)µ12 + b3µ13 ≥ 0. (4.2)
Sommiamo ora le due disequazioni, avendo moltiplicato la (4.1) per a1 e la