Esempi di processi stocastici Processi PAM Processi gaussiani Processi di Markov
Processi e catene di Markov
Cominciamo col capire cosa sono le catene di Markov. Prendiamo un meteo, in cui si hanno soltanto due stati:
- sole, ;
- nuvoloso, .
Se oggi c'è il sole, allora domani ci sarà
- sole con probabilità ;
- nuvoloso con probabilità .
Al contrario, se oggi è nuvoloso, allora domani ci sarà
- sole con probabilità ;
- nuvoloso con probabilità .
Questa è una catena di Markov. Il tempo di domani dipende dal tempo di oggi, e non dal tempo di ieri; inoltre, la probabilità che esce da ogni stato è unitaria, quindi anche la probabilità che in un dato istante si sia in un determinato punto soddisferà anch'essa la proprietà di uniterietà.
In altre parole, possiamo scrivere che una variabile casuale dipende solo dalla variabile casuale , mentre è indipendente da tutte le variabili casuali precedenti l'istante .
Implicazioni:
- la probabilità del futuro, dato passato e presente, dipende solo dal presente.
- la probabilità del futuro, congiunta a quella del passato e conoscendo il presente, è
- Gli eventi che soddisfano questa seconda condizione sono detti condizionalmente indipendenti, cioè sono indipendenti soltanto se vi è la conoscenza dello stato intermedio. Nel caso in cui non si conosca il presente, allora passato e futuro non sono più indipendenti.
Densità di probabilità del processo di Markov
Per caratterizzare una catena di Markov è sufficiente conoscere la densità di probabilità del second'ordine, non serve scendere fino all'-esimo ordine. In questo modo, la trattazione diventa molto più semplice, fino a renderla quasi banale.
Classificazione
I processi di Markov si possono classificare in base allo stato/tempo continuo/discreto:
- stato continuo e tempo continuo: processo a tempo continuo;
- stato continuo e tempo discreto: processo a tempo discreto;
- stato discreto e tempo continuo: catena a tempo continuo;
- stato discreto e tempo discreto: catena a tempo discreto.
Catene di Markov a tempo discreto
Si ha
che sono due insiemi discreti. La catena di Markov è caratterizzata da due quantità:
- la probabilità incondizionata
- la matrice delle probabilità di transizione .
Si ha
cioè, per ogni istante, la somma delle probabilità di tutti gli stati è unitaria; noto l'alfabeto , la probabilità incondizionata si può scrivere come
La stessa condizione si può esprimere con
Fissati due istanti temporali e dato lo stato di partenza , la somma delle probabilità degli stati di arrivo è unitaria.
dove la somma dei valori di ogni singola riga è
Per ogni coppia , il valore di sarà diverso. Si ha
Quest'ultima è detta l'equazione di Chapman e Kolmogorov, che in forma matriciale si può scrivere come
da cui si ha
Per caratterizzare una catena di Markov, basta conoscere:
In generale, una catena di Markov può avere più distribuzioni stazionarie.
Se una catena di Markov è irriducibile, allora la distribuzione stazionaria esiste ed è unica.
Se una catena di Markov omogenea ed irriducibile è aperiodica, allora la distribuzione stazionaria è anche distribuzione limite. Per queste catene di Markov, a regime la probabilità assoluta è indipendente dal tempo, dando origine a processi stazionari.
Nota: una distribuzione è una distribuzione limite se
