Esempi di processi stocastici Processi PAM Processi gaussiani Processi di Markov

Da testwiki.
Vai alla navigazione Vai alla ricerca

Template:Risorsa

Processi e catene di Markov

Cominciamo col capire cosa sono le catene di Markov. Prendiamo un meteo, in cui si hanno soltanto due stati:

  • sole, S;
  • nuvoloso, N.

Se oggi c'è il sole, allora domani ci sarà

  • sole con probabilità 13;
  • nuvoloso con probabilità 23.

Al contrario, se oggi è nuvoloso, allora domani ci sarà

  • sole con probabilità 12;
  • nuvoloso con probabilità 12.

Questa è una catena di Markov. Il tempo di domani dipende dal tempo di oggi, e non dal tempo di ieri; inoltre, la probabilità che esce da ogni stato è unitaria, quindi anche la probabilità che in un dato istante si sia in un determinato punto soddisferà anch'essa la proprietà di uniterietà.

Template:Matematica voce

In altre parole, possiamo scrivere che una variabile casuale X(tn) dipende solo dalla variabile casuale X(tn1), mentre è indipendente da tutte le variabili casuali precedenti l'istante tn1.

Implicazioni:

  1. la probabilità del futuro, dato passato e presente, dipende solo dal presente.
  2. la probabilità del futuro, congiunta a quella del passato e conoscendo il presente, è
P(futuro|passato,presente)=P(futuro|presente)P(presente|passato)
Gli eventi che soddisfano questa seconda condizione sono detti condizionalmente indipendenti, cioè sono indipendenti soltanto se vi è la conoscenza dello stato intermedio. Nel caso in cui non si conosca il presente, allora passato e futuro non sono più indipendenti.

Densità di probabilità del processo di Markov

  • fX(tn)|X(tn1)X(t1)(xn|xn1,xn2x1)=fX(tn)|X(tn1)(xn|xn1)
  • {fX(tn)X(tn1)X(t1)(xn,xn1,,x1)==fX(tn)|X(tn1),X(tn2)X(t1)(xn|xn1,xn2x1)××fX(t2)|X(t1)(x2|x1)×fX(t1)(x1)=fX(tn)|X(tn1)(xn|xn1)××fX(t2)|X(t1)(x2|x1)×fX(t1)(x1)=[Πk=1n1fX(tk+1)|X(tk)(xk+1|xk)]fX(t1)(x1)

Per caratterizzare una catena di Markov è sufficiente conoscere la densità di probabilità del second'ordine, non serve scendere fino all'n-esimo ordine. In questo modo, la trattazione diventa molto più semplice, fino a renderla quasi banale.

Classificazione

I processi di Markov si possono classificare in base allo stato/tempo continuo/discreto:

  • stato continuo e tempo continuo: processo a tempo continuo;
  • stato continuo e tempo discreto: processo a tempo discreto;
  • stato discreto e tempo continuo: catena a tempo continuo;
  • stato discreto e tempo discreto: catena a tempo discreto.

Catene di Markov a tempo discreto

Si ha

  • T={0,1,}
  • S={1,2,}

che sono due insiemi discreti. La catena di Markov è caratterizzata da due quantità:

  • la probabilità incondizionata
Pi=P(X(n)=i)
  • la matrice delle probabilità di transizione Pij(m,n)=P(X(n)=j|X(m)=i).

Si ha

Pi(n)[0,1] iS,nT | iSPi(n)=1

cioè, per ogni istante, la somma delle probabilità di tutti gli stati è unitaria; noto l'alfabeto s, la probabilità incondizionata si può scrivere come

P_(n)=[P1(n) P2(n)  P|s|(n)]

La stessa condizione si può esprimere con

P_eT=1 e=[1 1  1]

Fissati due istanti temporali n<m e dato lo stato di partenza n, la somma delle probabilità degli stati di arrivo è unitaria.

P_(m,n)=[P1,1(m,n)P1,2(m,n)P1,|s|(m,n)P2,1(m,n)P(2,2)(m,n)P2,|s|(m,n)P|s|,1(m,n)P|s|,2(m,n)P|s|,|s|(m,n)]

dove la somma dei valori di ogni singola riga è 1

i=1,2,|s|Pi,j(m,n)=1 j[0,1,|s|]
P_(m,n)eT=eT=[1 1  1]

Per ogni coppia m,n, il valore di P_(m,n) sarà diverso. Si ha

P_(n)=P_(m,n)P_(m)

Pi,j(m,n)=P(X(n)=j|X(m)=j)=lSP(X(n)=j|X(u)=l,X(m)=i)P(X(u)=l|X(m=i))=lSPl,j(u,n)Pi,l(m,n)

Quest'ultima è detta l'equazione di Chapman e Kolmogorov, che in forma matriciale si può scrivere come

P_(m,n)=P_(m,u)P_(u,n)

da cui si ha

P_(m,n)=k=mn1P_(k,k+1)

Per caratterizzare una catena di Markov, basta conoscere:

  • P_(0)
  • P_(k,k+1) kT
  • P_(n)=P_(0)P_(0,1)P_(1,2)P_(n1,n)

Template:Matematica voce

Template:Matematica voce

Template:Matematica voce

Template:Matematica voce

Template:Matematica voce

In generale, una catena di Markov può avere più distribuzioni stazionarie.

Template:Matematica voce

Template:Matematica voce

Se una catena di Markov è irriducibile, allora la distribuzione stazionaria esiste ed è unica.

Template:Matematica voce

Template:Matematica voce

Template:Matematica voce

Template:Matematica voce

Se una catena di Markov omogenea ed irriducibile è aperiodica, allora la distribuzione stazionaria è anche distribuzione limite. Per queste catene di Markov, a regime la probabilità assoluta è indipendente dal tempo, dando origine a processi stazionari.

Nota: una distribuzione Π_ è una distribuzione limite se

limnP__n=[Π_Π_Π_]

Template:Matematica voce

Template:Matematica voce

Template:Nav fenomeni aleatori