Processi stocastici, stazionarietà ed ergodicità e densità spettrale di potenza

Da testwiki.
Vai alla navigazione Vai alla ricerca

Template:Risorsa Un processo casuale potrebbe essere, per esempio, quando si acquisisce un segnale con un oscilloscopio collegato ad un generatore di forme d'onda; la sinusoide generata sarà sin(2πft+Φ), dove Φ è una variabile casuale.

Processi casuali

Un processo casuale {X(t),tT} è una collezione di variabili casuali indicizzate dal tempo tT. Quindi, X(t¯) t¯T è una variabile casuale definita nello spazio di probabilità {Ω,F,P}. Fissato l'istante temporale t¯T, si ha una funzione misurabile

X(t¯):Ω

che parte dallo spazio (Ω,F) per giungere allo spazio (,𝔹()). È possibile indicare un processo stocastico anche con la notazione

X(t,s):Ω×T

dove X(t,s) è misurabile rispetto ad s.

Se T=, il processo si dice a tempo continuo; al contrario, se T=, allora il processo si dice a tempo discreto.

Se fissiamo sΩ, allora X(s) è una funzione del tempo, altrimenti detta realizzazione.

Template:Matematica voce

Template:Matematica voce

Template:Matematica voce

Caratterizzazione statistica del processo

Template:Matematica voce

Realizzazioni

Fissato s a scelta, disegnamo una realizzazione del processo nel tempo.

Variabili casuali

Fissato il tempo, si ha una variabile casuale osservando varie realizzazioni del processo, in quel preciso istante temporale.

Template:Matematica voce

Densità di probabilità

Template:Matematica voce

Per il calcolo della densità congiunta del second'ordine, è necessario fissare due istanti temporali t1,t2, t1<t2.

Template:Matematica voce

Template:Matematica voce

Caratterizzazione statistica di un processo

Si prendano diversi istanti di tempo t1<t2<<tnT, n. Si definisce la quantità

P[X(t1),X(t2),,X(tn)B] B𝔹(n)

come la probabilità finito-dimensionale del processo X(t,x). Dato che X(t) è una variabile casuale, la quantità appena definita è pari alla probabilità congiunta di un vettore n-dimensionale di variabili casuali, con Xi=X(ti) i=1,2,,n.

In modo equivalente ai vettori di variabili casuali, un processo è caratterizzato dalla densità di probabilità congiunta, che si indica con

fX(x1,x2,xn;t1,t2,tn)=fX(t1)X(tn)(x1,x2,xn)=n=2fX(x1,x2;t1,t2)=fX(t1)X(t2)(x1,x2)

Dalla congiunta è sempre possibile ottenere le marginali, che possono essere pensate come delle congiunte di ordine inferiore.

Template:Matematica voce

Template:Matematica voce

Ergodicità dei processi casuali

Supponendo di avere un processo stocastico X stazionario (in senso lato), andiamo a cercare di dedurre qualcosa dalla sua densità di probabilità fX(x) generando una realizzazione nel tempo. Vedremo che se il processo è ergodico, medie d'insieme e temporali coincidono.

Consideriamo un processo {X(t),t}, con X(t,s):× definito sullo spazio di probabilità {Ω,F,P}. Fissato l'esito sΩ, otteniamo una realizzazione X(,s). Vogliamo capire se (e sotto quali condizioni) è possibile determinare delle caratteristiche di X(t), osservando un'unica realizzazione.

Se il processo è stazionario in senso lato, allora

μX(t)=μX t

Consideriamo la realizzazione X(,s) in una finestra [T2,T2].

File:TFA realizzazione per ergodicita processi.jpg

Template:Matematica voce

La grandezza AX,T(s¯) è una stima, si riferisce ad una particolare realizzazione s¯.

Template:Matematica voce

Template:Matematica voce

Template:Matematica voce

Template:Matematica voce

Il teorema di Slutsky permette di facilitare il compito di verifica dell'ergodicità di un dato processo. Una condizione sufficiente (ma non necessaria) affinché X(T) sia ergodico è che

CX(τ)τ0

Template:Matematica voce

Template:Matematica voce

In modo alternativo, si può definire l'ergodicità del processo {X(t),tT} nel seguente modo:

  • se X(t) è WSS di prim'ordine, allora
E[X(t)]=μX(t)=μX
Di conseguenza, si ha che X(t) è un processo ergodico rispetto al valor medio se è verificato
P({sΩ | AX,T(s)=μX})=1
Questa si dice convergenza in probabilità, o convergenza qox (per quasi ogni x). Se Ω è continuo, possono esistere alcuni s per cui non è verificata l'equazione, ma se questi punti sono isolati (concetto di qox), allora si ha comunque la convergenza cercata. La probabilità di un particolare s, infatti, è infinitesima (nel caso di processi a tempo continuo, lo stesso non vale per processi a tempo discreto).
  • X(t) WSS del second'ordine è ergodico rispetto alla sua funzione di autocorrelazione se vale
P({sΩ | φX,T(τ,s)=RX(τ)})=1
Anche questa è una convergenza in probabilità, con
φX,T(τ,s)limT1TT2+T2X(t,s)X(t+τ,s)dt
che è l'autocorrelazione temporale del processo. In termini pratici, questo equivale a dire che
RX(t,t+τ)=E[X(t)X(t+τ)]=RX(τ)=φX,T(τ,s)

dove E[] è la solita stima della funzione di autocorrelazione e RX(τ) è l'autocorrelazione d'insieme, che viene a coincidere con l'autocorrelazione temporale φX,T(τ,s).

Densità spettrale di potenza

Consideriamo il processo {X(t),tT}. Fissato sΩ otteniamo una realizzazione che in generale rappresenta un segnale di potenza non periodico, quindi non è possibile dare una caratterizzazione frequenziale attraverso la trasformata di Fourier (in modo diretto). È tuttavia possibile caratterizzare i processi casuali almeno in termini di spettro di potenza. A questo proposito, consideriamo il processo

XT(t,s)=X(t,s)rect(tT)

Limitatamente al periodo T, il segnale diventa ad energia finita,

E=+|XT(t,s)|2dt=T2T2|X(t,s)|2dt<

quindi si ha anche lo spettro di potenza finito,

1T=+|XT(f,s)|2df

Template:Matematica voce

Proprietà della densità spettrale di potenza

1. SX(f)0 f
2. |XT(f,s)|2T è detto periodogramma del processo
3. Teorema di Wiener-Kinchine; se un processo stocastico è stazionario in senso lato (del second'ordine), allora si ha
SX(f)=F[RX(τ)]=+RX(τ)ej2πfτdτ
4. Se X(t) è a valori reali, allora SX(f) è pari, di conseguenza si ha che
RX(τ)=RX(τ)
5. +SX(f)df=RX(0)=PX che è la potenza del processo
6. RX(τ)=F1[SX(f)]=+SX(f)ej2πfτdf

Template:Matematica voce

Template:Matematica voce

Descrizione congiunta dei processi stocastici

Consideriamo {X(t),tT} e {Y(t),tT} due processi definiti sullo stesso spazio di probabilità (Ω,F,P). Se volessimo caratterizzare congiuntamente i due processi, dovremmo fare

fX,Y(x1,x2,xn,y1,y2,ym;t1,t2,tn,t1,t2,tm)

e questo dovrebbe valere:

  • t1 t2<<tnT
  • t1 t2<<tnT
  • m,n

Questa è la densità congiunta finito-dimensionale; passando invece alle descrizioni sintetiche, si possono identificare:

  • i valori medi
μX(t)=E[X(t)]
μY(t)=E[Y(t)]
  • le funzioni di autocorrelazione
RX(t1,t2)=E[X(t1)X(t2)]
RY(t1,t2)=E[Y(t1)Y(t2)]
  • le funzioni di covarianza
CX(t1,t2)=E[(X(t1)μX(t1))(X(t2)μX(t2))]
CY(t1,t2)=E[(Y(t1)μY(t1))(Y(t2)μY(t2))]
  • le funzioni di crosscorrelazione
RXY(t1,t2)=E[X(t1)Y(t2)]
RYX(t1,t2)=E[Y(t1)X(t2)]
  • le funzioni di crosscovarianza
CXY(t1,t2)=E[(X(t1)μX(t1))(Y(t2)μY(t2))]=RXY(t1,t2)μX(t1)μY(t2)
CYX(t1,t2)=E[(Y(t1)μY(t1))(X(t2)μX(t2))]=RYX(t1,t2)μY(t1)μX(t2)

Template:Matematica voce

Template:Matematica voce

Nel caso particolare in cui i processi siano delle variabili casuali gaussiane, allora si ha che

 incorrelazione  indipendenza 

mentre i tutti gli altri casi si ha

 incorrelazione ⇎ indipendenza  indipendenza  incorrelazione 

Template:Matematica voce

Template:Matematica voce

Template:Matematica voce

Nel caso di processi congiuntamente stazionari in senso lato (WSS), si ha

RYX(t,t+τ)=RYX(0,τ)=RXY(τ) t,τT

e vale

RYX(τ)=RXY(τ)

Inoltre, vale

|RXY(0)|2RX(0)RY(0)

Template:Matematica voce

Template:Matematica voce

Template:Nav fenomeni aleatori