Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Procesos Estacionarios

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 11

Procesos Estacionarios

1.1 Introducción

Sea 𝑋𝑡 la variable aleatoria que se observa en el instante 𝑡. Uno de los principales


problemas que se abordará, consiste en predecir 𝑋𝑇+ℎ por 𝑋̂𝑇 (ℎ).

El signo “ ̂ ” significa que la expresión teórica se remplaza por su estimación.

El problema inicial consiste en encontrar un buen ajuste de los datos a un modelo


estadístico.

1.2 Procesos Estacionarios

Un proceso estocástico es una familia de variables aleatorias, denotada por (𝑋𝑡 )𝑡∈𝑇
definidas sobre un espacio muestral Ω y que toman valores en el conjunto 𝐸
(regularmente 𝑅). 𝑇 se dice el espacio de tiempos; por lo general es 𝑅 o un subconjunto
de este, como 𝑁 o 𝑍.

Definición 1.1.

(𝑋𝑡 )𝑡∈𝑇 es estrictamente (o fuertemente) estacionario si:

𝐷𝑖𝑠𝑡(𝑋𝑡1 +𝑙 , … , 𝑋𝑡𝑘+𝑙 ) = 𝐷𝑖𝑠𝑡(𝑋𝑡1 , … , 𝑋𝑡𝑘 )

Para todo 𝑘 = 1,2, … y 𝑡1 , … , 𝑡𝑘 , 𝑙 ∈ 𝑍

Definición 1.2.

Un proceso real (𝑋𝑡 )𝑡∈𝑇 se dice de segundo orden si ∀𝑡 ∈ 𝑍, 𝐸(𝑋𝑡 2 ) < ∞.

Definición 1.3.

(𝑋𝑡 )𝑡∈𝑇 es débilmente estacionario si:

 𝐸(𝑋𝑡 ) = 𝑚. (m constante independiente de t).


 𝐶𝑜𝑣(𝑋𝑠+𝑙 , 𝑋𝑡+𝑙 ) = 𝐶𝑜𝑣(𝑋𝑠 , 𝑋𝑡 ) para todo 𝑠, 𝑡, 𝑙 ∈ 𝑍.

Nota. Para simplificar la terminología, un proceso de segundo orden y débilmente


estacionario, se denominará proceso estacionario.

Observaciones.

1. De 𝐶𝑜𝑣(𝑋𝑠+𝑙 , 𝑋𝑡+𝑙 ) = 𝐶𝑜𝑣(𝑋𝑠 , 𝑋𝑡 ), tomando s=t, permite deducir que la


varianza del proceso es constante.
2. Un proceso de segundo orden y fuertemente estacionario es estacionario. Lo
recíproco no es cierto.
3. 𝐶𝑜𝑣(𝑋𝑠+𝑙 , 𝑋𝑡+𝑙 ) = 𝐶𝑜𝑣(𝑋𝑠 , 𝑋𝑡 ) ⇔ 𝐶𝑜𝑣(𝑋𝑠 , 𝑋𝑡 ) = 𝛾(𝑠 − 𝑡) para todo 𝑠, 𝑡 𝜖 𝑍,

⇔ 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡+𝑙 ) = 𝐶𝑜𝑣(𝑋0 , 𝑋𝑙 ) = 𝛾(𝑙) para todo 𝑙, 𝑡 𝜖 𝑍.

𝛾(𝑙) es la función de autocovarianza del proceso; esta solo depende de la


diferencia entre los índices 𝑡 + 𝑙 y 𝑡; es decir, del salto 𝑙. En particular, 𝑉(𝑋𝑡 ) =
𝛾(0) para todo t; otra vez se verifica que la varianza de un proceso estacionario
es constante.

4. 𝛾(𝑙) es par: 𝛾(𝑙) = 𝛾(−𝑙), ∀ 𝑙 𝜖 𝑍.

5. |𝛾(𝑙)| ≤ 𝛾(0), ∀ 𝑙 𝜖 𝑍.

6. 𝛾(𝑙) es de tipo positivo:

𝑛 𝑛

∑ ∑ 𝑎𝑗 𝑎𝑘 (𝑡𝑗 − 𝑡𝑘 ) ≥ 0 , ∀ 𝑛 𝜖 𝑁, ∀ 𝑎𝑗 ∈ 𝑅, ∀ 𝑡𝑗 ∈ 𝑍
𝑗=1 𝑘=1

Esta condición caracteriza a una función de autocovarianza.

Ejemplos 1.

1. Sea X v.a. tal que 𝐸(𝑋) = 0, 𝐸(𝑋 2 ) = 1 y 𝐷𝑖𝑠𝑡(𝑋) simética. El proceso


definido por:
𝑡
𝑋𝑡 = (−1) 𝑋, 𝑡 ∈𝑍
es estacionario. En efecto:
i) 𝐸(𝑋𝑡 2 ) < ∞
ii) 𝐸(𝑋𝑡 ) = (−1)𝑡 𝐸(𝑋) = (−1)𝑡 (0) = 0
iii) 𝐶𝑜𝑣(𝑋𝑠+𝑙 , 𝑋𝑡+𝑙 ) = (−1)𝑠+𝑡+2𝑙 𝐸(𝑋𝑡 2 ) = (−1)𝑠+𝑡 𝐸(𝑋𝑡 2 ) = 𝐶𝑜𝑣(𝑋𝑠 , 𝑋𝑡 )

2. El proceso (𝑋𝑡 )𝑡∈𝑇 , donde las variables aleatorias son independientes e


idénticamente distribuidas (i.i.d.), es estrictamente estacionario.

3. El proceso (𝑋𝑡 )𝑡∈𝑇 de v.a. reales de cuadrado integrable (𝐸(𝑋𝑡 2 ) < ∞, ∀𝑡) tal
que
𝐸(𝑋𝑡 ) es constante
{ 𝑉(𝑋𝑡 ) es constante
𝑠 ≠ 𝑡, 𝑋𝑡 ⊥ 𝑋𝑠 (Cov(𝑋𝑡 , 𝑋𝑠 ) = 0)
es estacionario.

4. Ruido Blanco
 Sea (𝑋𝑡 )𝑡∈𝑇 con v.a. i.i.d, reales, de segundo orden, tal que 𝐸(𝑋𝑡 ) = 0 y
𝑉(𝑋𝑡 ) = 𝜎 2 > 0, ∀𝑡 ∈ 𝑍.

 Sea (𝑋𝑡 )𝑡∈𝑇 un proceso aleatorio real de segundo orden, tal que 𝐸(𝑋𝑡 ) =
0 y 𝑉(𝑋𝑡 ) = 𝜎 2 > 0, 𝑋𝑡 ⊥ 𝑋𝑠 con 𝑠 ≠ 𝑡, ∀𝑡, 𝑠 ∈ 𝑍.

5. Sea (𝑋𝑡 )𝑡∈𝑇 , tal que:


𝑞

𝑋𝑡 = ∑(𝐴𝑗 cos(𝜆𝑗 𝑡) + 𝐵𝑗 sen(𝜆𝑗 𝑡))


𝑗=1

donde,

 𝜆1 , … , 𝜆𝑞 ∈ 𝑅.
 𝐴1 , … , 𝐴𝑞 , 𝐵1 , … , 𝐵𝑞 son v.a. ortogonales dos a dos, centradas, tales que:

𝐸(𝐴𝑗 2 ) = 𝐸(𝐵𝑗 2 ) = 𝜎𝑗 2

Entonces, (𝑋𝑡 )𝑡∈𝑇 es estacionario

6. Sea (𝑢𝑡 )𝑡∈𝑍 un ruido blanco débil de varianza 𝜎 2 . Se define:


𝑞

𝑣𝑡 = ∑ 𝜑𝑗 𝑢𝑡−𝑗 , ∀ 𝑡 ∈ 𝑍
𝑗=0
con 𝜑0 = 1, 𝜑𝑞 ≠ 0, 𝜑𝑗 ∈ 𝑅.

(𝑣𝑡 )𝑡∈𝑍 es un proceso estacionario 𝑀𝐴(𝑞) Moving Average, llamado media


móvil de orden 𝑞, pues:
 𝐸(𝑣𝑡 ) = 0
𝑞 𝑞 𝑞
 𝐶𝑜𝑣(𝑣𝑡 , 𝑣𝑡+𝑙 ) = 𝐶𝑜𝑣(∑𝑖=0 𝜑𝑖 𝑢𝑡−𝑖 , ∑𝑗=0 𝜑𝑗 𝑢𝑡+𝑙−𝑗 ) = 𝜎 2 ∑𝑖=1 𝜑𝑖 𝜑𝑖+𝑙 = 𝛾(𝑙)

Gráficamente un proceso estacionario con respecto al tiempo sería algo como:

GRAFICA 1.5

 Los datos oscilan alrededor de una constante (cero en este caso), lo que permite suponer
que la media es constante.
 Los datos tienen una variabilidad algo homogénea, por lo que se puede considerar que
la varianza es constante.

Se presentan gráficamente algunos casos en los que no se cumplen los supuestos de


estacionalidad

 Proceso no estacionario: Media no constante.


En el caso que el proceso no tenga la media constante, se dice que presenta una tendencia.

GRAFICA 1.6

 Proceso no estacionario: Varianza no homogénea.

En esta caso, gráficamente, se ve como si el proceso “explora”; es decir, la oscilación de los


datos se va haciendo más grande con el paso del tiempo.

GRAFICA 1.7

 Proceso no estacionario: Tendencia no constante y varianza no homogénea.

Este caso es una combinación de los dos anteriores; es decir, se presenta una tendencia y la
varianza del proceso no es homogénea.

GRAFICA 1.8

Ejemplos 2.

Mostrar que las siguientes funciones son de autocovarianza (determinarlos procesos


asociados).

1. 𝛾(𝑙) = (−1)|𝑙|

Sea el proceso 𝑋𝑡 = (−1)𝑡 𝑋 con 𝐸(𝑋) = 0 y 𝑉(𝑋) = 1

o Por demostrar que 𝐸(𝑋𝑡 ) = 𝑚 ∀𝑡; m es constante

𝐸(𝑋𝑡 ) = [(−1)𝑡 𝑋 ] = (−1)𝑡 𝐸(𝑋) = 0, ∀𝑡

o Por demostrar que 𝐸(𝑋𝑡 2 ) < ∞

𝐸(𝑋𝑡 2 ) = [(−1)𝑡 𝑋 2 ] = 1 < ∞, ∀𝑡

o Por demostrar que 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡+𝑙 ) = 𝛾(𝑙) = (−1)|𝑙|


 Sea 𝑙 ≥ 0:

𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡+𝑙 ) = 𝐶𝑜𝑣((−1)𝑡 𝑋 , (−1)𝑡+𝑙 𝑋 ) = (−1)𝑙 𝐶𝑜𝑣(𝑋, 𝑋)


= (−1)𝑙 𝑉(𝑋) = (−1)𝑙 = (−1)|𝑙|
 Si 𝑙 < 0:

𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡+𝑙 ) = (−1)𝑙 = (−1)𝑙−2𝑙 = (−1)−𝑙 = (−1)|𝑙|

Esta condición se puede justificar directamente del hecho que 𝛾(𝑙) es una
función par.
𝜋𝑙 𝜋𝑙
2. 𝛾(𝑙) = 1 + cos ( 2 ) + cos ( 4 )
Luego, de parte (5) del ejemplo 1.1, se puede tomar:
𝜋𝑡 𝜋𝑡 𝜋𝑡 𝜋𝑡
𝑋𝑡 = 𝐴1 + 𝐴2 𝑐𝑜𝑠 + 𝐵2 𝑠𝑒𝑛 + 𝐴3 𝑐𝑜𝑠 + 𝐵3 𝑠𝑒𝑛
2 2 4 4
Donde 𝐴1 , 𝐴2 , 𝐴3 , 𝐵1 , 𝐵2 , 𝐵3 v.a. centradas y no correlacionadas dos a dos y tales que
𝐸(𝐴1 2 ) = 𝐸(𝐴2 2 ) = 𝐸(𝐴3 2 ) = 𝐸(𝐵1 2 ) = 𝐸(𝐵2 2 ) = 𝐸(𝐵3 2 ) = 1; es decir, 𝜎𝑗 2 = 1,
𝜋 𝜋
𝑗 = 1,2,3. Además, 𝜆1 = 0, 𝜆2 = 2 , 𝜆3 = 4 .

1.3. Representación espectral de un proceso estacionario

1.3.1 Representación espectral de (𝛾𝑡 )𝑡𝜖𝑍

Sea estacionario y centrado. Recordando que se definió la función de autocovarianza


(𝛾𝑡 )𝑡𝜖𝑍 por 𝛾𝑡 = 𝐸(𝑋0 𝑋𝑡 ) = 𝐸(𝑋𝑙 𝑋𝑡+𝑙 ), ∀𝑡, 𝑙 ∈ 𝑍.

Teorema 1.

Existe una medida única 𝜇 acotada y simétrica sobre [−𝜋, 𝜋] tal que:
𝜋

𝛾𝑡 = ∫ cos(𝜆𝑡) 𝑑𝜇(𝜆), 𝑡∈𝑍


−𝜋

𝜇 se dice la medida espectral de (𝑋𝑡 ). La densidad de la parte absolutamente continua


de 𝜇 se dice densidad espectral de (𝑋𝑡 ); la función de distribución de 𝜇 se llama función
de distribución espectral de (𝑋𝑡 ).

Nota. Puesto que la función seno es impar y 𝜇 es simétrica sobre [−𝜋, 𝜋], también 𝛾𝑡 se
puede expresar por:
𝜋

𝛾𝑡 = ∫ 𝑒 𝑖𝜆𝑡 𝑑𝜇(𝜆)
−𝜋

Ejemplos 2.

1. Sea (𝑋𝑡 )𝑡𝜖𝑍 ruido blanco (débil) tal que, 𝛾𝑡 = 0, |𝑡| ≥ 1 y 𝛾0 = 𝜎 2

1 𝜎2
∑ | 𝛾𝑡 | < ∞ ⟹ 𝑓(𝜆) = ∑ 𝛾𝑡 cos(𝜆𝑡) = , 𝜆 ∈ [−𝜋, 𝜋]
2𝜋 2𝜋

Es la densidad con respecto a la medida de Lesbegue sobre [−𝜋, 𝜋].

2. Si 𝑋𝑡 = 𝑋, ∀𝑡 ∈ 𝑍, con 𝐸(𝑋) = 0 y 𝐸(𝑋 2 ) = 𝜎 2 , 𝛾𝑡 = 𝐸(𝑋 2 ) = 𝜎 2 ⇒ ∑ | 𝛾𝑡 | = ∞.

En este caso no es aplicable el resultado precedente, pero se puede tomar, 𝜇 = 𝜎 2 𝛿(0) ,


pues:
∫ 𝛾𝑡 cos(𝜆𝑡) 𝑑𝜇(𝜆) = 𝜎 2 𝑐𝑜𝑠(0) = 𝜎 2 = 𝛾𝑡

Donde 𝛿(𝑎) representa a la medida de Dirac en el punto 𝑎 (la distribución que


corresponde a la variable aleatoria constante 𝑋 = 𝑎).

3. Para el proceso:
𝑞

𝑋𝑡 = ∑ (𝐴𝑗 cos(𝜆𝑗 𝑡) + 𝐵𝑗 sen(𝜆𝑗 𝑡)) , ∀𝑡 ∈ 𝑍


𝑗=1

Se tiene:
𝑞
𝜎𝑗 2
𝜇=∑ (𝛿(−𝜆𝑗) + 𝛿(𝜆𝑗 ) )
2
𝑗=1

Esta expresión la simetría de 𝜇 y, por lo tanto, su unicidad.

1.3.2 Representación espectral de (𝑋𝑡 )𝑡𝜖𝑍

El objetivo es representar (𝑋𝑡 ) de la manera siguiente:


𝜋
𝑋𝑡 = ∫ cos(𝜆𝑡)𝑑𝑊(𝜆)
−𝜋

Donde 𝑊 es una medida aleatoria o estocástica.

1.3.21 Medida estocástica (medida de Wiener)

Sean (Ω, 𝐴, 𝑃) un espacio de probabilidad; (𝐸, 𝛽, 𝜇) espacio medido, donde 𝜇 es 𝜎-


finita, 𝛽𝜇 anillo de conjuntos de medida finita tal que 𝜎-álgebra generada por 𝛽𝜇 ,
𝜎(𝛽𝜇 ) = 𝛽. Se considera la aplicación:

𝑊: 𝛽𝜇 → 𝐿𝑐 2 (Ω, 𝐴, 𝑃)

𝐿𝑐 2 (Ω) es la notación simplificada de 𝐿𝑐 2 (Ω, 𝐴, 𝑃), que representa al espacio de las


variables aleatorias de cuadrado integrable que toman valores sobre el cuerpo de los
números complejos; este es un espacio de Hilbert sobre 𝐶, con producto escalar <
𝑋, 𝑌 >= 𝐸(𝑋𝑌̅). 𝑌̅ representa el conjugado de 𝑌.

De manera más general, 𝐿𝑐 2 (𝐸, 𝛽, 𝜇) = 𝐿𝑐 2 (𝐸) es un espacio de Hilbert de las


funciones medibles 𝑓: Ω → 𝐶 de cuadrado integrable (∫Ω 𝑓 2 < ∞); dotado del producto
interno < 𝑓, 𝑔 ≥ ∫ 𝑓𝑔̂𝑑𝜇, donde 𝑓 y 𝑔 son funciones medibles de cuadrado integrable
(𝑔̂ representa la función conjugada de 𝑔).
En el caso de que las funciones o variables aleatorias sean reales no se utilizan los
conjugados de las funciones o variables aleatorias, sino las definiciones originales.

Definición

W es una medida estocástica basada sobre (Ω, 𝐴, 𝑃) y de medida espectral 𝜇 si:

 ∀𝐴, 𝐵 ∈ 𝛽𝜇 , con 𝐴 ∩ 𝐵 = ∅, se tiene:


a) 𝑊(𝐴 ∪ 𝐵) = 𝑊(𝐴) + 𝑊(𝐵)
b) 𝐸[𝑊(𝐴)𝑊(𝐵)̅̅̅̅̅̅̅̅] = 0
 ∀𝐴 ∈ 𝛽𝜇 , 𝐸|𝑊(𝐴)|2 = 𝜇(𝐴)

Propiedades de W:

a) 𝜎-aditividad en media cuadrática (m.c.)


Sea (𝐴𝑛 ) una sucesión creciente de elementos de 𝛽𝜇 que tiene por límite 𝐴 ∈ 𝛽𝜇 ;
entonces
𝑊(𝐴𝑛 ) → 𝑊(𝐴)
Esto se verifica puesto que:

𝐴 = 𝐴𝑛 ∪ (𝐴 − 𝐴𝑛 ) ⇒ 𝑊(𝐴) = 𝑊(𝐴𝑛 ) + 𝑊(𝐴 − 𝐴𝑛 )


Por tanto

𝐸|𝑊(𝐴) − 𝑊(𝐴𝑛 )|2 = 𝐸|𝑊(𝐴 − 𝐴𝑛 )|2 = 𝜇(𝐴 − 𝐴𝑛 ) → 0


Pues 𝜇 es 𝜎–aditiva.

̅̅̅̅̅̅̅̅] = 𝜇(𝐴 ∩ 𝐵)
b) ∀𝐴, 𝐵 ∈ 𝛽𝜇 , 𝐸[𝑊(𝐴)𝑊(𝐵)

La operación 𝐴 ∩ 𝐵 también se denotará por 𝐴𝐵; igualmente, la unión disjunta de 𝐴


y 𝐵, se denota por 𝐴 + 𝐵.

Puesto que: 𝐴 = 𝐴𝐵 + 𝐴𝐵 𝐶 y 𝐵 = 𝐵𝐴 + 𝐵𝐴𝐶 , se tiene que:

𝐸[𝑊(𝐴)𝑊(𝐵) ̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅
̅̅̅̅̅̅̅̅] = 𝐸[𝑊(𝐴𝐵) + 𝑊(𝐴𝐵 𝐶 )𝑊(𝐵𝐴) + 𝑊(𝐵𝐴𝐶 )]
= 𝐸[𝑊(𝐴𝐵)𝑊(𝐵𝐴) ̅̅̅̅̅̅̅̅̅̅̅
̅̅̅̅̅̅̅̅̅̅ + 𝑊(𝐴𝐵)𝑊(𝐵𝐴 ̅̅̅̅̅̅̅̅̅̅
𝐶 ) + 𝑊(𝐴𝐵 𝐶 )𝑊(𝐵𝐴)

̅̅̅̅̅̅̅̅̅̅̅
+ 𝑊(𝐴𝐵 𝐶 )𝑊(𝐵𝐴 ̅̅̅̅̅̅̅̅̅̅] = 𝐸[𝑊(𝐴𝐵)𝑊(𝐴𝐵)
𝐶 )] = 𝐸[𝑊(𝐴𝐵)𝑊(𝐵𝐴) ̅̅̅̅̅̅̅̅̅̅]
= 𝐸|𝑊(𝐴𝐵)|2 = 𝜇(𝐴𝐵)

Ejemplos 1.4

Sea (𝑍𝑡 )𝑡∈𝑅+ de segundo orden, centrado, con incrementos estacionarios y


ortogonales, continuo a la derecha en m.c.

Se inicia recordando las definiciones de incrementos ortogonales, incrementos


estacionarios y continuidad a la derecha:

 Incrementos ortogonales:
∀𝑡1 < 𝑡2 < ⋯ < 𝑡𝑘 en 𝑅 +
las v.a. 𝑍𝑡1 , 𝑍𝑡2 − 𝑍𝑡1 , … , 𝑍𝑡𝑘 − 𝑍𝑡𝑘−1 son ortogonales 2 a 2.

 Incrementos estacionarios:
∀𝑠, 𝑡, 𝑠 + 𝑙, 𝑡 + 𝑙 ∈ 𝑅 + , 𝐸(𝑍𝑡+𝑙 − 𝑍𝑠+𝑙 )2 = 𝐸(𝑍𝑡 − 𝑍𝑠 )2

 Continuo a la derecha:

Si 𝑡𝑛 → 𝑡 + , entonces 𝑍𝑡𝑛 → 𝑍𝑡 , 𝑡𝑛 , 𝑡 ∈ 𝑅 + .
Se define 𝑍0 = 0. Supóngase que 𝐸(𝑍1 2 ) = 1; entonces 𝐸(𝑍1 2 ) = 𝑡 ∀𝑡 ∈
𝑅+.

1.3.2.2 Integral Estocástica

Sea

𝜑 = ∑ 𝛼𝑗 1𝐴𝑗
𝑗∈𝐽

Donde 𝐽 es finito, (𝐴𝑗 ) es una partición de 𝐸 en 𝛽𝜇 y 𝛼𝑗 ∈ 𝐶. 1𝐴𝑗 es la variable indicatriz


sobre 𝐴, definida por 1𝐴 = 1 si 𝑥 ∈ 𝐴 y 0 en otro caso.

Sea 𝜀𝜇 el espacio de las funciones en escalera, cuyo elemento genérico es 𝜑. Se define:

∫ 𝜑𝑑𝑊 =: ∑ 𝛼𝑗 𝑊(𝐴𝑗 ) ∈ 𝐿𝑐 2 (Ω, 𝐴, 𝑃)


𝑗∈𝐽

Entonces,

2
𝐸 (| ∫ 𝜑𝑑𝑊 |2 ) = ∑ |𝛼𝑗 |2 𝐸|𝑊(𝐴𝑗 )|2 = ∑|𝛼𝑗 | 𝜇(𝐴𝑗 ) = ∫|𝜑|2 𝑑𝜇
𝑗∈𝐽 𝑗∈𝐽

Nótese que el término de la izquierda representa la norma al cuadrado ∫ 𝜑𝑑𝑊 en


𝐿𝑐 2 (Ω, 𝐴, 𝑃) y el primer término de la derecha, la norma al cuadrado de 𝜑 en 𝐿𝑐 2 (𝐸).

Por tanto, la aplicación: 𝜑 → ∫ 𝜑𝑑𝑊 conserva la norma (además es lineal); entonces, la


aplicación correspondiente: 𝜀𝜇 → 𝐿𝑐 2 (Ω, 𝐴, 𝑃) es una isometría. Pero 𝜀𝜇 es denso en
𝐿𝑐 2 (𝐸, 𝛽, 𝜇); por tanto, se puede prolongar la isometría de manera única sobre todo el
espacio:

𝑊: 𝐿𝑐 2 (𝐸, 𝛽, 𝜇) → 𝐿𝑐 2 (Ω, 𝐴, 𝑃)

𝜑 → ∫ 𝜑𝑑𝑊 =: ∫ 𝜑(𝜆)𝑑𝑊(𝜆)
𝐸
Propiedades de la Integral estocástica:

I. Si ∀𝐴 ∈ 𝛽𝜇 𝑊(𝐴) centrada; entonces 𝒯 = {𝜑: 𝐸(∫ 𝜑𝑑𝑊) = 0} es cerrado:


Sea {𝜑𝑛 } una sucesión de 𝒯 tal que 𝜑𝑛 → 𝜑 ⇒ ∫ 𝜑𝑛 𝑑𝑊 → ∫ 𝜑𝑑𝑊 (pues la
integral estocástica es una isometría y entonces es continua).
Entonces existe convergencia en media cuántica. Puesto que las 𝜑𝑛 ∈ 𝒯, se
puede concluir que 𝜑 ∈ 𝒯.
II. 𝐸(∫ 𝜑𝑑𝑊 ̅̅̅̅̅̅̅̅̅
∫ 𝜓𝑑𝑊 ) = ∫ 𝜑𝜓̅𝑑𝑊, pues una isometría conserva el producto
escalar.

1.3.2.3 Representación espectral de (𝑋𝑡 )

Teorema 1.2

Sea (𝑋𝑡 )𝑡∈𝑍 de segundo orden y centrado (a valores complejos). Se tiene también:

̅̅̅̅̅̅̅̅
𝐶𝑜𝑣(𝑋𝑠 , 𝑋𝑡 ) = ∫ 𝑓(𝑠, 𝜆)𝑓(𝑡, 𝜆)𝑑𝜇(𝜆)
𝐸

Donde, {𝑓(𝑠,∙), 𝑠 ∈ 𝑍} es una familia libre y total en 𝐿𝑐 2 (𝐸, 𝛽, 𝜇); entonces, existe 𝑊
media estocástica de medida espectral 𝜇 tal que:

𝑋𝑡 = ∫ 𝑓(𝑡, 𝜆)𝑑𝑊(𝜆) , 𝑡∈𝑍


𝐸

Recuerdese que se dice que una familia es total si: ∀𝑓 ∈ 𝐿𝑐 2 (𝐸, 𝛽, 𝜇), ∃{𝑓𝑛 } tal que
𝑓𝑛 → 𝑓, donde 𝑓𝑛 es una combinación lineal de elementos de la familia. La familia es
libre si toda subfamilia finita de elementos de la familia es linealmente independiente.

Aplicación a los procesos estacionarios

Sea (𝑋𝑡 )𝑡∈𝑍 estacionario y centrado. Se tiene que:

 𝐶𝑜𝑣(𝑋𝑠 , 𝑋𝑡 ) = 𝐶𝑜𝑣(𝑋𝑠−𝑡 , 𝑋0 ) = ∫ 𝑒 𝑖(𝑠−𝑡)𝜆 𝑑𝜇(𝜆) = ∫ 𝑒 𝑖𝑠𝜆 ̅̅̅̅̅


𝑒 𝑖𝑡𝜆 𝑑𝜇(𝜆)
 {𝑓(𝑡, 𝜆) =: 𝑒 𝑖𝑡𝜆 , 𝑡 ∈ 𝑍}, es una familia libre y total en 𝐿𝑐 2 (𝐸, 𝛽, 𝜇), con 𝐸 =
[−𝜋, 𝜋]

Por lo tanto, existe 𝑊 medida estocástica sobre [−𝜋, 𝜋], asociada a la medida
espectral 𝜇, tal que

𝑋𝑡 = ∫ 𝑒 𝑖𝑡𝜆 𝑑𝑊(𝜆)
[−𝜋,𝜋]

1.4 Teoremas límites

Teorema 1.3
(Teorema ergódico débil). Sea (𝑋𝑡 )𝑡∈𝑍 estacionario, centrado, con función de
autocovarianza (𝛾𝑡 ), de medida espectral 𝜇, de medida estocástica 𝑊, entonces:
1
A. 𝑋̅ = 𝑛 ∑𝑛𝑡=1 𝑋𝑡 → 𝑊({0})
1
B. 𝑋̅ → 0 ⇔ 𝑛 ∑𝑛−1
𝑡=0 𝛾𝑡 ⟶ 0(𝑐)

Un proceso que satisface A) o B) se llama un proceso ergódico (débil). Por ejemplo, el


proceso definido por 𝑋𝑡 = 𝑋 no es ergódico, mientras que el proceso definido por 𝑋𝑡 =
(−1)𝑡 𝑋 si lo es (en ambos casos se considera 𝑡 ∈ 𝑍).

Este teorema indica que solamente en los procesos ergódicos la media muestral
converge a la media del proceso (extensión de la Ley de los grandes números).
1
Nota. 𝛾̅𝑡 = 𝑛−𝑡 ∑𝑛−𝑡
𝑠=1 𝑋𝑠 𝑋𝑠+𝑡 esun estimador natural de 𝛾𝑡 , (𝑡 < 𝑛, 𝑡 ∈ 𝑁).

Teorema 1.4.

Sea (𝑋𝑡 )𝑡∈𝑍 estacionario y centrado; entonces se tiene:

a. 𝐸(𝑋𝑠 𝑋𝑠+𝑡 )2 < ∞, ∀𝑠, 𝑡 ∈ 𝑍.


b. 𝐸(𝑋𝑠1 𝑋𝑠1+𝑡 𝑋𝑠1 +𝑠2 𝑋𝑠1+𝑠2+𝑡 ) es independiente de 𝑠1 , ∀𝑠1 , 𝑠2 , 𝑡 ∈ 𝑍.
1
c. 𝛾̅𝑡 → 𝛾𝑡 ⇔ 𝑛 ∑ 𝐸(𝑋0 𝑋𝑠 𝑋𝑡 𝑋𝑠+𝑡 ) ⟶ 𝛾𝑡 2

Teorema 1.5 (Teorema ergódico fuerte).

Sea (𝑋𝑡 )𝑡∈𝑍 de segundo orden, centrado, tal que:

𝑉(𝑋𝑡 + ⋯ + 𝑋𝑡+𝑝−1 ) ≤ 𝑘𝑝𝑛 𝑘 = 𝑐𝑡𝑒; 0 ≤ 𝑛 < 2; 𝑝 = 1,2 … ; ∀𝑡 ∈ 𝑍

Entonces 𝑋̅ → 0 en media cuadrática y casi seguramente.

Ejemplo 1.5

1. Sea (𝑋𝑡 ) con v.a. ortogonales dos a dos, tales que 𝐸(𝑋𝑡 ) = 0, 𝑠𝑢𝑝𝑡 𝐸(𝑋𝑡 2 ) ≤ 𝑘. El
teorema se aplica con 𝑛 = 1.

2. Si 𝑋𝑡 = (−1)𝑡 𝑋, 𝑡 ∈ 𝑍 y 𝐸(𝑋 2 ) = 1; el teorema se aplica con 𝑛 = 0.

1.4.1 Teorema Central de Límite

Teorema 1.7.

Sea 𝑋𝑡 = ∑∞ ∞ 2
𝑗=−∞ 𝑎𝑗 𝜇𝑡−𝑗 , 𝑡 ∈ 𝑍, con ∑𝑗=−∞ |𝑎𝑗 | < ∞, (𝜇𝑡 ) r.b. fuerte de varianza 𝜎 .

Entonces:
∞ 2
𝐿
√𝑛𝑋̅ → 𝑁 (0, 𝜎 2 ( ∑ 𝑎𝑠 ) )
𝑠=−∞

La letra L indica convergencia en ley o distribución.

Este teorema permite aplicar el teorema central del límite a los procesos llamados media
móvil infinita.

Observación 1.8 Para determinar la velocidad de convergencia:

 Con v.a. independientes se aplica la desigualdad de Berestein:


𝐾
sup |𝐹𝑛 (𝑥) − 𝐹(𝑥)| ≤
√𝑛
donde 𝐹𝑛 y 𝐹 representan a las distribuciones muestral y teórica,
respectivamente, de una v.a. X.

 Con v.a. correlacionadas (entre otras hipótesis 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡+𝑙 ) = 𝑂(𝑝𝑙 ); es decir,
la covarianza dividida 𝑝𝑙 por converge a una velocidad constante):

(log 𝑛)2
sup |𝐹𝑛 (𝑥) − 𝐹(𝑥)| →
√𝑛
1.5 Predicción de un proceso estacionario y Descomposición de Wold.

También podría gustarte