Hola. Tengo el siguiente problema, hay una parte que no he podido resolver. Agradecería si me echaran una mano.
Sea \( X_n \) una cadena de Markov. Con espacio de estados \( \mathbb{Z} \) con \( X_0 \), \( p_{0,-1}=\frac{1}{2} \), \( p_{0, 1}=\frac{1}{2} \), \( p_{i+1, 1} \) para todo \( i\geq{1} \) y
\( p_{i, i-1}=1 \) para todo \( i\leq{-1} \)
a) Calcule distribución de probabilidades.
b) Calcular el valor esperado de la cadena al tiempo n.
c) compruebe que \( E[X_n]=E[X_0] \)
Ya hallé la distribución de probabilidades.
Pero no sé hacer b y c porque no vimos nunca valor esperado en cadenas de markov.
La distribución viene dada por:
\( p_j (n)=1/2 \) si \( j=n \) ó \( j=-n \) 0 en los otros casos. Quedo atento. Un millón de gracias.
Distribución de probabilidades de qué, ¿de \( X_0 \)? Por otra parte en b) te están pidiendo que calcules \( \operatorname{E}[X_n] \), es decir, la media de los valores en estado \( n \).
no es cierto en general
Lo que sigue no es cierto en general, por eso lo he dejado en un spoiler.
Te basta con mostrar que una cadena de Markov es un tipo especial de martingala, y por tanto de la definición de martingala sale casi de inmediato que \( \operatorname{E}[X_n]=\operatorname{E}[X_0] \) para todo \( n\in \mathbb{Z} \).
Corrección: perdón, no todas las cadenas de Markov son martingalas pero en muchos casos suele ser así. Habría que ver si en este caso en particular aplica.