Rincón Matemático

Matemática => Matemática Aplicada => Probabilidad => Mensaje iniciado por: zimbawe en 27 Mayo, 2021, 03:31 am

Título: Cadenas de markov y martingala.
Publicado por: zimbawe en 27 Mayo, 2021, 03:31 am
Hola. Tengo el siguiente problema, hay una parte que no he podido resolver. Agradecería si me echaran una mano.
Sea \( X_n \) una cadena de Markov. Con espacio de estados \(  \mathbb{Z}  \) con \(  X_0=0 \), \(  p_{0,-1}=\frac{1}{2} \), \(  p_{0, 1}=\frac{1}{2} \), \(  p_{i+1, 1}=1 \) para todo \(  i\geq{1} \) y
 \(  p_{i, i-1}=1 \)  para todo \(  i\leq{-1} \)
a) Calcule distribución de probabilidades.
b) Calcular el valor esperado de la cadena al tiempo n.
c) compruebe que \(  E[X_n]=E[X_0]  \)
Ya hallé la distribución de probabilidades.
Pero no sé hacer b y c porque no vimos nunca valor esperado en cadenas de markov.
La distribución viene dada por:
\(  p_j (n)=1/2  \) si \( j=n  \) ó \( j=-n  \) 0 en los otros casos. Quedo atento. Un millón de gracias.
Título: Re: Cadenas de markov y martingala.
Publicado por: Masacroso en 27 Mayo, 2021, 03:50 am
Hola. Tengo el siguiente problema, hay una parte que no he podido resolver. Agradecería si me echaran una mano.
Sea \( X_n \) una cadena de Markov. Con espacio de estados \(  \mathbb{Z}  \) con \(  X_0  \), \(  p_{0,-1}=\frac{1}{2} \), \(  p_{0, 1}=\frac{1}{2} \), \(  p_{i+1, 1} \) para todo \(  i\geq{1} \) y
 \(  p_{i, i-1}=1 \)  para todo \(  i\leq{-1} \)
a) Calcule distribución de probabilidades.
b) Calcular el valor esperado de la cadena al tiempo n.
c) compruebe que \(  E[X_n]=E[X_0]  \)
Ya hallé la distribución de probabilidades.
Pero no sé hacer b y c porque no vimos nunca valor esperado en cadenas de markov.
La distribución viene dada por:
\(  p_j (n)=1/2  \) si \( j=n  \) ó \( j=-n  \) 0 en los otros casos. Quedo atento. Un millón de gracias.

Distribución de probabilidades de qué, ¿de \( X_0 \)? Por otra parte en b) te están pidiendo que calcules \( \operatorname{E}[X_n] \), es decir, la media de los valores en estado \( n \).

no es cierto en general
Lo que sigue no es cierto en general, por eso lo he dejado en un spoiler.

Te basta con mostrar que una cadena de Markov es un tipo especial de martingala, y por tanto de la definición de martingala sale casi de inmediato que \( \operatorname{E}[X_n]=\operatorname{E}[X_0] \) para todo \( n\in \mathbb{Z} \).
[cerrar]

Corrección: perdón, no todas las cadenas de Markov son martingalas pero en muchos casos suele ser así. Habría que ver si en este caso en particular aplica.
Título: Re: Cadenas de markov y martingala.
Publicado por: geómetracat en 27 Mayo, 2021, 08:40 am
Hay erratas en el.enunciado. Entiendo que es \[ p_{i,i+1}=1 \] para todo \[ i \geq 1 \]. Corrígeme si no es así. Por otro lado deberían darte la distribución inicial de \[ X_0 \]. De otra manera no veo cómo hacer el ejercicio.

Suponiendo que \[ X_0=0 \], la distribución de probabilidad que pones está bien. La idea de esta cadena es muy sencilla: a tiempo uno tiene probabilidad \[ 1/2 \] de ir a la derecha y probabilidad \[ 1/2 \] de ir a la izquierda. Pero una vez ha hecho este primer movimiento todos los movimientos siguientes están ya determinados. Si ha ido a la izquierda continuará moviéndose una unidad a la izquierda a cada instante de tienpo, y lo mismo para la derecha. Entonces es fácil ver que la distribución de probabilidad es la que indicas.

Pero en general la distribución de \[ X_n \] dependerá de la distribución de la de \[ X_0 \], así que sin más datos no se puede decir nada.

Para la esperanza, suponiendo las distribuciones que has encontrado, simplemente aplica la definición de esperanza de una variable aleatoria. Que la variable forme parte de una cadena de Markov no afecta en nada.
\[ E[X_n]=n \frac{1}{2}+(-n)\frac{1}{2}=0 \].
Luego todas las \[ X_n \] tienen esperanza cero, que coincide con \[ E[X_0] \] si suponemos \[ X_0=0 \].
Título: Re: Cadenas de markov y martingala.
Publicado por: zimbawe en 27 Mayo, 2021, 11:13 am
Hola muchas gracias a los 2. En efecto, faltaban esas hipótesis que añadiste tú geómetracat. Y si, me salio que el valor esperado es 0, lo cual es muy intuitivo.
Un millón de gracias.