Autor Tema: Duda Problemas Convergencia de v.a´s

0 Usuarios y 1 Visitante están viendo este tema.

08 Enero, 2024, 12:10 am
Leído 76 veces

rosinn

  • $$\Large \color{#6a84c0}\pi$$
  • Mensajes: 15
  • País: es
  • Karma: +0/-0

Hola,
Tengo dos problemas de convergencia que no se bien como resolverlos:
(1) Sean \( {X_n}{Y_n} \) dos sucesiones de v.a.´s reales definidas en el mismo espacio probabilístico y tales que para todo \( n\in{}\mathbb{N} \) las variables están igualmente distribuidas
Demostrar que si  \( {X_n}\longrightarrow{}_{c.p} (0)  \) entonces \( {Y_n}\longrightarrow{}_{c.p} (0)  \) donde c.p es convergencia en probabilidad.

(2)Sea \( {X_n} \) una sucesión de v.a.i.´s todas ellas con distribución \( U(0,\theta) \). Demostrar que \( M_n=sup\left\{{X_1.....X_n}\right\}\longrightarrow{}_{a.s} \theta \) donde a.s es convergencia casi segura.

Graciass :P ::)

08 Enero, 2024, 09:22 am
Respuesta #1

Luis Fuentes

  • el_manco
  • Administrador
  • Mensajes: 56,141
  • País: es
  • Karma: +0/-0
Hola

Tengo dos problemas de convergencia que no se bien como resolverlos:
(1) Sean \( {X_n}{Y_n} \) dos sucesiones de v.a.´s reales definidas en el mismo espacio probabilístico y tales que para todo \( n\in{}\mathbb{N} \) las variables están igualmente distribuidas
Demostrar que si  \( {X_n}\longrightarrow{}_{c.p} (0)  \) entonces \( {Y_n}\longrightarrow{}_{c.p} (0)  \) donde c.p es convergencia en probabilidad.

Pero esto es muy inmediato de la definición, ¿no?.

Que \( {X_n}\longrightarrow{}_{c.p} (0)  \) significa que para todo \( \epsilon>0 \),

\( \displaystyle\lim_{n\to{+}\infty}{}P(|X_n-0|>\epsilon)=0 \)

si están igualmente distribuidas, \( P(|X_n-0|>\epsilon)=P(|Y_n-0|>\epsilon) \) y por tanto \( {Y_n}\longrightarrow{}_{c.p} (0)  \).

Citar
(2)Sea \( {X_n} \) una sucesión de v.a.i.´s todas ellas con distribución \( U(0,\theta) \). Demostrar que \( M_n=sup\left\{{X_1.....X_n}\right\}\longrightarrow{}_{a.s} \theta \) donde a.s es convergencia casi segura.

Ten en cuenta que para \( t\in [0,\theta) \),

\( P(M_n\leq t)=P(X_1\leq t\cap X_2\leq t\cap \ldots\cap X_n\leq t)=(t/\theta)^n \)

y que si \( t\in [0,\theta) \), \( \displaystyle\lim_{n \to{+}\infty}{}(t/\theta)^n=0 \).

Saludos.

08 Enero, 2024, 12:29 pm
Respuesta #2

rosinn

  • $$\Large \color{#6a84c0}\pi$$
  • Mensajes: 15
  • País: es
  • Karma: +0/-0

Ten en cuenta que para \( t\in [0,\theta) \),

\( P(M_n\leq t)=P(X_1\leq t\cap X_2\leq t\cap \ldots\cap X_n\leq t)=(t/\theta)^n \)

y que si \( t\in [0,\theta) \), \( \displaystyle\lim_{n \to{+}\infty}{}(t/\theta)^n=0 \).

Saludos.

Hola, gracias por la ayuda.
No entiendo como eso demuestra la convergencia casi segura, por definición, converge casi seguro si \( \mathbb{P}\left\{{w\in{}\Omega: X(w)=lim_{n\rightarrow{\inf}}X_n(w)}\right\}=1 \)
pero no logro entender como se llega a esa conclusión partiendo de \( \mathbb{P}(M_n\leq{}t) \)

08 Enero, 2024, 12:53 pm
Respuesta #3

Luis Fuentes

  • el_manco
  • Administrador
  • Mensajes: 56,141
  • País: es
  • Karma: +0/-0
Hola

Hola, gracias por la ayuda.
No entiendo como eso demuestra la convergencia casi segura, por definición, converge casi seguro si \( \mathbb{P}\left\{{w\in{}\Omega: X(w)=lim_{n\rightarrow{\inf}}X_n(w)}\right\}=1 \)
pero no logro entender como se llega a esa conclusión partiendo de \( \mathbb{P}(M_n\leq{}t) \)

Usa esta caracterización (Teorema 7.5). Si para todo \( \epsilon>0 \):

\( \displaystyle\sum_{n=1}^\infty{}P(|M_n-\theta|>\epsilon)<+\infty \)

entonces \( M_n\to \theta \) casi seguro.

En sete caso dado que \( M_n\leq \theta \) queda:

\( \displaystyle\sum_{n=1}^\infty{}P(|M_n-\theta|>\epsilon)=\displaystyle\sum_{n=1}^\infty{}P(M_n<\theta-\epsilon) \)

Si \( \epsilon\geq \theta \) todas las probabilidades son cero. En otro caso queda:

\( \displaystyle\sum_{n=1}^\infty{}P(M_n<\theta-\epsilon)=\displaystyle\sum_{n=1}^\infty{}((\theta-\epsilon)/\theta)^n \)

y esa serie es convergente (suma finita) porque es geométrica de razón menor que uno.

Saludos.