Autor Tema: Determinar mejor estimador

0 Usuarios y 1 Visitante están viendo este tema.

17 Junio, 2020, 02:30 am
Leído 206 veces

razielcero

  • $$\pi \pi$$
  • Mensajes: 66
  • País: co
  • Karma: +0/-0
  • Sexo: Masculino
Hola a todos: tengo el siguiente problema; en un experimento binomial hay observados \(  x  \) éxitos en \(  n  \) ensayos independientes. Como estimadores de la proporción de éxitos se proponen las estadísticas:

\(  \displaystyle T_1 = \frac{X}{n}\\ T_2 = \frac{X+1}{n+2} \)

Me preguntan si alguno de ellos es mejor que el otro para cualquier valor del parámetro p.

Según tengo entendido, debería entonces verificar si ambos cumplen con ser insesgados, consistentes y de mínima varianza. ¿Es así? De ser así, cómo puedo mostrar la consistencia? un límite de n tendiendo a infinito??  :-\

No sé en qué influye mencionar lo "cualquier valor del parámetro p", me hace pensar que dependiendo de ese valor p puede ser que uno sea mejor que el otro (me imagino que el primero será asintóticamente insesgado aunque no lo sé  :-\

Gracias por cualquier orientación!

Saludos.

17 Junio, 2020, 09:22 am
Respuesta #1

geómetracat

  • Moderador Global
  • Mensajes: 1,862
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Normalmente "mejor" estimador se refiere a menor error cuadrático medio (ECM). Si ambos son insesgados es lo mismo que mínima varianza, pero aquí el segundo no lo es, y no tiene mucho sentido comparar estimadores uno insesgado y el otro no usando únicamente la varianza.
Así que en este caso creo que deberías calcular el ECM de cada estimador y si hay alguno que es menor para cualquier valor de \( p \).

Podría ser que para algunos valores del parámetro \( p \) uno tuviera menor ECM que el otro y para otros valores de \( p \) fuera al revés. Por eso dicen "para cualquier valor de \( p \)", porque si uno es mejor que el otro para cualquier valor de \( p \) está claro cuál debes elegir, si no, no está tan claro (recuerda que no sabes el valor de \( p \) de antemano, así que no está claro cuál usar).

Lo de la consistencia: debes comprobar que el límite en probabilidad del estimador es el valor real del parámetro \( p \). Una forma práctica de ver esto es comprobar la convergencia en media cuadrática, que es lo mismo que comprobar que el ECM del estimador va a \( 0 \) cuando \( n \to \infty \). O equivalentemente, recordando que:
\( ECM(T) = Var(T) + (Sesgo(T))^2 \)
que tanto el sesgo como la varianza tienen límite \( 0 \).

Espero que las indicaciones sean de ayuda, cualquier duda pregunta de nuevo.
La ecuación más bonita de las matemáticas: \( d^2=0 \)

19 Junio, 2020, 08:11 am
Respuesta #2

razielcero

  • $$\pi \pi$$
  • Mensajes: 66
  • País: co
  • Karma: +0/-0
  • Sexo: Masculino
Gracias por la respuesta geómetracat, es decir que sería algo así?:

\(  \displaystyle E(T_1) = E\left( \frac{X}{n}\right) = \frac{1}{n}E(X) = \frac{np}{n} = p  \)

\(  \displaystyle E(T_2) = E \left( \frac{X+1}{n+2} \right) = \frac{1}{n+2}E(X+1) = \frac{np+1}{n+2} \)

Y luego con las varianzas entonces algo así:

\(  \displaystyle V(T_1) = V\left( \frac{X}{n} \right) = \frac{1}{n^2}V(X) = \frac{np(1-p)}{n^2} = \frac{p(1-p)}{n} \)

\(  \displaystyle V(T_2) = V \left( \frac{X+1}{n+2} \right) = \frac{1}{(n+2)^2}V(X+1) = \frac{np(1-p)}{(n+2)^2} \)

Y luego comparar los ECM de cada uno, como:

\( \frac{p(1-p)}{n} > \frac{np(1-p)}{(n+2)^2} +  \frac{np+1}{n+2}  \)

Resolver esa inecuación para \( p \) a fin de averiguar cuándo es cierta??

El hecho de que el primer estimador ya sea insesgado (y el segundo no) no implica que es mejor que el otro automáticamente?  ??? ???

Además de lo anterior también debería hacer el límite \( n \to \infty  \) sobre el ECM, verdad?

En fin que me quedan preguntas pero ya las voy despejando gracias a la orientación.

Gracias por cualquier comentario de nuevo.

19 Junio, 2020, 09:00 am
Respuesta #3

geómetracat

  • Moderador Global
  • Mensajes: 1,862
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Los cálculos de esperanza y varianza están bien.
Pero el ECM del segundo estimador que pones en la desigualdad no, sería:
\( ECM(T_2) = Var(T_2) + (Sesgo(T_2))^2 = \frac{np(1-p)}{(n+2)^2} + \left( \frac{np+1}{n+2} - p\right)^2 \).

Resolver esa inecuación para \( p \) a fin de averiguar cuándo es cierta??

Sí, esa sería la idea.

Citar
El hecho de que el primer estimador ya sea insesgado (y el segundo no) no implica que es mejor que el otro automáticamente?  ??? ???

No necesariamente. El ser insesgado es una propiedad muy deseable, pero hay muchas ocasiones en la práctica donde se prefiere un estimador sesgado a uno insesgado, si la reducción en el ECM del primero es notable. Por poner un ejemplo extremo, ¿qué usarías, un estimador insesgado con varianza \( 1000 \) o uno con sesgo \( 0,1 \) y varianza \( 0,1 \)?

Citar
Además de lo anterior también debería hacer el límite \( n \to \infty  \) sobre el ECM, verdad?

Creo que no es estrictamente necesario para el problema, pero es una buena práctica ver que los estimadores son consistentes (en este caso ambos lo son). Si alguno no fuera consistente, entonces ya sí que lo puedes descartar.
La ecuación más bonita de las matemáticas: \( d^2=0 \)

19 Junio, 2020, 06:53 pm
Respuesta #4

razielcero

  • $$\pi \pi$$
  • Mensajes: 66
  • País: co
  • Karma: +0/-0
  • Sexo: Masculino
Gracias por tu ayuda! me aclara bastante; voy a resolver la inecuación y hacer lo de consistencia por tenerlo claro también... Estuve leyendo y encontré algo sobre que debería cumplirse la cota de Rao Cramer como una propiedad de ser buen estimador, valdría la pena aquí? o el hecho de que en el ECM ya esté comparando varianzas me quitaría ese problema??  ???

19 Junio, 2020, 07:24 pm
Respuesta #5

geómetracat

  • Moderador Global
  • Mensajes: 1,862
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Aquí no te sirve demasiado. La cota de Rao-Cramer es una cota inferior a la varianza de estimadores insesgados. Si un estimador insesgado alcanza la cota entonces se dice que es un estimador insesgado de varianza mínima, y es el mejor estimador insesgado que puedes tener (en el sentido de tener menor ECM). Pero aún así puedes tener estimadores sesgados que tengan una varianza inferior a la dada por la cota de Rao-Cramer, y que tengan menor ECM que el estimador insesgado de varianza mínima.

En resumen, es un concepto útil para comparar estimadores insesgados, pero no tanto para comparar un estimador insesgado con otro sesgado.

Si sigues el criterio usual (tomar el estimador de menor ECM), ya lo tienes todo hecho. Lo único que te queda es analizar la desigualdad y ver si algún estimador tiene menor ECM que el otro en cualquier rango del parámetro \( p \), o ver si para algunos valores de \( p \) el primero es mejor y para otros lo es el segundo.
La ecuación más bonita de las matemáticas: \( d^2=0 \)