Autor Tema: EMV de distribución exponencial con parámetro de localización.

0 Usuarios y 1 Visitante están viendo este tema.

11 Septiembre, 2020, 11:06 am
Leído 83 veces

JorgeFC

  • $$\pi \pi \pi$$
  • Mensajes: 186
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Buenos días, tengo el siguiente ejercicio:
De la población con función de densidad exponencial con parámetro de localización:
\(  f(x, \lambda) = e^{\lambda - x} , x \geq{\lambda}  \)

Se elige una muestra aleatoria simple de tamaño n para estimar \( \lambda \).
a) A partir del EMV (Estimador Máximo Verosímil) construir un estimador insesgado y calcular su varianza.
b) ¿Son consistentes el EMV y el estimador anterior?


Pues bien, he empezado el problema construyendo la función de verosimilitud, tomando su neperiano y calculando la derivada respecto al parámetro. Esta derivada me da n = 0, con lo cual no puedo extraer un EMV como es habitual con este método. En algún ejercicio que la derivada no se anulaba (pero sí dependía del parámetro a estimar) podía tomar el máximo valor muestral como EMV, pero no sé si en esta situación también sería ese el valor a tomar.

¿Alguna indicación sobre cuál es el EMV que estoy buscando? Con eso creo que podría seguir con el ejercicio sin ningún problema, pero ahora mismo estoy atascado... Muchas gracias y un saludo.

11 Septiembre, 2020, 11:45 am
Respuesta #1

geómetracat

  • Moderador Global
  • Mensajes: 1,862
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
La función verosimilitud es:
\[ L(\lambda)=\exp(n\lambda - \sum_{i=1}^n x_i), \]
si \( \lambda \leq x_i \) para todo \( i \), y \( L(\lambda)=0 \) en caso contrario.

Lo importante es recordar que el estimador MV es el que maximiza la verosimilitud (o su logaritmo). Normalmente esto se hace derivando e igualando a cero, pero en este caso no funciona porque la función no es continua (ya que si \( \lambda >x_i \) para algún \( i \), la función verosimilitud vale \( 0 \)).

Así que debes pensarlo de la siguiente manera: para que \( L \) sea máxima, interesa que \( \lambda \) sea tan grande como sea posible. Esto implica que el estimador MV es \( \hat{\lambda}=\min_i \{x_i\} \), ya que es el máximo valor que puede tomar \( \lambda \) antes de que la verosimilitud pase a valer \( 0 \).
La ecuación más bonita de las matemáticas: \( d^2=0 \)

11 Septiembre, 2020, 11:49 am
Respuesta #2

JorgeFC

  • $$\pi \pi \pi$$
  • Mensajes: 186
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Así que debes pensarlo de la siguiente manera: para que \( L \) sea máxima, interesa que \( \lambda \) sea tan grande como sea posible. Esto implica que el estimador MV es \( \hat{\lambda}=\min_i \{x_i\} \), ya que es el máximo valor que puede tomar \( \lambda \) antes de que la verosimilitud pase a valer \( 0 \).

¡Muchas gracias!
Un único comentario, sería el máximo, no el mínimo, ¿verdad?

De todas formas, ¿hay algún motivo por el que se tome el máximo y no por ejemplo la suma muestral?

11 Septiembre, 2020, 12:12 pm
Respuesta #3

geómetracat

  • Moderador Global
  • Mensajes: 1,862
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
No, no, es el mínimo, y se toma precisamente porque es el valor que hace que la función de verosimilitud sea máxima. Lo explico con más calma.

Fíjate que la función de densidad es:
\( f(x) = e^{\lambda - x} 1_{[\lambda,+\infty)}(x) \),
donde \( 1_{[\lambda,+\infty)}(x) \) es una función indicatriz (vale \( 1 \) si \( x \geq \lambda \) y \( 0 \) en caso contrario).

Ahora, la función de verosimilitud es:
\[ L(\lambda) = \prod_{i=1}^n f(x_i) = \exp(n\lambda - \sum_{i=1}^n x_i) \prod_{i=1}^n 1_{[\lambda,+\infty)}(x_i) \].
Ten en cuenta que aquí debes pensar que los \( x_i \) son números fijados, y que la variable es \( \lambda \). Ahora, ¿cuál es el valor de \( \lambda \) que hace que \( L(\lambda) \) sea máxima?

Bueno, por un lado, si \( \lambda > x_i \) para algún \( i \), tienes que una de las funciones indicatrices es cero, y por tanto \( L(\lambda)=0 \). Así que si \( \lambda > \min_i \{x_i\} \) entonces \( L(\lambda)=0 \). Por otro lado, si \( \lambda \leq \min_i \{x_i\} \), tienes que todas las funciones indicatrices valen uno y \( L(\lambda) = \exp(n\lambda-\sum_i x_i) \), y será tanto mayor cuanto mayor sea \( \lambda \) (y es siempre mayor que cero, claro). Así que tienes que tomar el mayor \( \lambda \) posible bajo la restricción de \( \lambda \leq \min_i \{x_i\} \), lo cual te fuerza a tomar \( \lambda = \min_i \{x_i\} \).
La ecuación más bonita de las matemáticas: \( d^2=0 \)