Autor Tema: Inferencia en la realidad

0 Usuarios y 1 Visitante están viendo este tema.

20 Enero, 2022, 01:24 am
Leído 290 veces

mg

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 409
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Hola,

Estoy justo estudiando para un examen de inferencia que tengo en los proximos días y me ha surgido la siguiente pregunta. ¿En la realidad cómo se sabe en qué distribución trabajar? Es decir, como puedes distinguir si estas antes una poison, una binomial....

Espero respuestas.

Un saludo

20 Enero, 2022, 08:29 am
Respuesta #1

Masacroso

  • Moderador Global
  • Mensajes: 3,589
  • País: es
  • Karma: +0/-0
Hola,

Estoy justo estudiando para un examen de inferencia que tengo en los proximos días y me ha surgido la siguiente pregunta. ¿En la realidad cómo se sabe en qué distribución trabajar? Es decir, como puedes distinguir si estas antes una poison, una binomial....

Espero respuestas.

Un saludo

Es que no lo sabes, eliges una familia de distribuciones por diferentes motivos, ya sean de conocimiento interno del proceso a modelar o debido a algunos datos estadísticos que hagan sospechar que la distribución real se puede aproximar con una familia de distribuciones determinada. Hay diversos tests que se pueden aplicar para decidir qué familia tomar como base del modelo.

Ten en cuenta que muchas veces los fenómenos estudiados que se modelan con alguna distribución de probabilidad no son siquiera distribuciones de probabilidad como tales, me refiero a que el proceso de fondo varía con el tiempo o bajo parámetros impredecibles.

Lo que has estudiado es una rama de la estadística que forma parte de lo que se denomina estadística parametrizada o estadística paramétrica, donde una serie de datos se intentan modelar a través de familias de distribución de probabilidad conocidas. Pero hay otra rama de la estadística, la estadística no paramétrica o estadística libre, donde esto no se hace, sino que lo que se hace es utilizar directamente la distribución de probabilidad empírica, sin intentar ajustarla a ninguna familia de distribuciones de probabilidad.

Mira aquí:

https://en.wikipedia.org/wiki/Statistical_inference#Models_and_assumptions
https://en.wikipedia.org/wiki/Statistical_model_validation
https://en.wikipedia.org/wiki/All_models_are_wrong

De todo esto es que la objetividad, en sentido epistémico, se funda en la posibilidad de repetir, tantas veces como se quiera, un experimento en condiciones controladas, ése es uno de los fundamentos del método científico y es lo que permite obtener información consistente y confiable. Cuando esto no es posible la cosa empieza a complicarse.

20 Enero, 2022, 10:50 am
Respuesta #2

mg

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 409
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Muchisimas gracias por tu respuesta, es muy esclarecedera. En cuanto esté un poquito más libre investigaré a fondo en los enlaces y en el tema en general. Por cierto, la estadística no parametrizada también se conoce como estadística bayesiana ¿no?


20 Enero, 2022, 11:12 am
Respuesta #3

Masacroso

  • Moderador Global
  • Mensajes: 3,589
  • País: es
  • Karma: +0/-0
Muchisimas gracias por tu respuesta, es muy esclarecedera. En cuanto esté un poquito más libre investigaré a fondo en los enlaces y en el tema en general. Por cierto, la estadística no parametrizada también se conoce como estadística bayesiana ¿no?

La inferencia bayesiana se funda en otra manera de interpretar la probabilidad, puede ser tanto paramétrica como no paramétrica. Mira aquí:

https://es.wikipedia.org/wiki/Interpretaciones_de_las_probabilidades

Nota: hay más interpretaciones del concepto "probabilidad" de las descritas en el artículo de la wikipedia en castellano.

20 Enero, 2022, 11:26 am
Respuesta #4

geómetracat

  • Moderador Global
  • Mensajes: 3,194
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Por cierto, la estadística no parametrizada también se conoce como estadística bayesiana ¿no?
No, son cosas distintas. Puedes hacer estadística no paramétrica frecuentista, igual que puedes hacer estadística paramétrica bayesiana.
La estadística no paramétrica se basa en no asumir de entrada que los datos sigan una distribución concreta (como por ejemplo la normal) con algún parámetro a determinar. Por ejemplo, hay métodos para determinar la distribución (o algún parámetro de interés de la distribución, como la esperanza o la varianza) de la que provienen unos datos a partir de los datos, sin asumir de entrada que es de alguna familia concreta.

La estadística bayesiana va en otra dirección. Normalmente en estadística frecuentista supones que puedes realizar el experimento multitud de veces y que los estimadores (si son buenos) van a converger al valor real del parámetro (a esto se le llama consistencia). Es decir, que si repites multitud de veces un experimento y estimas un parámetro, la estimación será más buena cuanto más veces repitas el experimento, y en el límite será ideal.
La estadística bayesiana parte de un planteamiento radicalmente distinto. Supone que la probabilidad de un suceso es "subjetiva", es decir es un "grado de creencia" en que se va a dar un cierto suceso. Esto es muy distinto de la interpretación frecuentista de la probabilidad, que viene a ser el límite de las frecuencias relativas de ocurrencia de un suceso cuando repites el experimento muchas veces, y por tanto es algo objetivo. Entonces, la idea en estadística bayesiana es que tu tienes un grado de creencia inicial (la probabilidad a priori, o prior), observas unos datos, y a partir de los datos observados "actualizas" tus creencias. Pero puedes suponer que los datos siguen una distribución concreta (y tienes estadística paramétrica bayesiana) o no (y tienes estadística no paramétrica bayesiana).
Esto parece un poco raro porque hay un grado importante de subjetividad (por ejemplo, al elegir la distribución del prior), pero es un punto de vista muy útil y que se adapta muy bien a ciertos problemas, aunque no creas en la filosofía que hay detrás.
La ecuación más bonita de las matemáticas: \( d^2=0 \)