Autor Tema: Demostración de que el coeficiente de correlación de Pearson oscila entre 1 y -1

0 Usuarios y 1 Visitante están viendo este tema.

11 Noviembre, 2008, 02:36 am
Leído 13021 veces

leonardo09

  • Leonardo Andrés Jofré Flor
  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 798
  • Karma: +0/-0
  • Sexo: Masculino
  • Leonardo Jofré
    • Leonardo Andrés Jofré Flor
Así como dice el título, demostrar que \( -1<\displaystyle\frac{\sigma_{XY}}{\sigma_X\cdot{\sigma_Y}}<1 \)

Así todos entenderemos mejor este concepto¡¡¡
nunca seré buen matemático

11 Noviembre, 2008, 10:22 am
Respuesta #1

Luis Fuentes

  • el_manco
  • Administrador
  • Mensajes: 47,111
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Hola

 En realidad es un caso particular de la bien conocida desigualdad de Cauchy-Schwarz. Basta tener en cuenta que:

\(  \sigma_{XY}=E(X\cdot Y) \)

\(  \sigma_{X}=\sqrt{E(X^2)} \)

\(  \sigma_{Y}=\sqrt{E(Y^2)} \)

 siendo \( E \) el operador esperanza.

 La aplicación \( f:R^2\times R^2\longrightarrow{}R \) definida como:

\(  f((x,y),(x',y'))=E((xX+yY)(x'X+y'Y)) \)

 es bilineal simétrica semidefinida positiva y por tanto podemos aplicar Cauchy-Schwarz:

\( f((1,0),(1,0))f((0,1),(0,1))\leq f((1,0),(0,1)) \)

 O directamente si no queremos usar formas bilineales, consideramos la función:

 \( E((\lambda Y+X)^2)\geq 0 \) para cualquier \( \lambda\in R \)

 Operando nos queda:

\( \lambda^2E(X^2)+2\lambda E(XY)+E(Y^2)\geq 0 \) para cualquier \( \lambda\in R \)

 Es decir, como función de \( \lambda \) es una función cuarática que nunca es negativa; por tanto a lo sumo se anula en un punto y su discirminante ha de ser no positivo:

\(  4E(XY)^2-4E(X^2)E(Y^2)\leq 0 \)

 De ahí es inmediato terminar.

Saludos.

P.D. La demostración está hecha con el operador esperanza para cubrir todos los posibles casos (variables discretas, continuas, mixtas). Puede particularizarse si queremos fácilmente al caso típico de variables discretas.


16 Diciembre, 2009, 04:23 am
Respuesta #2

aesede

  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 493
  • Karma: +0/-0
  • Sexo: Masculino
Hola.

P.D. La demostración está hecha con el operador esperanza para cubrir todos los posibles casos (variables discretas, continuas, mixtas). Puede particularizarse si queremos fácilmente al caso típico de variables discretas.

Me podés ayudar a empezar?

Gracias, saludos.

16 Diciembre, 2009, 10:29 am
Respuesta #3

Luis Fuentes

  • el_manco
  • Administrador
  • Mensajes: 47,111
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Hola

 ¿Dónde tienes la duda? En el post anterior ya se indica como empezar. Por ejemplo así:

Citar
O directamente si no queremos usar formas bilineales, consideramos la función:

 \( E((\lambda Y+X)^2)\geq 0 \) para cualquier \( \lambda\in R \)

 Operando nos queda:

\( \lambda^2E(X^2)+2\lambda E(XY)+E(Y^2)\geq 0 \) para cualquier \( \lambda\in R \)

 Es decir, como función de \( \lambda \) es una función cuarática que nunca es negativa; por tanto a lo sumo se anula en un punto y su discirminante ha de ser no positivo:

\(  4E(XY)^2-4E(X^2)E(Y^2)\leq 0 \)

 De ahí es inmediato terminar.

 Exactamente dónde tienes la duda o que no sabes hacer.

Saludos.

16 Diciembre, 2009, 01:56 pm
Respuesta #4

aesede

  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 493
  • Karma: +0/-0
  • Sexo: Masculino
Hola el_manco.

Tengo la demostración, aunque es por un camino un tanto diferente.

Definimos \( {S_y}^2 = \displaystyle\frac{1}{n} \displaystyle\sum_{i=1}^n{(y_i - \hat{y})^2} \)          (1)

siendo \( y_i \) el valor observado, \( \hat{y} \) el valor esperado y \( n \) la cantidad de elementos de la muestra.

Para simplificar la demostración, supongo que la recta de regresión pasa por el origen, ésto es: \( \hat{y} = a x_i \)

Sabemos que:

\( {\sigma_x}^2 = \displaystyle\frac{1}{n} \displaystyle\sum_{i=1}^n{(x_i-\overline{x})^2} \)

\( {\sigma_x}^2 = \displaystyle\frac{1}{n} \displaystyle\sum_{i=1}^n{(y_i-\overline{y})^2} \)

\( Cov(x,y) = \displaystyle\frac{1}{n} \displaystyle\sum_{i=1}^n{x_i y_i} \)

En (1) desarrollamos el cuadrado y descomponemos en tres términos según propiedades de la sumatoria. Luego reemplazamos las expresiones anteriores:

\( {S_y}^2 = \displaystyle\frac{1}{n} \displaystyle\sum_{i=1}^n{{y_i}^2} - \displaystyle\frac{2a}{n} \displaystyle\sum_{i=1}^n{x_i y_i} + \displaystyle\frac{a^2}{n} \displaystyle\sum_{i=1}^n{{x_i}^2} = {\sigma_y}^2 - 2 a Cov(x,y) + a^2 {\sigma_x}^2 \)

Sumamos y restamos \( \displaystyle\frac{Cov^2(x,y)}{{\sigma_x}^2} \):

\( {S_y}^2 = {\sigma_y}^2 - \displaystyle\frac{Cov^2(x,y)}{{\sigma_x}^2} + \displaystyle\frac{Cov^2(x,y)}{{\sigma_x}^2} - 2 a Cov(x,y) + a^2 {\sigma_x}^2 \)

Sacando factor común:

\( {S_y}^2 = {\sigma_y}^2 ( 1 - \displaystyle\frac{Cov^2(x,y)}{{\sigma_x}^2 {\sigma_y}^2}) + {\sigma_x}^2 \underbrace{(\displaystyle\frac{Cov^2(x,y)}{{\sigma_x}^4} - \displaystyle\frac{2 a Cov(x,y)}{{\sigma_x}^2} + a^2)}_{(\displaystyle\frac{Cov(x,y)}{{\sigma_x}^2}-a)^2} \)

Sabemos que \( r = \displaystyle\frac{Cov^2(x,y)}{{\sigma_x}^2 {\sigma_y}^2} \) (coeficiente de correlación).

Además, como \( a = \displaystyle\frac{Cov(x,y)}{{\sigma_x}^2} \) el segundo miembro se hace cero.

Luego: \( {S_y}^2 = {\sigma_y}^2 ( 1 - r^2 ) \)

Como a \( {S_y}^2 \) la definimos como la suma de cuadrados, no puede ser nunca negativo. Y como \( {\sigma_y}^2 \) nunca es negativo (por la misma razón), el factor \( (1-r^2) \) debe ser no negativo. Así que:

\( 1-r^2 \geq{} 0 \Longrightarrow{} \boxed{|r|\leq{1}} \)

Con lo que queda demostrado que el coeficiente de Pearson varía en el intervalo [-1;1].

Ahora, para que la demostración "funcione", me veo obligado a pensar en las variables centralizadas en sus medias, ésto es: \( \overline{X} = \overline{Y} = 0 \).

Es correcto hacer ésta simplificación?

Gracias de nuevo, saludos.

04 Junio, 2018, 09:45 am
Respuesta #5

Luis Fuentes

  • el_manco
  • Administrador
  • Mensajes: 47,111
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Hola

 Contesto a este post antiguo porque alguien me ha preguntado sobre él.

Ahora, para que la demostración "funcione", me veo obligado a pensar en las variables centralizadas en sus medias, ésto es: \( \overline{X} = \overline{Y} = 0 \).

 Se puede suponer variables con media cero, porque la varianza y covarianza no se modifican al desplzar las variables, es decir:

\( Var(X)=Var(X+cte),\qquad cov(X+cte,Y+cte)=cov(X,Y) \)

 Por tanto dadas variables arbitrarias uno puede redefinir \( X'=X-\bar X \) e \( Y'=Y-\bar Y \) sin modificar el coeficiente de correlación y trabajar con variables de media nula.

Saludos.