¿Qué es covarianza?

La covarianza mide la relación lineal entre dos variables. Aunque la covarianza es similar a la correlación entre dos variables, difieren de las siguientes maneras:

  • Los coeficientes de correlación están estandarizados. Por lo tanto, una relación lineal perfecta da como resultado un coeficiente de 1. La correlación mide tanto la fuerza como la dirección de la relación lineal entre dos variables.
  • Los valores de covarianza no están estandarizados. Por consiguiente, la covarianza puede ir desde infinito negativo hasta infinito positivo. Por lo tanto, el valor de una relación lineal perfecta depende de los datos. Puesto que los datos no están estandarizados, es difícil determinar la fuerza de la relación entre las variables.
Los valores de covarianza positivos indican que los valores por encima del promedio de una variable están asociados con los valores por encima del promedio de la otra variable y los valores por debajo del promedio están asociados de manera similar. Los valores de covarianza negativos indican que los valores por encima del promedio de una variable están asociados con los valores por debajo del promedio de la otra variable.
El coeficiente de correlación depende de la covarianza. El coeficiente de correlación es igual a la covarianza dividida entre el producto de las desviaciones estándar de las variables. Por lo tanto, una covarianza positiva siempre producirá una correlación positiva y una covarianza negativa siempre generará una correlación negativa.






CENTRO DE GRAVEDAD

El centro de gravedad es el punto en el que el peso de un objeto está adecuadamente distribuido y donde se supone que actúa la fuerza de gravedad. Este es el punto en donde el objeto se encuentra en perfecto equilibro, sin importar cuánto gire alrededor de él. Si quieres calcular el centro de gravedad de un objeto, deberás hallar su peso, así como de todos los objetos que se encuentran encima, localizar el punto de referencia y reemplazar las cantidades conocidas en la ecuación. 
Es el punto imaginario de aplicación de la resultante de todas las fuerzas de gravedad que actúan sobre las distintas porciones materiales de un cuerpo, de tal forma que el momento respecto a cualquier punto de esta resultante aplicada en el centro de gravedad es el mismo que el producido por los pesos de todas las masas materiales que constituyen dicho cuerpo. En otras palabras, el centro de gravedad de un cuerpo es el punto respecto al cual las fuerzas que la gravedad ejerce sobre los diferentes puntos materiales que constituyen el cuerpo producen un momento resultante nulo.
El centro de gravedad de un cuerpo no corresponde necesariamente a un punto material del cuerpo. Así, el centro de gravedad de una esfera hueca está situado en el centro de la esfera, la cual no pertenece al cuerpo.
Centro de gravedad de un cuerpo depende de la forma del cuerpo y de cómo está distribuida su masa.
Propiedades del centro de gravedad:
La resultante de todas las fuerzas gravitatorias que actúan sobre las partículas que constituyen un cuerpo puede reemplazarse por una fuerza única, {\displaystyle M\mathbf {g} }Mg, esto es, el propio peso del cuerpo, aplicada en el centro de gravedad del cuerpo. Esto equivale a decir que los efectos de todas las fuerzas gravitatorias individuales (sobre las partículas) pueden contrarrestarse por una sola fuerza, {\displaystyle -M\mathbf {g} }-Mg, con tal de que sea aplicada en el centro de gravedad del cuerpo, como se indica en la figura.
Un objeto apoyado sobre una base plana estará en equilibrio estable si la vertical que pasa por el centro de gravedad corta a la base de apoyo. Lo expresamos diciendo que el c.g. se proyecta verticalmente (cae) dentro de la base de apoyo.
Además, si el cuerpo se aleja ligeramente de la posición de equilibrio, aparecerá un momento restaurador y recuperará la posición de equilibrio inicial. No obstante, si se aleja más de la posición de equilibrio, el centro de gravedad puede caer fuera de la base de apoyo y, en estas condiciones, no habrá un momento restaurador y el cuerpo abandona definitivamente la posición de equilibrio inicial mediante una rotación que le llevará a una nueva posición de equilibrio.
Datos Bivariados
Se llaman datos bivariados a aquellos que provienen de dos variables medidas al mismo tiempo sobre cada individuo. Por ejemplo: Edad y Género, Escolaridad e Ingreso, Peso y Estatura, etc.
Cuando los datos bivariados provienen de dos variables cuantitativas resulta de interés estudiar la relación que guarda una con la otra. La relación puede ser de muy distinta naturaleza: lineal, cuadrática, exponencial, logarítmica, trigonométrica, etc. En estadística la relación que nos interesa es la Relación Lineal, por lo que se llevan a cabo Análisis de Correlación Lineal y de Regresión Lineal El análisis de correlación, se usa para medir la fuerza de asociación entre las variables. El objetivo medir la covarianza que existe entre esas dos variables numéricas. El análisis de regresión se usa con propósitos de predicción. Se busca desarrollar un modelo estadístico útil para predecir los valores de una variable dependiente o de respuesta basados en los valores de al menos una variable independiente o explicativa.

Correlación Lineal
Bajo el concepto de correlación se recogen varios procedimientos e indicadores estadísticos utilizados para determinar el grado de asociación entre dos variables; el más sencillo de ellos es el de correlación lineal que está basado en la comparación de la varianza asociada de dos variables (covarianza) y las desviaciones estándar de cada uno a través del cálculo del coeficiente r de Pearson.
Según sea el valor del coeficiente de correlación (r) se tiene que:
•          si r es positivo, la relación lineal entre las variables es directa. Se dice que la correlación es positiva.
•          si r es negativo, la relación lineal entre las variables es inversa. Se dice que la correlación es negativa.
•          si r = 0, no existe relación lineal entre las variables, se dice que la correlación es nula.
•          si r = 1, existe una relación de dependencia total directa entre las variables. Es decir, si una de ellas aumenta (o disminuye), la otra aumenta (o disminuye) en igual proporción.
•          si r = -1, existe una relación de dependencia total inversa entre las variables. Es decir, si una de ellas aumenta (o disminuye), la otra disminuye(o aumentan igual proporción.
Covarianza muestral=Cov(X,Y)=∑ni=1(xi−x¯¯¯)(yi−y¯¯¯)N−1
Covarianza muestral=Cov(X,Y)=∑i=1n(xi−x¯)(yi−y¯)N−1
La covarianza depende de las escalas en que se miden las variables estudiadas, por lo tanto, no es comparable entre distintos pares de variables. Las principales diferencias entre estos tres coeficientes de asociación son:
•          La correlación de Pearson funciona bien con variables cuantitativas que tienen una distribución normal. En el libro Handbook of Biological Statatistics se menciona que sigue siendo bastante robusto a pesar de la falta de normalidad. Es más sensible a los valores extremos que las otras dos alternativas.
•          La correlación de Spearman se emplea cuando los datos son ordinales, de intervalo, o bien cuando no se satisface la condición de normalidad para variables continuas y los datos se pueden transformar a rangos. Es un método no paramétrico.
•          La correlación de Kendall es otra alternativa no paramétrica para el estudio de la correlación que trabaja con rangos. Se emplea cuando se dispone de pocos datos y muchos de ellos ocupan la misma posición en el rango, es decir, cuando hay muchas ligaduras.
Además del valor obtenido para el coeficiente de correlación, es necesario calcular su significancia. Solo si el p-value es significativo se puede aceptar que existe correlación, y esta será de la magnitud que indique el coeficiente. Por muy cercano que sea el valor del coeficiente de correlación a +1+1 o −1−1, si no es significativo, se ha de interpretar que la correlación de ambas variables es 0, ya que el valor observado puede deberse a simple aleatoriedad.


El test paramétrico de significancia estadística empleado para el coeficiente de correlación es el t-test. Al igual que ocurre siempre que se trabaja con muestras, por un lado está el parámetro estimado (en este caso el coeficiente de correlación) y por otro su significancia a la hora de considerar la población entera. Si se calcula el coeficiente de correlación entre XX e YY en diferentes muestras de una misma población, el valor va a variar dependiendo de las muestras utilizadas. Por esta razón se tiene que calcular la significancia de la correlación obtenida y su intervalo de confianza.
t=rN−2−−−−−√1−r2−−−−−√,   df=N−2t=rN−21−r2,   df=N−2
Para este test de hipótesis, H0H0 considera que las variables son independientes (coeficiente de correlación poblacional = 0) mientras que, la HaHa, considera que existe relación (coeficiente de correlación poblacional ≠≠ 0)
La correlación lineal entre dos variables, además del valor del coeficiente de correlación y de sus significancia, también tiene un tamaño de efecto asociado. Se conoce como coeficiente de determinación R2R2. Se interpreta como la cantidad de varianza de YY explicada por XX. En el caso del coeficiente de Pearson y el de Spearman, R2R2 se obtiene elevando al cuadrado el coeficiente de correlación. En el caso de Kendall no se puede calcular de este modo.
Diagrama de dispersión
El diagrama de dispersión permite estudiar las relaciones entre dos conjuntos asociados de datos que aparecen en pares (por ejemplo, (x,y), uno de cada conjunto). El diagrama muestra estos pares como una nube de puntos.
Las relaciones entre los conjuntos asociados de datos se infieren a partir de la forma de las nubes. Una relación positiva entre x y y significa que los valores crecientes de x están asociados con los valores crecientes de y.
Una relación negativa significa que los valores crecientes de x están asociados con los valores decrecientes de y.
¿Para qué se usa un diagrama de dispersión?
Entre sus usos está descubrir y mostrar las relaciones entre dos conjuntos asociados de datos  y confirmar relaciones anticipadas entre dos conjuntos asociados de datos.
El diagrama de dispersión puede estudiar la relación entre:
Dos factores o causas relacionadas con la calidad.
Dos problemas de calidad.
Un problema de calidad y su posible causa.











Comentarios