¿Qué es covarianza?
La covarianza mide la relación lineal entre dos variables.
Aunque la covarianza es similar a la correlación entre dos variables, difieren
de las siguientes maneras:
- Los
coeficientes de correlación están estandarizados. Por lo tanto, una
relación lineal perfecta da como resultado un coeficiente de 1. La
correlación mide tanto la fuerza como la dirección de la relación lineal
entre dos variables.
- Los
valores de covarianza no están estandarizados. Por consiguiente, la
covarianza puede ir desde infinito negativo hasta infinito positivo. Por
lo tanto, el valor de una relación lineal perfecta depende de los datos.
Puesto que los datos no están estandarizados, es difícil determinar la
fuerza de la relación entre las variables.
Los valores de covarianza positivos indican que los valores
por encima del promedio de una variable están asociados con los valores por
encima del promedio de la otra variable y los valores por debajo del promedio
están asociados de manera similar. Los valores de covarianza negativos indican
que los valores por encima del promedio de una variable están asociados con los
valores por debajo del promedio de la otra variable.
El coeficiente de correlación depende de la covarianza. El
coeficiente de correlación es igual a la covarianza dividida entre el producto
de las desviaciones estándar de las variables. Por lo tanto, una covarianza
positiva siempre producirá una correlación positiva y una covarianza negativa
siempre generará una correlación negativa.
CENTRO DE GRAVEDAD
El centro de gravedad es el punto en el
que el peso de un objeto está adecuadamente distribuido y donde se supone que
actúa la fuerza de gravedad. Este es el punto en donde el objeto se encuentra
en perfecto equilibro, sin importar cuánto gire alrededor de él. Si quieres
calcular el centro de gravedad de un objeto, deberás hallar su peso, así como
de todos los objetos que se encuentran encima, localizar el punto de referencia
y reemplazar las cantidades conocidas en la ecuación.
Es el punto
imaginario de aplicación de la resultante de todas las fuerzas de gravedad
que actúan sobre las distintas porciones materiales de un cuerpo, de tal forma
que el momento respecto a cualquier punto de esta resultante aplicada en el
centro de gravedad es el mismo que el producido por los pesos de todas las
masas materiales que constituyen dicho cuerpo. En otras palabras, el centro de
gravedad de un cuerpo es el punto respecto al cual las fuerzas que la gravedad
ejerce sobre los diferentes puntos materiales que constituyen el cuerpo
producen un momento resultante nulo.
El centro de
gravedad de un cuerpo no corresponde necesariamente a un punto material del
cuerpo. Así, el centro de gravedad de una esfera hueca está situado en el
centro de la esfera, la cual no pertenece al cuerpo.
Centro de
gravedad de un cuerpo depende de la forma del cuerpo y de cómo está distribuida
su masa.
Propiedades del centro de gravedad:
La resultante de
todas las fuerzas gravitatorias que actúan sobre las partículas que constituyen
un cuerpo puede reemplazarse por una fuerza única, ,
esto es, el propio peso del cuerpo, aplicada en el centro de gravedad del
cuerpo. Esto equivale a decir que los efectos de todas las fuerzas
gravitatorias individuales (sobre las partículas) pueden contrarrestarse por
una sola fuerza, Mg, con tal de que sea aplicada
en el centro de gravedad del cuerpo, como se indica en la figura. -Mg
Un objeto
apoyado sobre una base plana estará en equilibrio estable si la vertical que
pasa por el centro de gravedad corta a la base de apoyo. Lo expresamos diciendo
que el c.g. se proyecta verticalmente (cae) dentro de la base de apoyo.
Además, si el
cuerpo se aleja ligeramente de la posición de equilibrio, aparecerá un momento
restaurador y recuperará la posición de equilibrio inicial. No obstante, si se
aleja más de la posición de equilibrio, el centro de gravedad puede caer fuera
de la base de apoyo y, en estas condiciones, no habrá un momento restaurador y
el cuerpo abandona definitivamente la posición de equilibrio inicial mediante
una rotación que le llevará a una nueva posición de equilibrio.
Datos
Bivariados
Se llaman datos bivariados a aquellos que provienen de dos
variables medidas al mismo tiempo sobre cada individuo. Por ejemplo: Edad y
Género, Escolaridad e Ingreso, Peso y Estatura, etc.
Cuando los datos bivariados provienen de dos variables
cuantitativas resulta de interés estudiar la relación que guarda una con la
otra. La relación puede ser de muy distinta naturaleza: lineal, cuadrática,
exponencial, logarítmica, trigonométrica, etc. En estadística la relación que
nos interesa es la Relación Lineal, por lo que se llevan a cabo Análisis de
Correlación Lineal y de Regresión Lineal El análisis de correlación, se usa
para medir la fuerza de asociación entre las variables. El objetivo medir la
covarianza que existe entre esas dos variables numéricas. El análisis de
regresión se usa con propósitos de predicción. Se busca desarrollar un modelo
estadístico útil para predecir los valores de una variable dependiente o de
respuesta basados en los valores de al menos una variable independiente o
explicativa.
Correlación
Lineal
Bajo el concepto de correlación se recogen varios
procedimientos e indicadores estadísticos utilizados para determinar el grado
de asociación entre dos variables; el más sencillo de ellos es el de
correlación lineal que está basado en la comparación de la varianza asociada de
dos variables (covarianza) y las desviaciones estándar de cada uno a través del
cálculo del coeficiente r de Pearson.
Según sea el valor del coeficiente de correlación (r) se
tiene que:
• si r es
positivo, la relación lineal entre las variables es directa. Se dice que la
correlación es positiva.
• si r es
negativo, la relación lineal entre las variables es inversa. Se dice que la
correlación es negativa.
• si r = 0,
no existe relación lineal entre las variables, se dice que la correlación es
nula.
• si r = 1,
existe una relación de dependencia total directa entre las variables. Es decir,
si una de ellas aumenta (o disminuye), la otra aumenta (o disminuye) en igual
proporción.
• si r = -1,
existe una relación de dependencia total inversa entre las variables. Es decir,
si una de ellas aumenta (o disminuye), la otra disminuye(o aumentan igual
proporción.
Covarianza muestral=Cov(X,Y)=∑ni=1(xi−x¯¯¯)(yi−y¯¯¯)N−1
Covarianza muestral=Cov(X,Y)=∑i=1n(xi−x¯)(yi−y¯)N−1
La covarianza depende de las escalas en que se miden las
variables estudiadas, por lo tanto, no es comparable entre distintos pares de
variables. Las principales diferencias entre estos tres coeficientes de
asociación son:
• La
correlación de Pearson funciona bien con variables cuantitativas que tienen una
distribución normal. En el libro Handbook of Biological Statatistics se
menciona que sigue siendo bastante robusto a pesar de la falta de normalidad.
Es más sensible a los valores extremos que las otras dos alternativas.
• La
correlación de Spearman se emplea cuando los datos son ordinales, de intervalo,
o bien cuando no se satisface la condición de normalidad para variables
continuas y los datos se pueden transformar a rangos. Es un método no
paramétrico.
• La
correlación de Kendall es otra alternativa no paramétrica para el estudio de la
correlación que trabaja con rangos. Se emplea cuando se dispone de pocos datos
y muchos de ellos ocupan la misma posición en el rango, es decir, cuando hay
muchas ligaduras.
Además del valor obtenido para el coeficiente de
correlación, es necesario calcular su significancia. Solo si el p-value es
significativo se puede aceptar que existe correlación, y esta será de la
magnitud que indique el coeficiente. Por muy cercano que sea el valor del
coeficiente de correlación a +1+1 o −1−1, si no es significativo, se ha de
interpretar que la correlación de ambas variables es 0, ya que el valor
observado puede deberse a simple aleatoriedad.
El test paramétrico de significancia estadística empleado
para el coeficiente de correlación es el t-test. Al igual que ocurre siempre
que se trabaja con muestras, por un lado está el parámetro estimado (en este
caso el coeficiente de correlación) y por otro su significancia a la hora de
considerar la población entera. Si se calcula el coeficiente de correlación
entre XX e YY en diferentes muestras de una misma población, el valor va a
variar dependiendo de las muestras utilizadas. Por esta razón se tiene que
calcular la significancia de la correlación obtenida y su intervalo de
confianza.
t=rN−2−−−−−√1−r2−−−−−√,
df=N−2t=rN−21−r2, df=N−2
Para este test de hipótesis, H0H0 considera que las
variables son independientes (coeficiente de correlación poblacional = 0)
mientras que, la HaHa, considera que existe relación (coeficiente de correlación
poblacional ≠≠ 0)
La correlación lineal entre dos variables, además del valor
del coeficiente de correlación y de sus significancia, también tiene un tamaño
de efecto asociado. Se conoce como coeficiente de determinación R2R2. Se
interpreta como la cantidad de varianza de YY explicada por XX. En el caso del
coeficiente de Pearson y el de Spearman, R2R2 se obtiene elevando al cuadrado
el coeficiente de correlación. En el caso de Kendall no se puede calcular de
este modo.
Diagrama
de dispersión
El diagrama de dispersión permite estudiar las relaciones
entre dos conjuntos asociados de datos que aparecen en pares (por ejemplo,
(x,y), uno de cada conjunto). El diagrama muestra estos pares como una nube de
puntos.
Las relaciones entre los conjuntos asociados de datos se
infieren a partir de la forma de las nubes. Una relación positiva entre x y y
significa que los valores crecientes de x están asociados con los valores
crecientes de y.
Una relación negativa significa que los valores crecientes
de x están asociados con los valores decrecientes de y.
¿Para qué se usa un diagrama de dispersión?
Entre sus usos está descubrir y mostrar las relaciones
entre dos conjuntos asociados de datos y
confirmar relaciones anticipadas entre dos conjuntos asociados de datos.
El diagrama de dispersión puede estudiar la relación entre:
Dos factores o causas relacionadas con la calidad.
Dos problemas de calidad.
Un problema de calidad y su posible causa.
Comentarios
Publicar un comentario