Los muchos nombres de las variables independientes

Posted by admin on October 30, 2012

Los modelos estadísticos, tales como modelos lineales generalizados (regresión lineal, análisis de varianza, modelos mixtos) y modelos lineales generalizados (logística, de Poisson, regresión de riesgos proporcionales, etc) tienen la misma forma general. En el lado izquierdo de la ecuación es una o más variables de respuesta, Y. En el lado derecho es una o más variables de predicción, X, y sus coeficientes, B. X, las variables en el lado derecho puede tener muchas formas y son llamados por muchos nombres.

Hay diferencias sutiles en el significado de estos nombres, pero a menudo se utilizan indistintamente. Peor aún, los paquetes estadísticos de software utilizan nombres diferentes para conceptos similares, incluso entre sus propios procedimientos. Esta búsqueda de la precisión a menudo hace que la confusión. (Ya es bastante difícil sin tener que cambiar las palabras!).

Aquí están algunos términos comunes que todos se refieren a una variable en un modelo que se propone para afectar o predecir otra variable. Existen ligeras diferencias en los significados de estos términos, pero a menudo se utilizan indistintamente.

* Variable independiente, sino implica causalidad: la variable independiente afecta a la variable dependiente. Se utiliza principalmente en análisis de varianza, pero a menudo en la regresión también. Puede ser continua o categórica.

* Variable predictora: Esto no implica causalidad. Una variable de predicción no es más que útil para predecir el valor de la variable de respuesta. Se utiliza principalmente en la regresión. Las variables predictoras pueden ser continuas o categóricas.

* Predictor: Igual que la variable predictora.

* Covariables: una variable de predicción continua. Se utiliza tanto en ANCOVA (análisis de covarianza) y la regresión. Algunas personas usan esto para referirse a todas las variables predictoras en la regresión, pero que en realidad significa predictores continuos. Adición de una covariable al ANOVA (análisis de la varianza) se convierte en ANCOVA (análisis de covarianza).

* Factor: Una variable predictora categórica. Puede o no puede indicar una relación de causa / efecto con la variable de respuesta (esto depende del diseño del estudio, no el análisis). Las variables independientes en el análisis de varianza casi siempre se llaman factores. En la regresión, que se refieren a menudo como variables indicadoras, predictores categóricos, o variables ficticias. Todos son la misma cosa en este contexto.

* Agrupación de variables: Igual que un factor. Se utiliza en el programa SPSS en las muestras independientes t-test.

* Factor fijo: una variable categórica independiente en el que los valores específicos de las categorías son específicos e importantes, a menudo elegida por el experimentador. Los ejemplos incluyen los tratamientos experimentales o categorías demográficas, como el sexo y la raza. Si usted no está haciendo un modelo mixto (y que usted debe saber si usted es), todos los factores son los factores fijos. Para una explicación más detallada de los factores fijos y aleatorios, consulte Especificación de factores fijos y aleatorios en los modelos mixtos o múltiples niveles.

* Factor aleatorio: una variable categórica independiente en el que los valores de las categorías fueron asignados al azar. Generalmente se usa en modelos mixtos. Los ejemplos incluyen temas o bloques al azar. Para una explicación más detallada de los factores fijos y aleatorios, consulte Especificación de factores fijos y aleatorios en los modelos mixtos o múltiples niveles.

* Variable: Una variable categórica que ha sido ficticia definida. Codificación dummy (también llamado indicador de codificación) se utiliza generalmente en modelos de regresión, pero no ANOVA. Una variable puede tener sólo dos valores: 0 y 1. Cuando una variable categórica tiene más de dos valores, se recodificado en múltiples variables ficticias.

Variable * Indicador: Vea variable ficticia.

Categories: Software

Comments are closed.