Una revista quiere mejorar la satisfacción de sus clientes. Encuestaron a algunos lectores sobre su satisfacción general, así como
satisfacción con algunos aspectos de calidad. Su pregunta básica es
«¿Qué aspectos tienen más impacto en la satisfacción del cliente?»
Intentaremos responder a esta pregunta con un análisis de regresión. La satisfacción global es nuestra variable dependiente (o criterio) y los aspectos de calidad son nuestras variables independientes (o predictores).
Estos datos -descargables de magazine_reg.sav- ya han sido inspeccionados y preparados en Stepwise Regression en SPSS – Data Preparation.
Ajustes preliminares
Nuestros datos contienen una variable FILTER que activaremos con la siguiente sintaxis. También queremos ver tanto los nombres de las variables como las etiquetas en nuestra salida, así que también lo configuraremos.
filtrar por filt1.
* 2. Mostrar nombres de variables y etiquetas en la salida.
establecer tvars ambos.
Regresión SPSS ENTER
Primero ejecutaremos una regresión lineal predeterminada en nuestros datos como se muestra en las capturas de pantalla a continuación.
Completemos ahora el cuadro de diálogo y los subdiálogos como se muestra a continuación.
Tenga en cuenta que normalmente seleccionamos porque utiliza tantos casos como sea posible para calcular las correlaciones en las que se basa nuestra regresión.
Haciendo clic
da como resultado la sintaxis siguiente. Lo ejecutaremos de inmediato.Regresión SPSS ENTER – Sintaxis
* Sintaxis de regresión básica. Tenga en cuenta que «método = entrar» en la última línea.
REGRESIÓN
/ FALTA PAREJA
/ ESTADÍSTICAS COEFF CI (99) OUTS R ANOVA COLLIN TOL
/CRITERIA=PIN(.05) PUNTO (.10)
/ NOORIGEN
/ DEPENDIENTE satov
/ METHOD = ENTER sat1 sat2 sat3 sat4 sat5 sat6 sat7 sat8 sat9.
Regresión SPSS ENTER – Salida
En nuestro resultado, primero inspeccionamos nuestra tabla de coeficientes como se muestra a continuación.
Algunas cosas van terriblemente mal aquí:
El coeficiente b de -0.075 sugiere que más bajo «Confiabilidad de la información» está asociada con más alto satisfacción. Sin embargo, estas variables tienen una correlación positiva (r = 0,28 con un valor de p de 0,000).
Este extraño coeficiente b no es estadísticamente significativo: hay una probabilidad de 0.063 de encontrar este coeficiente en nuestro muestra si es cero en el población. Esto también se aplica a otros predictores.
Este problema se conoce como multicolinealidad: ingresamos demasiados predictores intercorrelacionados en nuestro modelo de regresión. El cuadrado r (limitado) se difumina sobre 9 predictores aquí. Por lo tanto, los único las contribuciones de algunos predictores se vuelven tan pequeñas que ya no se pueden distinguir de cero.
Los intervalos de confianza lo confirman: incluye cero para tres coeficientes b.
Una regla general es que Tolerancia <0,10 indica multicolinealidad. En nuestro caso, el La estadística de tolerancia falla dramáticamente en la detección de la multicolinealidad que está claramente presente. Nuestra experiencia es que este suele ser el caso.
Resolución de multicolinealidad con regresión escalonada
Un método que casi siempre resuelve la multicolinealidad es la regresión escalonada. Especificamos qué predictores gusta incluir. Luego, SPSS inspecciona cuáles de estos predictores realmente contribuyen a predecir nuestra variable dependiente y excluye a los que no lo hacen.
Así, normalmente terminamos con menos predictores de los que especificamos. Sin embargo, los que quedan tienden a tener coeficientes b sólidos y significativos en la dirección esperada: más alto los puntajes en aspectos de calidad están asociados con más alto puntuaciones de satisfacción. Hagamoslo.
Regresión paso a paso de SPSS: sintaxis
Copiamos y pegamos nuestra sintaxis anterior y configuramos METHOD=STEPWISE
en la última línea. Así, terminamos con la siguiente sintaxis. Lo ejecutaremos y explicaremos los principales resultados.
* Regresión básica por pasos.
REGRESIÓN
/ FALTA PAREJA
/ COEFF ESTADÍSTICAS SALIDAS CI (99) R ANOVA
/CRITERIA=PIN(.05) PUNTO (.10)
/ NOORIGEN
/ DEPENDIENTE satov
/ MÉTODO = paso a paso sáb1 sáb2 sáb3 sáb4 sáb5 sáb6 sáb7 sáb8 sáb9.
Regresión escalonada de SPSS: variables introducidas
Esta tabla ilustra el método paso a paso: SPSS comienza con predictores cero y luego agrega el predictor más fuerte, sat1, al modelo si su coeficiente b es estadísticamente significativo (p <0.05, consulte la última columna).
Luego agrega el segundo predictor más fuerte (sat3). Debido a que hacerlo puede hacer que los predictores ingresados previamente no sean significativos, SPSS puede eliminar algunos de ellos, lo que no sucede en este ejemplo.
Este proceso continúa hasta que ninguno de los predictores excluidos contribuye significativamente a los predictores incluidos. En nuestro ejemplo, se ingresan 6 de los 9 predictores y ninguno de ellos se elimina.
Regresión escalonada de SPSS: resumen del modelo
SPSS construyó un modelo en 6 pasos, cada uno de los cuales agrega un predictor a la ecuación. Si bien se agregan más predictores, niveles de r-cuadrado ajustados fuera: agregar un segundo predictor al primero lo aumenta en 0.087, pero agregar un sexto predictor a los 5 anteriores solo da como resultado un aumento de 0.012 puntos. No tiene sentido agregar más de 6 predictores.
Nuestro r-cuadrado final ajustado es 0.39, lo que significa que nuestros 6 predictores representan el 39% de la varianza en la satisfacción general. Esto es algo decepcionante pero bastante normal en la investigación de las ciencias sociales.
Regresión escalonada de SPSS: coeficientes
En nuestra tabla de coeficientes, solo miramos nuestro sexto y último modelo. Como predijimos, nuestros coeficientes b son todos significativos y en direcciones lógicas. Debido a que todos los predictores tienen escalas idénticas (Likert), preferimos interpretar los coeficientes b en lugar de los coeficientes beta. Nuestro modelo final establece que
satov ‘= 3,744 + 0,173 sat1 + 0,168 sat3 + 0,179 sat5
+ 0,150 sat7 + 0,128 sat9 + 0,110 sat4
Nuestro predictor más fuerte es sat5 (legibilidad): un aumento de 1 punto se asocia con un aumento de 0,179 puntos en satov (satisfacción general). Nuestro modelo no probar que esta relación es causal, pero parece razonable que mejorar la legibilidad provocará una satisfacción general ligeramente mayor con nuestra revista.