Quote del día: Análsis Loglineal Logit de variables dependientes e independientes

Sin categoría

Les comparto este pequeño y práctico post sobre la función Loglineal Logit de análisis de variables que pueden utilizar a través de SPSS.

Imagen

Análisis loglineal logit.

El procedimiento Análisis loglineal logit analiza la relación entre variables dependientes (o de respuesta) y variables independientes (o explicativas). Las variables dependientes siempre son categóricas, mientras que las variables independientes pueden ser categóricas (factores). Otras variables independientes, las covariables de casilla, pueden ser continuas pero no se aplican en forma de caso por caso. A una casilla dada se le aplica la media ponderada de la covariable para los casos de esa casilla. El logaritmo de las ventajas de las variables dependientes se expresa como una combinación lineal de parámetros. Se supone automáticamente una distribución multinomial; estos modelos se denominan a veces modelos logit multinomiales. Este procedimiento estima los parámetros de los modelos loglineales logit utilizando el algoritmo de Newton-Raphson.

Es posible seleccionar de 1 a 10 variables dependientes y de factor en combinación. Una variable de estructura de casilla permite definir ceros estructurales para tablas incompletas, incluir en el modelo un término de desplazamiento, ajustar un modelo log-tasa o implementar el método de corrección de las tablas marginales. Las variables de contraste permiten el cálculo del logaritmo de la razón de ventajas generalizadas (GLOR). Los valores de la variable de contraste son los coeficientes para la combinación lineal de los logaritmos de las frecuencias esperadas de casilla.

Se muestra automáticamente información sobre el modelo y estadísticos de bondad de ajuste. Además es posible mostrar una variedad de estadísticos y gráficos, o guardar los valores pronosticados y los residuos en el conjunto de datos activo.

Ejemplo. En un estudio en Florida se incluyeron 219 caimanes. ¿Cómo varía el tipo de comida de los caimanes en función del tamaño del caimán y de los cuatro lagos en los que viven? Los resultados del estudio mostraron que la ventaja para un caimán pequeño preferir reptiles a peces es 0,70 veces menor que para un caimán grande; además la ventaja de preferir fundamentalmente reptiles en vez de peces fue más alta en el lago 3.

Estadísticos. Frecuencias observadas y esperadas; residuos brutos, corregidos y de desviación; matriz de diseño; estimaciones de los parámetros; logaritmo de la razón de las ventajas generalizadas; estadístico de Wald; intervalos de confianza. Gráficos: residuos corregidos, residuos de desviación y gráficos de probabilidad normal.

 

Saludos.

 

Fernando Mellado Meza

Técnicas de Cluster con SPSS

Sin categoría

La técnica de segmentación denominada «cluster» es usada en los estudios de mercado para clasificar a grupos de entrevistados en segmentos. El contar con estos grupos supone un mejor conocimiento de como se comportan los nichos de mercado, existen varias técnicas de clasificación por medio de cluster una de las comunes es la que utiliza el criterio de K-means por medio de SPSS.

La clasificación de cluster, puede determinar por ejemplo, que nuestro mercado meta se divide en un cierto número de segmentos a los cuales les podemos poner un nombre según sus atributos más significantes para identificarlos de manera práctica.

Ejemplo:

En un estudio sobre restaurantes resultaron dos grupos de consumidores, el segmento gourmet y el segmento tradicional… es decir, el grupo gourmet se caracteriza por usuarios muy refinado que les gusta la alta cocina, cocina internacional y espacios lujosos y amplios; el segmento tradicional, prefiere los antojitos mexicanos, la comida típica y el ambiente campirano. De esta forma entendemos de manera clara- según el tamaño de cada segmento- como se comporta nuestro mercado meta, finalmente se dan cuenta que nuestro nicho de consumo no solo es de personas de 18 a 45 años, si no que además existen dos subgrupos de mercado en los cuales debemos concentrarnos.

Como en todo estudio de mercado, es muy importante que se diseñar y planear de manera correcta el cuestionario, si se desea segmentar y realizar otros test, primero debemos crear un cuestionario bien estructurado y validado, la validación suele ser de dos formas:

–          La primera es muy cualitativa y corresponde al a revisión de todas las preguntas y un pretest, la finalidad es corroborar que las preguntas están bien redactadas y que no causan influencia en el entrevistado.

–          La segunda es cuantitativa y se realiza con el SPSS, se corre el test de Alfa de C. y este nos valida si las variables numéricas escalares o de orden, dan los resultados que buscamos… más adelante profundizaré en ello.

Les anexo el archivo que encontré en la red donde se detalla como realizar cluster mediante SPSS, muy práctico.

CLUSTERSPSS

Fernando Mellado | Estudios Cuantitativos

Análisis Factorial con SPSS y fiabilidad del instrumento en la investigación de mercados

Análisis de factores en estadística, Estadística, investigación cuantitativa, SPSS

El día de hoy les comparto este video tutorial para realizar análisis de factores por medio del SPSS, por raro que les paresca es muy sencillo y practico. Le agradesco a Pablo Martinez de la Universidad de Terapacá de Chile por esta contribución.

Esta es la dirección: http://vimeo.com/4022814

En la investigación de mercados el análisis factorial no ayudará a observar las dimensiones de análisis de una manera más clara y a determinar el conjunto de satisfactores sobre un servicio o producto y su comportamiento agrupado en la muestra. Fernando Mellado.

En este video se muestran los procedimientos para generar el análisis factorial.
Para tal se debe realizar un análisis anterior llamado análisis de confiabilidad o simplemente análisis de fiabilidad.

Este análisis ha sido muy importante en la investigación psicológica. Uno de los ejemplos más claro es el Big Five, o los estudios para encontrar las distintas dimensiones de la satisfacción laboral; tambien podemos referirnos a un estudio que definian, mediante análisis factorial, las dimensiones de los distintos estilos de liderazgo, etc.

A continuación les dejo el video tutorial del análisis factorial junto a su correspondiente análisis de fiabilidad. *Extraído de http://metodo3uta.blogspot.com/2009/05/video-tutorial-analisis-factorial-y.html

Uso de la tecnología en el levantamiento de datos cuantitativos

Trabajo de campo y levantamiento

Papel vs handheld (palm)

En la última década hemos sido testigos de un fenómeno que ha impactado los procesos y la calidad en la industria de la investigación de mercado: la portabilidad.

Me refiero en sí, a la capacidad que poseen los nuevos dispositivos para ser trasladados fácilmente de un lugar a otro dado su reducido tamaño y peso, a la par del desarrollo de aplicaciones que interrelacionan a los softwares especializados que admiten la exportación y manejo inmediato de los datos.

Esto permite realizar actividades en tiempo real y obtener los resultados con mayor rapidez, precisión y calidad, eliminando la figura del capturista / validador y concentrando los esfuerzos en el adiestramiento del investigador de campo.

A continuación voy a mencionar las 5 ventajas de un levantamiento de encuestas por medio de handheld (palm) dispositivos móviles de captura.

  1. Rapidez. El uso del handheld (Palm) en la realización de encuestas tiene la función de reducir significativamente el tiempo que transcurre entre la captura de los datos y la disponibilidad de los resultados, a la vez que reduce los errores en la toma de encuestas. Los datos al ser descargados de forma remota  en los servidores de la empresa aportan a la misma una mayor capacidad de respuesta.
  1. Calidad. Es posible establecer una serie de filtros y saltos programados de pregunta con los cuales se reduce la posibilidad de que el encuestador pueda “evitar o saltar por error”o “realizar por error” alguna pregunta del cuestionario. Hace 10 años con encuestas en papel, se tenían que validar pregunta por pregunta cada uno de los cuestionarios y enviarlos a rescatar en campo cuando tenían preguntas con errores, algunas encuestas eran canceladas y si el validador no detectaba las inconsistencias se podían infiltrar errores a la base de datos.
  1. 3. Supervisión. Con el sistema de entrevistas para handheld (palm), es posible saber la duración exacta de la encuesta y la hora en que fue realizada. La principal fuente de falseo en investigación de mercados se debe a que el encuestador busca falsear parcialmente una encuesta para acortar tiempos; realizando un pretest de la encuesta conoceremos la duración promedio de la misma y con este dato nos será posible detectar encuestas falseadas de manera parcial.

  1. 4. Ahorro. Al disminuir la cantidad de personal involucrado en la investigación se logra reducir costos y aumentar la productividad del equipo, al tiempo que el papel del encuestador toma mayor relevancia. Se eliminan en un proyecto de 7 a 10 capturistas, 2 validadores y 1 coordinador de captura.
  1. Oportuno. En algunos estudios el cliente desea saber de manera oportuna como se comporta la muestra día a día, la propia necesidad de tomar decisiones con antelación -principalmente en los estudios políticos o en trackings- lleva a que los resultados se procesen y presenten en el mismo día de la jornada laboral, de no contar con estos sistemas sería necesario un equipo robusto y coordinado quirúrgicamente.

Conclusión:

La ventaja de la tecnología sobre el papel en la realización de encuestas, tomando en cuenta  el diseño del cuestionario, la aplicación de la misma y la codificación, radica en que la empresa de investigación disminuye errores en el proceso, al mismo tiempo que reduce costos y tiempo de trabajo haciendo más eficiente la investigación ya que se acorta y facilita el proceso de recolección de datos.

La información obtenida tendrá menor número de errores y mayor confiabilidad, también podemos determinar y reafirmar que el papel del encuestador sigue y seguirá siendo muy importante en el proceso de levantamiento de la encuesta, convirtiéndose hoy por hoy en el eslabón imprescindible en el arte de la entrevista.

Fernando Mellado | Estudios Cuantitativos

Encuesta realizada a papel y lápiz.

Encuesta realizada con PALM con Entryware.

10 estadísticos más usados en la investigación de mercados

Estadística

Los 10 estadísticos más utilizados en la investigación de mercados

Según lo que hemos experimentado en la práctica es posible determinar que los diez principales estadísticos empleados en la investigación de mercados son los siguientes:

1.- Coeficiente de Correlación de Pearson: Nos permite conocer la intensidad de la relación existente entre una o más variables.

2.- Análisis de Regresión y Regresión Múltiple: Establece que tanto afecta una o más variables dependientes a otra independiente.

3.- Chi square: Nos indica el nivel de significancia ente dos o más variables. El Chi square es ampliamente usado como test de significancia para determinar segmentos en el análisis Chaid, Cart entre otros.

4.-  Varianza y Coeficiente de Variación: La varianza nos proporciona la distribución de la muestra con respecto a la media. El análisis de la varianza (o Anova: Analysis of variance) es un método para comparar dos o más medias, que es necesario porque cuando se quiere comparar más de dos medias es incorrecto utilizar repetidamente el contraste basado en la t de Student. El coeficiente de variación nos sirve para comparar medidas de dos grupos diferentes y que estas se puedan expresar en términos de referencia.

5.- Coeficiente de Kurtosis: No indica que tan concentrada o dispersa se encuentra la muestra con respecto a los valores centrales de referencia.

6.- Prueba de T Studen: Nos indica las probabilidades de que dos grupos de datos distintos pertenezcan a una misma población.

7.- Escalas de Liker: Al aplicarlas en un cuestionario o instrumento nos ayuda a determinar los estadísticos de correlación y regresión. Por lo general se manejan de escalas del 1 al 3, del 1 al 5 o del 1 al 7, siempre impares para evitar el empate de variables y la nulificación de los test.

8.- Media, moda y mediana: Son las medidas de tendencia central ampliamente usadas para describir una variable. Nos indican en donde se ubican los puntos centrales de los datos.

9.-Tasa media de crecimiento anual: Este dato nos permite conocer el comportamiento de una variable a través del tiempo tomando como referencia dos puntos de temporalidad ejemplo: 2005 y 2010. A titulo personal recomiendo que para lograr mayor exactitud en el pronostico de este dato, la serie analizada debe contener al menos 5 años de referencia.

10.- Factoriales: El análisis de la varianza (o Anova: Analysis of variance) es un método para comparar dos o más medias, que es necesario porque cuando se quiere comparar más de dos medias es incorrecto utilizar repetidamente el contraste basado en la t de Student..

En la realidad los estudios de mercados y los modelos actuales de investigación combinan fases cuantitativas con fases cualitativas, en muchos casos una complementa a la otra. Ambas importantes.

La importancia de los números en una investigación se concentra en la necesidad que tenemos por cuantificar, medir y dar proporciones a los hábitos del mercado, así como conocer las tendencias y las estimaciones futuras apoyados de modelos estadísticos y econométricos que nos ayudan a pronosticar ciertos aspectos del mercado.

La estadística descriptiva nos ofrece un panorama de como se comportan las variables del mercado, mientras la estadística inferencial nos proporciona -a través de pruebas o tests- una confirmación de los supuestos e hipótesis planteadas en la investigación.

Por ejemplo, con los análisis de correlación y regresión determinamos que intensidad tiene una variable sobre otra y que tanto la afecta, con ello probar o no las hipótesis y supuestos. Los test de Chi Square, ANOVA, T de Studen entre otros nos ofrecen datos de como se comporta la muestra y que tan significante resultan ciertos ejercicios.

Los coeficientes de Kurtosis y Variación nos indican cuál es la distribución y la dispersión de la muestra, con ello se puede comprobar, por ejemplo, si el promedio de una serie de datos tiene una estructura normal o anormal y si el promedio efectivamente nos describe el comportamiento de los datos de manera correcta.

Fernando Mellado | Estudios Cuantitativos