Actualidad de la investigación de mercados online

Dos buenas razones para no hacer una encuesta

Escrito por Carlos Ochoa el 23 de julio 2015

Leer el artículo completo

Puede sonar extraño que escriba un post recomendando NO hacer encuestas, entre otras cosas porque me gano la vida con ellas. Sin embargo, pocas cosas son más perjudiciales para nuestro sector que los estudios que generan insatisfacción en los clientes; que dejan esa sensación de inutilidad y tiempo/dinero mal invertido. Como se suele decir, eso es “pan para hoy y hambre para mañana”, una mirada cortoplacista.

Son muchas las razones por las que deberíamos hacer encuestas. Pero también podemos encontrar unas cuantas razones para NO hacerlas. Yo me quedaría con dos de ellas como las más destacadas.

Razón 1: No intentes que los encuestados hagan tu trabajo

Supongamos que soy un Product Manager de una reputada empresa de telecomunicaciones. Las ventas de mis servicios de telefonía celular están sufriendo, los planes tarifarios no parecen ser suficientemente competitivos: ¡hagamos una encuesta!

Hasta este punto el razonamiento es correcto. Pero, ¿cuál es el objetivo de la encuesta? ¿Saber por qué no nos contratan? Si sabemos que el problema que tenemos es de precios, ¿qué nos va a revelar la encuesta que no sepamos ya? Quizá lo que pretendemos es que el encuestado nos diga cómo deberían ser mis tarifas.

Confused-HuffPo

(más…)

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Encuestas Online | Estudios | Investigacion de Mercados | Predicciones | Preguntas y respuestas | Recomendamos Trackback | No hay comentarios

Over-fitting: el enemigo de las buenas predicciones

Escrito por Carlos Ochoa el 15 de junio 2015

Leer el artículo completo

Nate Silver , en La señal y el ruido, habla de las dificultades que afrontamos cuando tratamos de hacer buenas predicciones. Siguiendo la metáfora del título de su libro, la principal de ellas es confundir señal con ruido: desarrollamos un modelo predictivo y tratamos de ajustarlo a los datos que tenemos, pero, en el afán de afinar el modelo al máximo, acabamos ajustando el modelo a las imperfecciones de los datos que tenemos, empeorando nuestra capacidad predictiva.

Este fenómeno se conoce como over-fitting o sobreajuste. Un modelo predictivo debe capturar la esencia del fenómeno que describe, nada más. Christopher M. Bishop, en su libro Pattern Recognition and Machine Learning (Springer, 2006) nos ofrece un gran ejemplo de este problema, con un enfoque muy matemático (¡avisados estáis!).

¿Qué es un modelo?

modelo-datos

(más…)

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Investigacion de Mercados Trackback | No hay comentarios

5 Retos para el 2015 en Investigación de Mercados

Escrito por Silvia Viñuales el 6 de febrero 2015

Leer el artículo completo

Ya entrado el año y después de analizar las predicciones que nuestros Héroes de la Investigación auguraban para este 2015, pasamos a enumerar alguno de los muchos retos a los que se enfrenta el sector en un entorno cambiante.

Algunos de los líderes de opinión y personalidades en la industria se reunieron para compartir sus opiniones y debatir algunos de los temas estrella que presentarán conflicto este año para los profesionales del research.

 

retos-investigacion-2015

 

Ellos son, liderados por Ray Poynter: Lenny Murphy (GreenBook, Gen2 Advisors, IIeX), Simon Chadwick (Editor de Research World and head en consultancy para Cambiar), Kristin Luck (ESOMAR Council member y President/CMO de Decipher), Jeffrey Resnick (CASRO board member y Managing Partner en Stakeholder Advisory Services).

1.  Problemas de privacidad

Independientemente del sector en que nos encontramos, el control en la privacidad de datos es fundamental. En Investigación de mercados se manejan grandes volúmenes de datos personales y  tan sólo una crisis relacionada con ello podría suponer un gran problema de imagen pública y legal para la empresa.

2.  Creación de confianza

Construir relaciones de confianza con nuestros respondientes, o el “trust building” sigue siendo uno de los grandes retos para el investigador del 2015. Según datos arrojados por es estudio Trust and Personal Data Survey de GRNB basado en una muestra de 23.000 personas, 1 de cada 3 no confía en que la industria de Investigación de Mercados salvaguarde correctamente su información.

Por supuesto, sin esta relación de confianza, las prospecciones de futuro son ciertamente limitantes para la industria.
(más…)

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Investigacion de Mercados Trackback | No hay comentarios

Margen de error en muestras no probabilísticas

Escrito por Carlos Ochoa el 2 de febrero 2015

Leer el artículo completo

Voy a tocar en este post un tema muy espinoso, que genera agrios debates entre investigadores, responsables de marketing y medios de comunicación. Voy a hablar sobre el uso que hacemos del margen de error en las encuestas.

Demos un paso atrás. ¿Qué es el margen de error y el nivel de confianza? Podéis encontrar un post en este mismo blog donde se explica con detalle esta cuestión. La idea es la siguiente: si estudio una población de individuos mediante una muestra aleatoria de los mismos, la relación entre el tamaño del universo y el tamaño de la muestra determina la precisión de los resultados de mi encuesta. Y, obviamente, cuanto mayor sea el tamaño de mi muestra, el error que cometo va a ser más pequeño. Por esta razón es habitual ver fichas técnicas de encuestas en las que se indica el tamaño de la muestra empleado (p.e. 1200 encuestas), junto a unos valores de margen de error y nivel de confianza (p.e. +-3% de error con un nivel de confianza del 95%).

¿Dónde está el problema? En la forma en la que obtengo la muestra. Estrictamente hablando, sólo es posible determinar el margen de error si usamos muestras probabilísticas (probability sampling). En una muestra probabilística cada individuo de la población a estudiar tiene una probabilidad conocida y no nula de ser seleccionado para la muestra. Bajo estas condiciones, el error muestral se calcula como el efecto de estudiar sólo una parte del universo en lugar de su totalidad y por lo tanto depende fuertemente del tamaño de la muestra. Para hacer una muestra probabilística se necesita algo que se conoce como marco muestral (sampling frame), una lista de todos los individuos que pueden entrar en mi muestra.

Sin embargo, pensemos cuantas muestras cumplen el criterio anterior: conocer de antemano la probabilidad de que un individuo del universo entre en nuestra muestra y que esta probabilidad no sea nula. Desde luego, las muestras obtenidas en un panel online, no.

margen-error- enecuestas
(más…)

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Investigacion de Mercados | Paneles Online | Representatividad Trackback | Comentarios (2)

El caso Kodak, mucho que aprender

Escrito por Carlos Ochoa el 5 de enero 2015

Leer el artículo completo

Las empresas forman un ecosistema en el que el darwinismo aplica toda su crudeza. Algunas de ellas evolucionan, se adaptan con éxito a los cambios de su entorno y perduran. El resto, desaparecen. Jim Collins tiene un excelente libro, Built to Last, sobre qué factores determinan la durabilidad de las empresas.

Siempre me ha resultado difícil entender cómo empresas que parecían prácticamente indestructubles, líderes indiscutibles en sus sectores, acaban siendo una sombra de lo que fueron o incluso desapareciendo.

Mi interés en estos casos es doble. Por un parte, Netquest forma parte de la industria de investigación de mercados, una industria dedicada a orientar a las empresas para que tomen sabias decisiones que les ayuden a perdurar. Y del mismo modo que como sector nos atribuímos méritos en las buenas decisiones empresariales de las cuales participamos, también debemos cargar con parte de la culpa en estas célebres fallidas empresariales.

Por otra parte, me interesan estos casos en relación a Netquest como empresa. Netquest se enfrenta en los próximos años a buenas oportunidades y a grandes retos, a entornos altamente inestables, similares a los que han enfrentado algunas de las empresas trístemente célebres por su falta de capacidad de adaptación. Éxitos presentes no garantizan éxitos futuros. Tal vez entender porqué estas grandes corporaciones no pudieron sobreponerse a las dificultades pueda ayudarnos a evitar sus errores (y tal vez a cometer otros diferentes, claro).

Muchos son los casos de empresas que parecían indestructibles y que han acabado ocupando una posición secundaria en sus mercados, absorbidas por sus competidores o desaparecidas: Nokia, Olivetti, PanAm, Blockbuster, Arthur Andersen, Compaq, Rover,… Entre todas ellas, el caso de Kodak me parece fascinante.

kodak-crisis

Kodak, 130 años de historia

La Eastman Kodak Company, popularmente conocida como Kodak, fue fundada en 1888. Su éxito inicial se debió a la introducción del carrete de papel en el mercado, reemplazando las placas de cristal que se empleaban hasta entonces, así como al lanzamiento de las primeras cámaras que empleaban carretes circulares. Su lema en aquella época describe bastante bien su propuesta de valor: “Usted aprieta el botón, nosotros hacemos el resto”.

Desde su aparición, Kodak lideró el desarrollo comercial de la fotografía. Gracias a innovaciones tecnológicas que gozaron de ciclos de vida extensos, Kodak disfrutó durante 130 años de una posición envidable en el mercado. Un líder con todas las de la ley, casi un monopolio (70% de cuota de mercado en los años 90) que le permitió emplear una estrategia orientada a la alta rentabilidad. Kodak llegó a ocupar la posición nº18 en la lista Forbes de mayores empresas norteamericanas.

Esta situación cambió con la llegada del siglo XXI. Para entender la dimensión del desastre, basta decir que la acción de Kodak en el año 2004 cotizaba a 30$ y que en 2012 se desplomó hasta los 27 centavos.

¿Qué factores explican esta debacle? ¿Cómo una empresa líder durante 130 años puede desmoronarse como un castillo de naipes en unos pocos años? He aquí algunas explicaciones, extraídas de los múltiples estudios de este caso que se han realizado hasta la fecha (por ejemplo, el de Eduardo Esteva o el de Camilo Matiz).

Una lectura limitada de su misión

La misión de Kodak era y es “proveer a sus consumidores con las soluciones necesarias para capturar, almacenar, procesar, generar y comunicar imágenes donde sea y cuando sea”. Resulta sorprendente: una misión así debería haber impulsado a Kodak a sumarse, cuando no a liderar, el desarrollo de la fotografía digital.

Sin embargo, Kodak actuó en primera instancia de forma excesivamente conservadora ante la irrupción de las nuevas tecnológicas. Y cuando las cosas se complicaron, en lugar de inspirarse en su misión para reaccionar, buscaron refugio en subsectores en los que seguir rentabilizando su antiguo know-how (imagen médica, impresión rápida, impresión de libros bajo demanda…) en lugar de afrontar las dificultades y ser fieles a si mismos.

kodak-caso

Orientación a la rentabilidad, no al cliente

¿Sabían que en 1996 Kodak ya contaba con un modelo de cámara fotográfica digital? Sin embargo, la dirección de Kodak cuestionaba que la fotografía digital pudiese reemplazar a la fotografía tradicional.

Éste es un error recurrente en las grandes fallidas empresariales: la resistencia al cambio y la argumentación sesgada de directivos que lleva a las empresas a rechazar la realidad que se avecina. La historia está plagada de frases lapidarias que muestran la incapacidad de una gran mayoría de empresarios de dimensionar correctamente la magnitud de un cambio social: “el cine con sonido es una moda pasajera”, “la gente no necesita ir todo el día con un teléfono en el bolsillo”, “los coches eléctricos no tienen futuro”,…

Kodak tuvo la oportunidad de liderar la revolución digital en los 90, pero optó por seguir exprimiendo la vaca lechera de la fotografía tradicional. El negocio de los carretes y el revelado era altamente rentable, mientras que la fotografía digital implicaba un concepto “do it yourself” que requería pensar en nuevos modelos de negocio. Sin embargo, ¿acaso el hecho de que el nuevo mundo digital no fuese tan rentable justificaba la decisión de aferrarse al negocio de siempre? La respuesta es NO. Si Kodak no daba el salto, otros lo iban a dar. Y siempre es mejor pasar de un negocio grande a uno mediano, que quedarse con un negocio inexistente.

Empresas como Canon, Nikon o Sony dieron ese salto. Tenían poco a perder y su estrategia fue mucho más atrevida. Cuando Kodak quiso reaccionar, no era nadie en el mundo de la fotografía digital.

Infravalorar a los competidores

He visto este fenómeno numerosas veces en mi vida. Siempre que hablo con personas empleadas en empresas líderes de su sector (ya sea banca, telecomunicaciones, seguros, búsquedas en internet…) percibo cierto complejo de superioridad. Es un fenómeno curioso, en cierto modo comprensible. Las empresas “ganadoras” generan una fuerte cultura empresarial que impregna a todos sus colaboradores y que, en el fondo, puede hacer la empresa más débil.

Kodak subestimó a sus competidores. O sobrestimaron el poder de su marca, pensando que podrían sumarse a la carrera digital en cualquier momento y gozar de  ventaja sobre sus competidores por el simple hecho de ser Kodak. Se equivocaron, el consumidor aprendió pronto quiénes eran los referente en la era digital, y Kodak no estaba entre ellos.

Lecciones aprendidas

Los errores de Kodak se han estudiado en escuelas de negocio, se conocen sobradamente. Y aún así, se volverán a producir. Hoy en día nos cuesta pensar en un futuro sin Google, Apple, Facebook, Microsoft, SAP o Zara. Pero un cambio tecnológico o social repentino, y una reacción inadecuada, pueden acabar con cualquiera de las empresas indestructibles antes mencionadas. No tengo la menor duda.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Artículos | Investigacion de Mercados | Sin categoría Trackback | No hay comentarios

La escala de Likert: qué es y cómo utilizarla

Escrito por Oriol Llauradó el 12 de diciembre 2014

Leer el artículo completo

¿Qué es?

La escala de Likert tiene el honor de ser uno de los ítems más populares y utilizados en las encuestas.

A diferencia de las preguntas dicotómicas con respuesta sí/no, la escala de Likert nos permite medir actitudes y conocer el grado de conformidad del encuestado con cualquier afirmación que le propongamos.

Resulta especialmente útil emplearla en situaciones en las que queremos que la persona matice su opinión. En este sentido, las categorías de respuesta nos servirán para capturar la intensidad de los sentimientos del encuestado hacia dicha afirmación.

Sería un ejemplo de Likert la afirmación “Estoy satisfecho con los productos de la empresa LexCorp” y la escala de valoración:

(1) Totalmente en desacuerdo

(2) En desacuerdo

(3) Ni de acuerdo ni en desacuerdo

(4) De acuerdo

(5) Totalmente de acuerdo

 

Ítem de Likert vs escala de Likert

Estrictamente hablando, la pregunta anterior es un ítem Likert. Mientras que si presentamos varios ítems Likert y sumamos las valoraciones del encuestado a cada uno de ellos, obtendremos como resultado una escala de Likert. Importante: solo debemos sumar las valoraciones de aquellos ítems cuyo contenido sea similar entre sí.
sabias_que

 

Tipos de ítem Likert

Podemos utilizar el ítem Likert para medir diferentes actitudes de un encuestado. Por ejemplo, podemos emplearlo para descubrir:

 

¿Cuántos niveles debe tener el ítem?

Entre los investigadores no hay un consenso claro al respecto. Probablemente el ítem más utilizado sea el de 5 niveles, pero también se utilizan de 4, 7, o 10. Lo que sabemos es que añadir niveles redunda en la obtención de unas valoraciones más diversas. Por ejemplo, en un ítem de solo 5 puntos, los encuestados suelen evitar las 2 opciones extremas, obteniendo muy poca variación (es el conocido como central tendency bias).

Por otro lado, hay estudios que concluyen que, a partir de 8 niveles, los resultados obtenidos son los mismos que con 8, con lo que añadir niveles no redundará en una mayor variación en los resultados. Parece pues que lo óptimo son los ítems con 7 u 8 niveles.

 

¿Cómo tratar los resultados?

Una vez terminado el cuestionario, cada ítem puede ser analizado separadamente o bien, en determinados casos, las respuestas de un conjunto de ítems Likert pueden sumarse y obtener un valor total. El valor asignado a cada posición es arbitrario y lo determinará el propio investigador/diseñador de la encuesta. Dado este valor, podremos calcular la media, la mediana, o la moda. La mediana y la moda son las métricas más interesantes, dado que hacer una interpretación de la media numérica si manejamos categorías como “de acuerdo” o “en desacuerdo”, no nos aportará mucha información.

Normalmente, en investigación comercial, los datos obtenidos los trataremos como un intervalo, no como datos ordinales, si bien cabe señalar que en la literatura científica hay un amplio debate metodológico al respecto.

 

Ventajas del ítem Likert

 

Inconvenientes del ítem Likert


Te recomendamos

 

¿Cuál es tu experiencia utilizando  la escala de Likert? ¿Qué ventajas o desventajas piensas que  presenta? Te animo a seguir la conversación en los comentarios.

Si quieres ampliar tus conocimientos, te recomendamos leer:

Wikipedia – Likert scale (ENG)

The likert scale por Ray Poynter

How to Do a Likert Rating

La escala de Likert por Antz Research (PDF)

Four things you probably didn´t know about Likert scales

 

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Encuestas Online | Investigacion de Mercados Trackback | Comentarios (5)

5 principios para hacer un buen trabajo de campo

Escrito por Oriol Llauradó el 2 de diciembre 2014

Leer el artículo completo

Se acaba de estrenar el documental “La sal de la tierra”, dedicado a la vida y obra del fotógrafo brasileño Sebastiaõ Salgado. El documental lo han co-dirigido su hijo Juliano y el cineasta alemán Wim Wenders, y ha sido premiado en los festivales de Cannes y San Sebastián. Vistas en pantalla grande, las fotos de Salgado nos conmueven por su belleza y por su fuerza ética.

caption_006

Tras ver el documental, pienso que son muchas las similitudes entre los hábitos de Salgado, y las metodologías que empleamos las empresas de campo y los investigadores.

Os comparto 5 principios sobre los que Salgado ha asentado su obra, y que nos pueden ayudar a realizar un buen trabajo de campo:

  1. Sé paciente: la realidad nunca te defraudará. A sus 70 años, Salgado se nos presenta como un viajero incansable, un explorador que recorre el planeta persiguiendo situaciones invisibles, sin sucumbir ni a la fatiga ni al miedo.
  2. En cada fotografía, en cada cadena de datos…debemos buscar la historia que los conecta y plantear las acciones que se pueden emprender para cambiarla.
  3. Acércate al objeto de estudio, pero respeta y celebra su individualidad. No te sitúes ni demasiado cerca como para alterarlo, ni demasiado lejos como para no capturar su esencia.
  4. Sumérgete en la realidad, no te aísles: para ser un buen investigador – y un buen fotógrafo- se requiere una comprensión profunda de la sociedad, una formación humanística, y conocer las dinámicas del mercado. En definitiva: desarrollar un interés genuino por nutrirse de los aportes de diferentes disciplinas.
  5. La tecnología no es un fin en sí mismo, sino un medio para lograr nuestras metas. No encontrarás en todo el documental una sola mención a los píxeles, a los sensores, a las lentes, etc. Conviene que no nos dejemos deslumbrar por las nuevas tecnologías. Lo esencial seguirá siendo nuestra capacidad para conectar e interpretar lo que vemos.

Bonus track: si estás en Barcelona, todavía puedes ir a ver la exposición sobre el proyecto Génesis de Salgado. Estará en Caixaforum hasta el 8 de febrero de 2015.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Encuestas Online | Investigacion de Mercados Trackback | No hay comentarios

¿Es mi diferencia significativa?

Escrito por Carlos Ochoa el 26 de noviembre 2014

Leer el artículo completo

En un post anterior tratábamos de explicar cómo debo decidir el tamaño de una muestra para garantizar que los datos que obtengo van a estar dentro de un margen de error controlado. Hoy vamos a tratar un tema relacionado: cuando observo una diferencia en un dato de una encuesta, ¿es esa diferencia estadísticamente significativa?

¿Es real o es azar?

Es una pregunta que nos formulamos a menudo, incluso en situaciones de nuestra vida cotidiana. Supongamos que normalmente voy a mi lugar de trabajo en coche por una ruta A y tardo 25 minutos de media. Durante un mes decido probar una nueva ruta B y observo que tardo 23 minutos. ¿Es realmente la ruta B más rápida que la ruta A? ¿O por el contrario esa diferencia de 2 minutos se debe a la casualidad, por ejemplo, porque durante esa semana el tráfico ha sido especialmente fluido? Si la diferencia no se debe al azar, diremos que es una diferencia estadísticamente significativa.

Situaciones en las que necesitamos estar seguros de que las diferencias que observamos no se explican por puro azar son numerosas. Es la base del método científico. Por ejemplo, pensemos en la investigación médica. Tenemos un nuevo fármaco y queremos verificar si produce el efecto deseado. Para ello, administramos a una muestra de personas el fármaco y comparamos los resultados con una muestra de personas que no han sido tratadas, o mejor aún, que han sido tratadas con una tratamiento placebo. Cuando obtengo los resultados, necesito estar seguro de que el efecto curativo es real. Este tipo de pruebas son las que los productos homeopáticos no superan y la razón por la que la comunidad médica nos los acepta como eficaces.

Con la llegada de internet, esta metodología de trabajo se ha puesto más de moda que nunca. Pensemos en los tests A/B que se utilizan tan frecuentemente en el desarrollo de páginas web. Por ejemplo, tenemos una web de comercio electrónico en la que el 5% de mis visitantes acaban comprando un producto. Quiero testar si incrementar el tamaño de las imágenes de los productos mejora las ventas. Hacer un test A/B consistiría en poner en funcionamiento una nueva versión de la web, mostrar aleatoriamente a los usuarios una de las dos versiones y medir qué éxito de ventas tiene cada una. Si la nueva web tiene un éxito de ventas del 5,5%, ¿puedo estar seguro de que esa diferencia de 0,5% se debe a las imágenes más grandes?

Para responder a estas cuestiones, la estadística nos va a ser de utilidad. Necesitamos hacer un test de hipótesis. Veamos como funciona.

Test de hipótesis

Para empezar, vamos a dar una idea intuitiva lo que estamos haciendo. Supongamos que hacemos una encuesta a 100 hombres y a 100 mujeres preguntando si practican deporte. Analizando las respuestas, observamos que el 40% de los hombres afirman practicar deporte frente al 30% de las mujeres. Podríamos representar este dato con el gráfico siguiente.

 

diferencia_significativa_1

 

Pero vimos en un post anterior que por el hecho de calcular una estadística usando una muestra de gente en lugar del universo completo, nuestro dato no va a ser preciso sino que estará dentro de un margen de error. Este margen es mayor cuanto más pequeña es la muestra que empleamos. Por ello, sería más correcto representar el resultado de esta encuesta con una gráfico como el siguiente.

 

diferencia_significativa_2

 

En este gráfico hemos representado la incertidumbre que tenemos acerca de los porcentajes de hombres y mujeres que practican deporte. Cuando empleamos esta mirada, vemos que el margen de error de ambos datos (hombres y mujeres) se solapa de forma considerable. En el ejemplo que hemos representado, el gráfico nos indica que es relativamente fácil que esa diferencia que observo entre hombres y mujeres no sea real, sino que sea simplemente un efecto del error muestral que tengo por trabajar con una muestra reducida. La porción gris representa ese riesgo: es la probabilidad de que la diferencia se deba al error. Tendríamos por lo tanto una diferencia no significativa.

¿Cómo podría estar seguro de que la diferencia sí es realmente significativa? Idealmente, si la diferencia entre los datos de hombres y mujeres fuese mayor, de forma que el margen de error de cada dato se solapase mucho menos, como se muestra en el siguiente gráfico.

 

diferencia_significativa_3

 

Obviamente, eso no depende de mi. Por lo que, si quisiese tener mayor seguridad sobre si la diferencia es significativa, tendría que trabajar con tamaños de muestra superiores. O dicho de otra manera, si la diferencia esperada va a ser pequeña, necesito trabajar con una muestra mayor, lo que genera un margen de error más pequeño y me permitirá detectar diferencias significativas menores, tal y como se muestra en la gráfica siguiente.

 

diferencia_significativa_4

¿Y esto se puede medir objetivamente?

Sí, para eso se suele realizar un test de hipótesis, que es una prueba objetiva sobre la causa de las diferencias. En primer lugar, definimos las siguientes cantidades:

A partir de estas cantidades, calcularemos en primer lugar la proporción global de personas que practican deporte, sean hombres o mujeres. Sería:

También podemos calcular la proporción de deportistas entre hombres y entre mujeres, que son los datos que han resultado diferentes y queremos verificar.

A continuación, planteamos las dos hipótesis posibles:

Para poder aceptar la hipótesis alternativa, necesito que la diferencia entre las dos proporciones medidas (Ph y Pm) diste lo suficiente como para tener un % de confianza suficientemente alto de que esa diferencia no se deba al error muestral, suponiendo que dicho error sigue una distribución gaussiana o normal. Para ello, tendré que calcular lo siguiente:

diferencia_significativa_51

y comprobar que la Z resultante no supera una cantidad que viene dada por el nivel de confianza que deseamos. Es muy habitual trabajar con un intervalo de confianza del 95%, al cual corresponde un valor de Z=1,96. Por lo tanto:

Volviendo al ejemplo…

Podemos hacer estos cálculos en nuestro ejemplo inicial. Recordemos: 100 hombres y 100 mujeres, 40 hombres deportistas y 30 mujeres deportistas. Tendríamos:

Estos datos resultan en Z=1,48, que al ser inferior a 1,96 no nos permitiría afirmar que la diferencia es significativa. Si por el contrario este resultado se hubiese obtenido con una muestra de 200 hombres y 200 mujeres, la Z resultante sería de 2,10, lo que me permitiría aceptar la hipótesis.

Algunas consideraciones finales

Es muy importante tener en cuenta con qué tamaño de muestra trabajo. En ocasiones, con muestras extremadamente pequeñas, se observan diferencias muy grandes pero que sin embargo no tienen significancia estadística. Eso no significa que esa diferencia no sea real, simplemente significa que con los datos que tenemos no podemos tener una garantía suficiente de que sea real.

En sentido contrario, con muestras extremadamente grandes, podemos encontrar diferencias significativas pequeñas, que en la práctica no van a resultar muy informativas.

Por último, ya hemos publicado en nuestra página web dos calculadoras de diferencias significativas, para medias y para proporciones, con el fin de ayudarte a hacer estos cálculos. Las encontrarás aquí.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Formación | Investigacion de Mercados | Preguntas y respuestas Trackback | Comentarios (2)

La mirada sociológica

Escrito por Oriol Llauradó el 11 de noviembre 2014

Leer el artículo completo

Dicen que una vez Tales de Mileto cayó en un hoyo y se rompió la pierna, por culpa de ir mirando las estrellas. Confieso que a menudo corro el mismo riesgo, pero no por andar escrutando el firmamento, sino por observar a quienes me rodean.

Todo empezó con la sociología. No me atrevo a escribir la pedantería de que estudiar sociología me cambió la vida. Pero sí que me entrenó a mirar de una manera sutilmente diferente.

Hay una mirada sociológica sobre casi todo, y te animo a aplicarla, estés donde estés:

Las posibilidades son incontables…en los autobuses, en las colas de los supermercados, en los conciertos: nada escapa a su dominio.

Más allá de convertirte en un Sherlock Holmes de bolsillo, la mirada sociológica te inspirará ideas, te confirmará teorías, o te evocará nuevas posibilidades creativas.

Y sobre todo, logrará que nunca te aburras.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Investigacion de Mercados Trackback | Comentarios (1)

3 tendencias emergentes en investigación de mercados

Escrito por Oriol Llauradó el 7 de noviembre 2014

Leer el artículo completo

Acabamos de conocer los resultados de la 15ª edición del informe GRIT (Greenbook Research Industry Trends). Se trata de un estudio que realiza el portal GreenBook y que resume el estado de nuestra industria y detecta las principales tendencias de futuro.

Los datos se obtienen mediante una encuesta realizada dos veces al año a los profesionales de nuestro sector que, a fin de cuentas, son quienes conocemos de primera mano las herramientas utilizadas y las necesidades de nuestros clientes.

De entre todas las tendencias apuntadas, destacamos 3:

1. Sigue creciendo el uso de las encuestas online: es la metodología más usada, el 89% de los encuestados declara haberla empleado.

2. Respecto a las nuevas metodologías, sigue consolidándose el uso de las encuestas a través dispositivos móviles y las comunidades online (MROCs), siendo ya dos métodos ampliamente adoptados.

3. Todo apunta a que el análisis de datos volcados masivamente en las redes sociales es una técnica muy próxima a consolidarse, dado el crecimiento que experimenta ola tras ola.

Te animamos a leer y descargar una copia gratuita del informe aquí.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Big data | Comunidades | Encuestas Online | Estudios | Investigacion de Mercados | Noticias | Paneles Online Trackback | No hay comentarios