Actualidad de la investigación de mercados online

En busca de la pregunta perfecta

Escrito por Carlos Ochoa el 3 de noviembre 2014

Leer el artículo completo

Trabajar en una empresa de paneles online puede atrofiar tu sensibilidad como respondiente. Por eso mantengo la disciplina de participar regularmente en encuestas. Aunque mis respuestas no sean válidas para un estudio, me lo tomo muy en serio; trato de responder con toda sinceridad, pensando qué quiere saber de mí el investigador que está detrás de la escena. También hago encuestas online a personas cercanas, a mi propia familia. Lo recomiendo, no se puede trabajar en esta industria sin ver a una persona de 72 años completando un cuestionario online.

 

preguntas perfectas

 

Todas estas participaciones me han llevado a ver preguntas realmente malas. Para mí, una pregunta mala cumple dos condiciones: (1) es imposible responderla con sinceridad, incitando al encuestado a inventarse una respuesta y (2) no genera información útil alguna para el investigador. Vamos, lo que sería una jugada maestra. Pondría en esta categoría muchas de esas preguntas de tipo “¿te sientes identificado con esta marca de cordones de zapatos?” o “¿piensas que esta marca de anticongelante es para gente como tú?”. Cuando respondo estas preguntas me siento inútil, incapaz de encontrar la forma correcta de responder. Cuando hago estas preguntas a otros, directamente siento vergüenza.

El síndrome Grand

Pero erigirse juez de preguntas ajenas es muy cómodo. Si este tipo de preguntas llegan a los cuestionarios, será que no es sencillo hacer buenas preguntas. Así que me propuse buscar la pregunta perfecta.

Mi pregunta perfecta debería ser clara y contundente. Atrayente para el respondiente, capaz de capturar ese dato anhelado por el investigador. De ligera lectura, pero honda profundidad. Objetiva como un número, precisa como un cirujano.

Buscar la perfección tiene un peligro. No querría caer en el síndrome Grand. Joseph Grand es un personaje de “La Peste”, de Albert Camus, que trata de escribir una novela. Pero no una novela cualquiera; una novela perfecta de principio a fin que, según sus propias palabras, debía hacer que los editores al leerla, se levantasen y exclamasen al unísono “señores, hay que quitarse el sombrero”.

Joseph Grand se obsesionó tanto en la perfección que no era capaz de pasar de la primera frase. La reescribía una y otra vez. Camus describe así esta parálisis creativa:

“Noches, semanas enteras sobre una palabra…, a veces una simple conjunción. (…) Compréndame bien, doctor. En rigor, es fácil escoger entre el mas y el pero. Ya es más difícil optar entre el mas y el y. La dificultad aumenta con el pues y el porque. Pero seguramente lo más difícil que existe es emplear bien el cuyo”.

¿Medir la calidad de una pregunta?

Así que empecé a recopilar ingredientes para una pregunta perfecta, pero con sentido práctico. En primer lugar, identifiqué las recomendaciones de toda la vida, que no por conocidas son menos importantes. Las preguntas deben ser concisas, redactadas empleando el lenguaje del encuestado, con estructuras gramaticales simples. Deben ser objetivas, evitar la doble negación así como cualquier elemento que dé lugar a dobles interpretaciones. Son reglas obvias, pero no siempre son fáciles de aplicar: ¿qué es un lenguaje sencillo?, ¿puedo medir de alguna forma la bondad de mi pregunta?.

Así que buscando la pregunta perfecta, descubrí que no estaba solo. Un grupo de investigadores del RECSM (colaboradores del R2online) llevan tiempo en ello. Bueno, en realidad han dado un paso atrás para resolver un problema más fundamental: ¿es posible medir la calidad de una pregunta?

La respuesta es sí. Para ello, han tenido que definir qué es la calidad de una pregunta. Es el producto de su validez y su fiabilidad.

Una pregunta es válida si la respuesta que obtiene se parece mucho a lo que buscamos, o por lo menos no tiene tendencia a desviarse siempre en la misma dirección. Y es fiable si cada vez que usamos la pregunta, da el mismo resultado. Para entendernos: un tirador con arco es fiable si siempre que dispara impacta en el mismo sitio, aunque no sea el centro de la diana. Y es válido si al disparar siempre se acerca al centro de la diana, aunque impacte en diferentes posiciones. Un tirador de calidad hace las dos cosas a la vez: es válido y fiable.

 

Validez y fiabilidad, calidad en las encuestas

 

El RECSM emplea métodos que permiten medir fiabilidad y validez, y por tanto calidad. La fiabilidad se mide repitiendo una pregunta a los mismos respondientes. La validez, comparando una pregunta con otras con las que debería correlacionar.

Perfectas no, pero de alta calidad

En su investigación, el RECSM recopila información de múltiples formatos de pregunta y miden cómo afectan a la calidad diferentes características de las mismas: el tema de la pregunta, el tipo de escala de respuesta, el número de alternativas… A partir de la información recopilada ponen a disposición de la comunidad científica un programa, el SQP, que predice la calidad de una pregunta.

Tal vez ellos podrían ayudarme a encontrar mi pregunta perfecta. Su respuesta, muy científica, fue que no existía tal pregunta, pero sí me podían dar unas pautas de qué cosas debería tener una buena pregunta:

  1. Si busca capturar opiniones (no datos), probablemente debería ser sobre temas laborales o sobre política.
  2. Emplearía una escala específica sobre el tema, no una escala general de tipo “acuerdo – desacuerdo”.
  3. La escala tendría 11 puntos (por ejemplo, de 0 a 10).
  4. No estaría dentro de una matriz o batería de preguntas.
  5. Tendría dos puntos de referencia fijos en los 2 extremos de la escala, más un tercer punto neutral (es decir, los valores numéricos se acompañarían de una descripción de su significado en esos 3 puntos).

Seguramente mi soñada pregunta debería tener alguno de estos elementos. La calidad de una pregunta es un concepto objetivo, que puede ser medido estadísticamente, en contra de lo que pudiera pensarse. Atendiendo a las recomendaciones de los expertos en metodología de encuestas y aplicando buenas dosis de sentido común, podemos estar más cerca de una pregunta perfecta. Mientras no lo logremos, evitemos las que sabemos de antemano que distan mucho de serlo.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: calidad | Herramientas | R2Online | Sin categoría Trackback | Comentarios (4)

¡Asiste gratis al webinar de Netquest & Esomar!

Escrito por Ruth Alonso el 23 de octubre 2014

Leer el artículo completo

Hoy te invitamos a participar en el webinar “Medición observacional” que vamos a llevar a cabo con ESOMAR. Este seminario online se va a realizar el próximo 30 de octubre a las 17h hora España (consulta la hora que será en tu país aquí).

post_webinar_esomar

En este webinar, descubrirás qué herramientas necesitas para llevar a cabo un proyecto de medición observacional y te explicaremos un caso de éxito. Además, haremos especial hincapié en la privacidad de los datos recogidos.

Esta conferencia online va dirigida a aquellos investigadores que quieran conocer la tecnología más avanzada de recolección de datos y emprender nuevos retos con sus clientes y será presentada por:

Pepe Tomás

Pepe Tomàs

Responsable Global de Operaciones, Netquest

Carlos Ochoa

Carlos Ochoa

Director de Marketing,
Netquest

 

Regístrate ahora gratuitamente y recuerda ¡el webinar está abierto a todo el mundo!

button_webinar_esomar

Si quieres saber más sobre el webinar puedes enviarnos un email a marketing@netquest.com.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: esomar | Eventos | Herramientas Trackback | No hay comentarios

Apple vs Samsung, que decida un conjoint

Escrito por Ferran Savín el 15 de octubre 2014

Leer el artículo completo

Probablemente habéis oído hablar del litigio entre Apple y Samsung a raíz de una demanda de la empresa fundada por Steve Jobs. Según la demanda, Samsung habría violado las patentes de algunas tecnologías empleadas en sus iPhone y iPad. Los daños y perjuicios reclamados por Apple ascendían a más 2.000 millones de dólares. Pero, ¿de dónde sacó Apple esta cifra? ¿cómo es posible evaluar qué habría sucedido en el mercado si Samsung no dispusiese de esas prestaciones? ¿es posible medir de forma objetiva algo así?

samsung contra apple

Por lo que se ha sabido durante el jucio, la evaluación de daños de Apple se fundamentó en un análisis conjointLa finalidad de un análisis conjoint es determinar qué aceptación va a tener por parte del consumidor una combinación de atributos de un producto. Para ello, un conjoint evalúa el valor o utilidad que el consumidor otorga a cada atributo. Y lo hace sin tener que preguntar directamente por los mismos, sólo a través de comparaciones de productos. Esta metodología ha acreditado mayor fiabilidad que los estudios convencionales en la evaluación de la importancia real que una prestación de un producto tiene en la decisión de compra de un consumidor.

La capacidad de predecir el comportamiento del consumidor convierte a los estudios conjoint en una potente herramienta para valorar situaciones hipotéticas. En el caso concreto del juicio Apple vs Samsung, el objetivo era medir cómo los consumidores valoraban las características de Apple y qué cuota de mercado había perdido por el supuesto plagio de Samsung. Para evaluar la importancia de las prestaciones plagiadas, se realizaron dos estudios online con una muestra de 507 encuestados con teléfonos móviles y otros 459 con Tablet.

 

Y ¿cuál fue el resultado?

El resultado del estudio conjoint llevado a cabo por el Profesor Hauser determinó que los consumidores estaban dispuestos a gastar entre 32$ y 102$ adicionales por las prestaciones en litigio. Evidentemente, Samsung contraatacó con otro estudio conjoint donde definía otro tipo de atributos de sus productos, no valorados en el primer estudio, como por ejemplo la duración de la batería. Esta historia ilustra perfectamente una de las fortalezas de los análisis conjoint: la obtención de resultados cuantificables y fiables.

 

Usos del conjoint

El análisis conjoint es una técnica conocida desde hace décadas, que vive una segunda juventud gracias a su uso a través de encuestas online y al incremento de la capacidad de proceso de los ordenadores para abordar análisis más sofisticados.

Hay innumerables firmas que están utilizando esta técnica para diseñar productos. Por ejemplo:

La técnica de análisis conjoint cuenta con la confianza de prestigiosos investigadores porque es (1) fiable, ya que obtiene datos mediante simulaciones realistas de situaciones cotidianas de compra, en las cuales el respondiente es forzado a priorizar unas prestaciones renunciando a otras, (2) discrimina, margina mejor la importancia de los atributos de un producto o servicio, y (3) permite simular nuevos productos y calcular cuotas de mercado, entre otras grandes virtudes.

Si el análisis conjoint no goza de mayor popularidad se debe a que es percibido por el investigador como una técnica altamente compleja. En gran medida, es cierto. Los modelos estadísticos que emplea son sofisticados. Pero una vez se obtienen los resultados del modelo (lo que se conoce como utilidades), las posibilidades de análisis y simulación de escenarios son casi ilimitadas. Y la parte positiva es que interpretar y emplear las utilidades está al alcance de cualquier investigador.

Atendiendo al interés que despiertan estos estudios, en Netquest hemos empezado a ofrecer a investigadores profesionales un servicio conjoint que permite ejecutar este tipo de estudios sin necesidad de adquirir software especializado, ni tener un conocimiento técnico del funcionamiento de los algoritmos ni de las técnicas estadísticas propias del conjoint.

Os animamos a que deis el salto a esta metodología. Para ayudaros, en los próximos días iremos publicando una serie de 10 post-tutoriales en los que explicaremos cada uno de los elementos a tener en cuenta para desarrollar tu propio estudio conjoint.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Herramientas | Innovación | Investigacion de Mercados Trackback | No hay comentarios

La señal y el ruido

Escrito por Carlos Ochoa el 7 de octubre 2014

Leer el artículo completo

Ha caído en mis manos un ejemplar del célebre libro La señal y el ruido, de Nate Silver. He ido a parar a esta lectura después de una interesante conversación con Àngels Pont, directora del instituto de investigación GESOP, sobre mercados predictivos.

La señal y el ruido, de Nate Silver.

Los mercados predictivos constituyen una técnica de investigación innovadora que permite hacer predicciones (sobre cualquier cosa, ya sean los resultados de unas elecciones o de un evento deportivo) dejando que un grupo de individuos puedan comprar y vender acciones de los diferentes resultados posibles. El valor de este mercado bursátil de opiniones refleja el resultado más probable.

Hablaremos en otro post sobre mercados predictivos, pero la idea tremendamente seductora que mueve esta técnica y que poco tiene que ver con la investigación de mercados tradicional, es preguntar a la gente su opinión sobre la posibilidad de que se produzca un evento en lugar de su posición personal respecto a dicho evento.

Veamos un ejemplo: predecir el resultado de unas elecciones. En un estudio clásico seleccionamos una muestra altamente representativa de electores y les preguntamos a qué candidato piensan votar. Si la muestra se ha creado correctamente, podremos inferir el resultado más probable de las elecciones dentro de cierto intervalo de error. Una muestra más grande nos permite reducir el intervalo de error.

Pero, ¿qué sucedería si preguntamos a una muestra de personas quién creen que va a ganar las elecciones en lugar de qué candidato piensan votar? Diversas experiencias muestran la extraordinaria capacidad predictiva de las personas, algo a lo que Aristóteles llamaba la sabiduría de las masas en su Política.

Aristóteles

Como técnica, los estudios predictivos no tienen nada que ver con un muestreo clásico. Nuestro universo ya no lo componen personas que votan, sino la información que poseen las personas sobre qué votarán los demás. Cada persona contiene mucha más información que su propia intención de voto: sabe lo que votaría él pero también cómo votarán las personas de su entorno, ha visto resultados de sondeos, puede estar informada sobre el estado de la opinión pública… Es por ello que una muestra realmente pequeña de opiniones personales puede darnos una buena predicción.

Pero, ¿cómo debe seleccionarse una muestra de predictores? ¿existen personas con mayor capacidad de predicción que otras? ¿en qué medida influye en la capacidad de predicción el conocimiento de la muestra sobre el tema tratado? Alexander Wheatley y Hubertus Hofkirchner presentaron en el ESOMAR CONGRESS de Niza los resultados de algunos estudios experimentales al respecto. Sometieron a una muestra de panelistas a diferentes preguntas de naturaleza predictiva: qué precio crees que tendrá el nuevo iPAD mini 2 el día de su lanzamiento, resultados deportivos, cómo crees que se comportarán otras personas en una situación dada… Algunos de los aprendizajes de Wheatley y Hofkirchner fueron los siguientes:

Parte de las razones que explican la capacidad de predicción de un individuo vienen explicadas en el libro cuyo título preside este post. Las personas hacemos predicciones usando dos componentes: la señal, que es información correcta, y el ruido, información irrelevante que nos aleja de la señal. Si agregamos predicciones de personas independientes y no sesgadas, podemos llegar a cancelar el ruido y acercarnos a la señal que buscamos.

En su libro, Nate Silver profundiza en cómo hacemos predicciones y qué características tiene un buen predictor. A través de numerosos ejemplos, que abarcan desde predicciones políticas, deportivas, económicas e incluso meterológicas, Silver identifica qué hace buena una predicción y qué caracteriza a los buenos predictores. Y a los malos.

En próximos posts iremos desgranando algunas de las claves facilitadas en este interesante libro. En cualquier caso, os animo a leerlo, porque en los detalles y en el estilo narrativo del autor está gran parte de la información útil. Es decir, la señal.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: esomar | Estudios | Herramientas | Innovación | mercados predictivos | Predicciones | Sin categoría Trackback | Comentarios (3)

Netquest celebró su 5ª jornada de investigación de mercados online

Escrito por Laura Serlavós el 16 de junio 2014

Leer el artículo completo

Netquest celebró la 5ª edición de sus jornadas sobre la investigación online titulada “La Investigación Provocativa” los pasados 5 y 12 de junio en Barcelona y Madrid, respectivamente.

Este año, Netquest se presentó de una forma diferente, con ganas de sorprender y provocar entusiasmo. En esta ocasión, el objetivo de las jornadas no era sólo introducir las últimas novedades en herramientas de investigación online, sino también mostrar un enfoque y una actitud diferente para investigar. Una manera provocativa, seductora, atrevida. Una perspectiva de la investigación que ofrece soluciones, que se adentra en las nuevas tecnologías y en la nueva realidad social con un enfoque imaginativo que apuesta por la proactividad y la innovación.

Auditori_MediaTic

La 5ª Jornada Netquest siguió la misma estructura en Barcelona y en Madrid. La Jornada empezó con una breve introducción por parte de Joan Miró, Director general de Netquest Iberia, seguida de las tres ponencias.

La primera ponencia Así serán los cuestionarios en 2020 fue a cargo de Germán Loewe, Fundador y CEO de Netquest, que abrió la jornada con una visión futurista y con la introducción al concepto de cuestionario Flow. Seguidamente, Joan Miró y Ricardo Torres, Director Comercial de Netquest Iberia, nos mostraron, bajo el título Cómo ver sin ser visto, cómo saber sin preguntar, un primer esbozo sobre la recolección de datos de forma pasiva. Finalmente, la tercera ponencia, impartida por Antonio Monerris, Socio-Fundador de Brain Ventures, fue una reflexión al proceso de cambio y el futuro de la sociedad en la que vivimos, bajo el título: Manual de hacedores de lluvia: de testigos a actores del cambio

 

ponentes_BCN

 

Para cerrar las jornadas, se llevó a cabo un debate con diferentes profesionales del sector de la investigación de mercados especializados en online y offline. En ambas mesas de debate se reflexionó sobre la investigación mobile, la observación del consumidor a través de  las redes sociales, la recolección de datos de forma pasiva…

Por un lado, los participantes invitados en Barcelona fueron Nicolás Pérez, CIO en Letsbonus; Marçal Gil, Head of Market Reserach en España y Portugal en Henkel; Francisco Pestana,  Socio director y co-fundador de Advisium e Ignacio Cid, Head of Business Intelligence en Ulabox.

En resumen, los 4 coincidieron en la importancia de investigar para mejorar la calidad de sus productos y servicios. Hubo un consenso en el hecho de que tenemos más estadísticas y datos que nunca, pero que, ahora, la verdadera dificultad es procesarlos e interpretarlos. Cabe destacar que ante este problema generalizado, todos convergieron en la necesidad de recuperar la esencia de la investigación, es decir, preguntar a los consumidores para comprender sus motivaciones más profundas.

 

Mesa de debate, BCN

 

Por otro lado, en Madrid, se vieron a actores de la industria como Marisa Carrión, Strategic Planner and Consumer Insight en Pernod Ricard España; Javier Moreno, Market Research Manager en L’Óreal; Beatriz Oficialdegui, Marketing Director en Destinia y Andrea Martínez Westley, Market Researcher en SCM.

Mesa de debate, MAD

En Madrid sí que se observaron algunas divergencias entre Online (L’Oreal y Pernod Ricard) y Offline (Destinia y Schibsted): mientras que las OFF trabajan con proveedores externos de investigación de mercados, las ON recurren a la estrategia de Juan Palomo: “yo me lo guiso, yo me lo como”. En la misma línea, las OFF, por su naturaleza más alejada del mundo on line, estudian el mercado a través de la investigación que podríamos etiquetar de “clásica”, mientras que las ON se centran en el análisis de los datos que arrojan los propios usuarios de sus webs. Aun así, hubo un ámbito que fue compartido por todos: el digital y, por extensión, las redes sociales. No hubo ninguna duda de que no se puede prescindir de las herramientas que  ofrece Internet, ya sea haciendo investigaciones basadas en métodos más extendidos como los cuestionarios online, como en la obligada e imprescindible atención que se le debe prestar a las redes sociales.

Como conclusión general de las jornadas extraemos una idea clara: la innovación es fundamental y es imprescindible estar al día de las tendencias y los cambios sociales. Aún así, no hay que olvidar la esencia de la investigación de mercados: preguntar al consumidor, que tiene la información (que verdaderamente interesa). Es verdad que actualmente se cree en la existencia de una dicotomía online/offline y que la manera de proceder puede ser (es) distinta, pero el punto de convergencia siempre es el mismo: obtener información del consumidor y, por tanto, es a este al que hay que conocer para optimizar una investigación y las herramientas y metodologías usadas en ella.

 

Coffee-break

¡Esperamos verte en la 6ª Jornada Netquest! 

Aquí tienes disponibles los vídeos resumen de la Jornada de Barcelona y la de Madrid.

boton_presentaciones

Descárgate ahora las presentaciones de la 5ª Jornada Netquest:

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Artículos | Barcelona | españa | Eventos | Herramientas | Innovación | Investigacion de Mercados | madrid | netquest | redes sociales | tecnología Trackback | No hay comentarios

¿NetStudio o cómo encuestar a tu propia BBDD?

Escrito por Ferran Savín el 2 de junio 2014

Leer el artículo completo

La misión de Netquest es convertir la participación en una encuesta en una experiencia satisfactoria. Por este motivo, hemos puesto mucho esfuerzo en juntar la satisfacción de los participantes y la inversión en innovación tecnológica para conseguir los datos más fiables.

Los dos factores clave que nos dan una alta participación en nuestras encuestas  y unas  respuestas fiables son, en primer lugar, la buena incentivación que reciben nuestros panelistas y en segundo lugar, cómo está diseñada la encuesta.  Es fundamental saber cómo se formulan las preguntas: qué preguntas interactivas usamos, qué opciones de respuestas ofrecemos, qué tiempos de espera hay entre pregunta y pregunta, cómo elaborar un diseño claro y atractivo, etc. Estos factores, entre otros, hacen  que nuestras encuestas sean un éxito y que los resultados sean fiables y veraces.

Os dejamos un ejemplo de cómo puede llegar a ser de importante el hecho de ofrecer una buena pregunta o unas buenas opciones de respuesta:

netstudio_imagen_blog_OK

Es cierto que hay una tendencia clara y exponencial a generar bases de datos con información personal; información de nuestros clientes, nuestros usuarios web, información de empleados, etc. Esta información es muy valiosa y esencial para mejorar tu organización, pero a menudo nos damos cuenta que existe cierta dificultad en saber cómo sacarle provecho.

Una de las herramientas más potentes para utilizar esta información de forma adecuada es vía una encuesta. Esto te permite perfilar tus consumidores, saber qué piensan, cómo son, qué quieren, y todo aquello que necesites saber en un momento determinado. Pero ante todo, debes recordar que te estás dirigiendo a personas que son de alta importancia para ti, y la forma en que te diriges a ellos es vital.

Esta es la razón por la que damos la máxima importancia al diseño de la encuesta: si la encuesta no está bien elaborada, la información que obtendremos no será fiable ni veraz. Aunque en el mercado existen soluciones de encuesta ‘do-it-yourself’ gratuitas, estas herramientas tienen fuertes restricciones de diseño y su uso, por parte de personas no expertas, puede dar lugar a cuestionarios ce baja calidad y, por lo tanto, baja respuesta.

Conscientes de este problema, Netquest pone a tu disposición  el servicio NetStudio. Con NetStudio programamos tu encuesta y gestionamos el trabajo de campo en tu base de datos.

netstudio_logo

Además, te beneficias de nuestra experiencia y know-how en encuestación, de la potencia tecnológica de Survey Manager 2 y de nuestros equipos de scripting.

A parte, suprimimos sesgos y errores de medida para que los resultados te permitan realizar un análisis correcto.

¿Cómo funciona? Nos entregas los contenidos del cuestionario en formato Word, Excel o similar y utilizando tu base de datos extraemos el máximo provecho de ésta.

Para conocer más sobre Netquest NetStudio visita nuestra web.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Encuestas Online | Herramientas | Innovación | internet | Investigacion de Mercados | netquest | Noticias | Recomendamos | Representatividad | sesgo | Software | tecnología | Usabilidad Trackback | No hay comentarios

¿Puede terminar el smartphone con la brecha digital?

Escrito por Oriol Llauradó el 4 de febrero 2014

Leer el artículo completo

Nos gustaría creer que sí. Pero más allá del optimismo, os queremos compartir las razones por las que pensamos que puede ser así.

En los últimos años hemos vivido la enorme popularización de Internet, basada en la difusión del PC y la banda ancha. Sin embargo, han sido muchas las personas excluidas del acceso a la red, dando lugar al fenómeno conocido como brecha digital.

Para las empresas de campo de Iberoamérica, acceder y comunicarnos con las personas de un nivel socio-económico más bajo ha representado un reto colosal. En ocasiones se trata de personas que viven en barrios alejados de los centros urbanos.  O en entornos que representan un riesgo para el equipo de investigación. O cuyo nivel de alfabetización les impide rellenar una encuesta con un formato excesivamente sofisticado. Y, en el caso de la investigación online, suelen ser familias sin un ordenador personal ni acceso permanente a la red.

Screen-Shot-2013-07-24-at-10.11.13-PM-e1389803378750

No obstante, hoy en día, estas personas casi con toda seguridad tienen un teléfono móvil. Y lo utilizan con destreza. Para ellas, el teléfono no es un bien de lujo, sino una herramienta de comunicación con sus vecinos, un medio de pago, un instrumento para gestionar su salud, o una eficaz herramienta educativa. El teléfono móvil (en su mayoría smartphone) es el principal medio de conexión con su entorno.

Con tan solo 5 años de vida, los smartphones están teniendo una tasa de adopción espectacular. Se estima que en el mundo ya hay más smartphones que PCs: unos 1.400 millones de unidades a finales de 2013. Y la previsión es que la velocidad de conexión seguirá subiendo y los precios de los teléfonos bajando.

La industria de investigación de mercados ha estado atenta a este fenómeno. La recolección de datos a través del smartphone ya nos está permitiendo realizar diarios personales, geolocalizar a los entrevistados, video-entrevistarles , recibir fotografías de sus productos favoritos… logrando que la experiencia de participar  en un estudio sea mucho más atractiva que la basada en la web.

En el caso de las clases bajas, la tecnología móvil conlleva 2 ventajas añadidas:

En definitiva, pensamos que el móvil es una herramienta espléndida que nos debe permitir llegar a más personas y, por lo tanto,  mejorar nuestra capacidad científica de realizar encuestas representativas.

No solo esto, sino que identificar y entender las necesidades de estas personas puede ser una poderosa fuente de innovación local, logrando construir entre todos una sociedad más inclusiva.

Más información sobre este tema:

The mobile advantage in illiterate or limited literacy populations >>

http://www.greenbookblog.org/2014/01/20/the-mobile-advantage-in-illiterate-or-limited-literacy-populations/

The Fortune at the Bottom of the Pyramid >>

http://www.stuartlhart.com/sites/stuartlhart.com/files/Prahalad_Hart_2001_SB.pdf

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Estudios | Geomarketing | Herramientas | internet | Investigacion de Mercados | LATAM | moviles | netquest | Predicciones | Representatividad Trackback | Comentarios (2)

Focus groups: ¿los matamos o los sanamos?

Escrito por Ruth Alonso el 3 de mayo 2013

Leer el artículo completo

Hoy os traemos traducido un interesante artículo de Andy Barker publicado en Research, el portal de noticias de investigación de mercados. El artículo, que en inglés lleva por nombre “Focus groups: Kill or cure?”, trata los errores en los que cae la investigación cualitativa en el momento de ejecutar un focus group y a la vez incluye nuevas formas y alternativas que se pueden aplicar a estos grupos de discusión.

29 Abril 2013 | Por Andy Barker

Hace dos semanas, Tash Walker de The Mix, habló en Research  sobre la “Campaña por la conducta real” de su firma. En particular, destacó su objetivo clave de matar a los focus groups.  La acusación principal (expandida en el blog de The Mix) es que “los focus groups nunca funcionarán… [porque] emplean la lógica para entender algo que no la tiene”.

Esto plantea inmediatamente la pregunta de si estamos hablando de focus groups per se o de focus groups malos. Sin embargo, vamos a aceptar la idea de que en la iteración más racional del focus group – con una guía temática construida bajo la lógica y una serie de preguntas que cuestionan a las personas de manera ingenua qué hacen, qué piensa y qué sienten – nos estaremos perdiendo esta naturaleza. Estoy convencido que existe un abuso en el ámbito de la investigación cualitativa (y podríamos debatir sobre las causas que han llevado a esta situación, por ejemplo; el constante abuso de los focus group), ¿pero quiere esto decir que tenemos que acabar con esta tendencia para mejorar la calidad de los estudios cualitativos?

focus group

El ataque conductista en la investigación ‘tradicional’ no es nuevo, pero la idea de que los consumidores – que son personas – son de alguna manera incapaces de cualquier conocimiento de sí mismos y que la única manera útil de entenderlos es observando su auténtico comportamiento, parece ser a la vez condescendiente y faltada de credibilidad. La investigación cualitativa ha empleado, a lo largo de los años, un impresionante arsenal de herramientas y técnicas con el fin de profundizar e ir más allá de la respuesta superficial. Todos ellos no pueden estar equivocados, ¿no es así?

Así pues, si hablamos de focus groups mal ejecutados, sobre-racionales, superficiales… Entonces estamos de acuerdo de todo corazón con el deseo de Walker de acabar con esta práctica; pero no creemos que necesariamente esto signifique prescindir completamente de los focus groups. De hecho, no estamos de acuerdo con la afirmación de que el focus group esté muerto; más bien, parafraseando con Frank Zappa, “sólo huele raro”.focusgroup

Con un enfoque adecuado, la técnica de focus group puede ser transformada en un evento experimental que involucre e implique a todos los participantes (consumidores y clientes) a un nivel más elevado que la pasividad que a menudo se manifiesta en un típico focus group. Si se añade un poco de teatro, se puede conseguir un espacio perfecto para empezar. Esto es lo que hemos estado haciendo en Engage – “experimentalizar” a nuestros grupos con un mix de gamification, dirección de escena y  un uso más reflexivo de los lugares.

Un buen ejemplo de ello es una pieza de trabajo realizada por un canal de televisión. Posicionamos el evento como un visor de eventos, en lugar de un proyecto de investigación y construimos la experiencia alrededor de lo que la compañía televisiva pudo ofrecernos – sus estudios, las cámaras, los presentadores, etc. Esto, en esencia, se trataba de un focus group, pero con un giro.

También se pueden usar alternativas para añadir un punto de emoción y de singularidad a un proyecto, permitiendo a los equipos del cliente que se mezclen con los encuestados sin la barrera del espejo del focus group. Otra alternativa sería usar un mix de moderadas discusiones tradicionales con una serie de tareas de co-creación o, incluso, técnicas de interrogación que se extraen de la teoría de la educación y la práctica en el aula para ajustarse a diferentes estilos de comunicación.

“Ahá”, te oí decir, “esto ya no es un focus group, es un taller”. Y sí, mientras usamos técnicas y sesiones estructuradas como talleres, antes que la guía clásica de debate canalizado, el núcleo del enfoque del focus group se mantiene intacto. Esto, aún trata de reunir un grupo de consumidores con el fin de discutir una serie de cuestiones, para responder a los estímulos, para reflexionar sobre sus motivaciones, para compartir sus experiencias y debatir actitudes.

El hecho de que las necesidades de la investigación han evolucionado no significa que debamos tener una grande hoguera de las vanidades de la investigación cualitativa*. Aún hay vida en el focus group.

*Se trata de un juego de palabras. Hoguera de las vanidades, en inglés Bonfire of the Vanities, se trata de un acontecimiento que tuvo lugar el 7 de febrero de 1497, en el que los seguidores del monje Girolamo Savonarola, en contra de la ostentación y superficialidad del hombre, quemaron objetos como perfumes, espejos, libros… Más info

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Artículos | calidad | Estudios | Herramientas | Investigacion de Mercados | Recomendamos Trackback | Comentarios (5)

La investigación de mercados de la A a la Z (II)

Escrito por Lucía Brotons el 21 de febrero 2013

Leer el artículo completo

Continuamos con nuestro particular glosario sobre el sector de la investigación de mercados online. Si acabas de llegar, date una vuelta primero por nuestro anterior post: La investigación de mercados de la A a la Z (I). Y ahora, pasapalabra:

M >>> Mobile Application Test

Mobile Application Test es un servicio pensado para medir el uso del teléfono móvil tipo smartphone del panelista. Este servicio tiene puntos en común con Ad-tracking ya que en la mayoría de casos se trata de medir el uso que el panelista hace de su smartphone: Webs visitadas, aplicaciones descargadas, etc.

N >>> Nicequest

Plataforma para la gestión del panel online de Netquest que tiene como misión convertir la participación en encuestas en una experiencia más agradable, útil y, sobre todo, mejor recompensada. Nuestro propósito es que las encuestas que reciban nuestros colaboradores sean ‘nice’. Nuestro compromiso con nuestros panelistas se resume en: encuestas honestas, responsables, bien recompensadas y bien hechas… encuestas ‘nice’. +Info

O >>> Ómnibus

Un ómnibus es un método de investigación cuantitativa en el que información sobre una amplia variedad de temas, propuestos por diferentes clientes, se recoge durante la misma entrevista. Todos los clientes comparten la composición demográfica de la muestra, generalmente representativa de la población general. Los tamaños de muestra son generalmente grandes.

P >>> Panelista

Para Netquest un panelista es un tesoro. Más allá de un número, una cifra o una estadística se trata de un ser humano predispuesto a participar en estudios de opinión. +Info

Q >>> QR

Es una herramienta ideada para almacenar mucha más información que un simple código de barras, es un “código de barras bidimensional” +Info

R >>> R2online.org

Es un grupo de trabajo que pretende impulsar proyectos de investigación metodológica en el ámbito de la investigación online, integrando el conocimiento y rigor metodológico del RECSM, con la capacidad de los paneles online y la tecnología de Netquest. +Info

S >>> Survey Manager 2

Survey Manager 2 es la nueva herramienta desarrollada por Netquest que supone una revolución en el software de programación de encuestas online. Algunas de sus características son: Piping, masking, automatic validations, dynamic headers & footers, dynamic expressions, custom browser scripts, aspecto visual 100% configurable vía CSS…

T >>> Tracking

Estudios que requieren la obtención de datos de forma periódica de un mismo universo poblacional, con el fin de comparar la evolución temporal de los resultados. Cada una de estas mediciones se denomina ‘ola’ (wave).

U >>> Unique Access

Las encuestas de acceso único evitan la doble participación de los panelistas en los cuestionarios, así como garantizan la espontaneidad y naturalidad de las respuestas recolectadas (se minimizan los sesgos del respondent).

V >>> Video Survey

La ‘video encuesta’ permite alternar preguntas web clásicas con un nuevo formato de pregunta abierta, en la cuál es posible preguntar y/o registrar respuestas a través de video. Combina metodología cuantitativa y cualitativa; posibilita profundizar en aspectos cualitativos de la encuesta, como son motivaciones, intenciones, percepciones; mejora la capacidad de trasladar correctamente al encuestado qué información queremos que nos facilite; Mmejora la capacidad de captar información emocional de una respuesta abierta. En general, es una forma natural de responder para un encuestado, y sin el sesgo del entrevistador.

W >>> Website Test

Tipo de estudio ad-hoc en el que solicitamos al panelista que acceda a una página web para realizar algunas acciones (visitar la web, ver alguna sección, simular una consulta de información…) para posteriormente completar una encuesta convencional dando su opinión sobre su experienca.

X >>> X2

La prueba del chi-cuadrado es un cálculo que se utiliza para ver qué tanto se parece la distribución observada con los resultados teóricos, para determinar si un suceso es al azar o tiene alguna tendencia

Y >>> Youth

La juventud, el nuevo reto de la investigación de mercados. Los llamados millenials, son “la espina del market research”. Esa generación que ha nacido en pleno boom digital (entre 1982 y 1995) y que por su perfil heterogéneo (le dan tanta importancia al precio, como a la rapidez y la calidad) complican las cosas, y mucho, a las marcas comerciales, por lo tanto, a los investigadores.

Z >>> ?

¿Se te ocurre a ti alguna palabra, que tenga que ver con el sector de la investigación de mercados, y empiece por Z?

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Artículos | Encuestas Online | Herramientas | internet | Investigacion de Mercados | moviles | netquest | Panel | Paneles Online | redes sociales | Representatividad | Software Trackback | Comentarios (3)

¿Qué puede aportar un código QR a la investigación de mercados?

Escrito por Ruth Alonso el 25 de enero 2013

Leer el artículo completo

El código QR, del inglés Quick Response Code, proporciona en primera instancia rapidez de lectura. Se trata de una herramienta ideada para almacenar mucha más información que un simple código de barras, de hecho es un “código de barras bidimensional”. Estos códigos dan imagen de modernidad, aunque realmente ¡hace casi dos décadas que existen! Fueron creados en 1994 por la compañía japonesa Denso Wave, subsidiaria de Toyota. Sus creadores directos, Joaco Retes y Euge Damm, supieron posicionarlo en Japón y es allí donde el código QR ha obtenido más popularidad.

En un principio se usaron en la manufacturación de vehículos para trackear las partes del coche durante el proceso. Años más tarde su uso se extendió a Korea y los Países Bajos, para acabar en 2002 innovando una tecnología que utilizaba las cámaras de los teléfonos móviles. A partir de este punto se popularizó en todo el mundo.

Pero, ¿cómo pueden convertirse los códigos QR en una herramienta útil para la investigación de mercados?

Los códigos QR se “capturan” físicamente en el exterior: la calle, los centros comerciales, los hospitales, los supermercados… por lo que pueden ser una magnífica fuente de información.

1. Los usuarios de Smartphone que capturan códigos QR presentan un interés por el producto o servicio que les ha sido expuesto, de esta manera detectamos el target. El target, a su vez, puede ser un cliente o bien un cliente potencial. Y este target es importante para la estrategia de marketing, lo que a su vez significa que es importante en la investigación de mercados.

2. Un uso muy extensible que están teniendo los QR, está en las encuestas de satisfacción. Las respuestas a estos cuestionario serán de mucha calidad, ya que se obtienen en el lugar y el momento exacto que ha tenido la acción en concreto, la cual puede ser: a la salida de un centro comercial, después de cenar en un restaurante, momento de espera en la caja del super, finalización de la jornada en un parque temático, sala de espera de un hospital… A la vez, se puede aprovechar para ofrecer al usuario una incentivación como puede ser un descuento en su próxima compra o un vale 2×1 para subir a una atracción.

3. También podemos encontrar códigos QR en el packaging de ciertos productos lo que aporta una valiosa información, ya que sabremos que esas personas que capturen el código han comprado y consumido el producto en concreto.

En todas estas situaciones existe un punto en común: la GEOLOCALIZACIÓN. Esto nos permite saber dónde está físicamente el target y, a partir de ahí, extraer conclusiones más ampliables. Así pues vemos que gracias a estos códigos se puede mantener con el cliente distintos tipos de relaciones, algunas especialmente provechosas para la investigación de mercados.

No obstante, aunque esto esté más relacionado con el marketing de la marca, debemos tener en cuenta que detrás de cada código tiene que haber una estrategia y unas herramientas para medir su eficacia. Y parece ser, que el 68,8% de las empresas que hacen uso de códigos, QR no las tienen, según un estudio de la empresa española Selenus.

Los cógidos QR dan imagen de modernidad pero apenas se usan”, según 20minutos.es. Más de uno está de acuerdo con esta afirmación, además ya se ha hablado de “La muerte del cógido QR”… Sin embargo hay una buena noticia, en 2011 España se situaba en el tercer país que más códigos QR escaneaba, por detrás de Estados Unidos y Canadá.

Más allá del país, el sector que más se comunica a través de esta tecnología es el sector de la alimentación y las bebidas seguido, muy de lejos, por el sector de la salud y la belleza y el sector cultural (libros y DVD’s).

En conclusión, aunque algunos digan que el código QR se está acercando cada vez a una muerte lenta, desde Netquest creemos que la investigación de mercados aún no ha sacado todo el partido que ofrecen.

Aquí os dejamos 3 ejemplos de éxito de códigos QR:

http://www.merca20.com/3-ejemplos-de-exito-de-codigos-qr/1/

http://www.merca20.com/3-ejemplos-de-exito-de-codigos-qr/2/

http://www.merca20.com/3-ejemplos-de-exito-de-codigos-qr/3/

¿Qué más posibilidades crees que presentan estos códigos? ¿Conoces algún caso que se hayan usado como método dentro de un estudio de investigación de mercados?

Fuentes consultadas:

http://canalsondeo.com/blog/2012/12/12/codigos-qr-feedback-a-tiempo-real/

http://ticsyformacion.com/2012/10/25/todo-sobre-los-codigos-qr-infografia-infographic-marketing/

http://enroquedeciencia.blogspot.com.es/2012/05/el-cuadradito-rarito-ii.html

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Artículos | españa | Estudios | Geomarketing | Herramientas | internet | Investigacion de Mercados | netquest | Representatividad | Usabilidad Trackback | Comentarios (5)