Actualidad de la investigación de mercados online

¿Somos racionales?

Escrito por Carlos Ochoa el 13 de abril 2015

Leer el artículo completo

A menudo, cuando llevamos a cabo proyectos de investigación, partimos de una hipótesis fundamental: que el participante en el estudio actúa de forma completamente racional. Si no fuese así, ¿cómo podríamos interpretar sus respuestas? Por ejemplo, esperamos que un participante en una encuesta elija el producto más barato en igualdad del resto de características, que sea capaz de decirnos el precio máximo que está dispuesto a pagar por un servicio o que nos diga con precisión qué actividad entre las 5 que le presentamos le reporta más satisfacción en su tiempo libre.

Pero, ¿hasta qué punto somos racionales? ¿Podemos dar por hecho que los participantes en nuestras encuestas van a responder a las preguntas anteriores bajo una hipótesis de perfecta racionalidad? Depende de varios factores, tanto de la propia persona como de la forma en que le hagamos la pregunta.

 

mente-racional

(más…)

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Preguntas y respuestas | sesgo | Sin categoría Trackback | No hay comentarios

El caso Kodak, mucho que aprender

Escrito por Carlos Ochoa el 5 de enero 2015

Leer el artículo completo

Las empresas forman un ecosistema en el que el darwinismo aplica toda su crudeza. Algunas de ellas evolucionan, se adaptan con éxito a los cambios de su entorno y perduran. El resto, desaparecen. Jim Collins tiene un excelente libro, Built to Last, sobre qué factores determinan la durabilidad de las empresas.

Siempre me ha resultado difícil entender cómo empresas que parecían prácticamente indestructubles, líderes indiscutibles en sus sectores, acaban siendo una sombra de lo que fueron o incluso desapareciendo.

Mi interés en estos casos es doble. Por un parte, Netquest forma parte de la industria de investigación de mercados, una industria dedicada a orientar a las empresas para que tomen sabias decisiones que les ayuden a perdurar. Y del mismo modo que como sector nos atribuímos méritos en las buenas decisiones empresariales de las cuales participamos, también debemos cargar con parte de la culpa en estas célebres fallidas empresariales.

Por otra parte, me interesan estos casos en relación a Netquest como empresa. Netquest se enfrenta en los próximos años a buenas oportunidades y a grandes retos, a entornos altamente inestables, similares a los que han enfrentado algunas de las empresas trístemente célebres por su falta de capacidad de adaptación. Éxitos presentes no garantizan éxitos futuros. Tal vez entender porqué estas grandes corporaciones no pudieron sobreponerse a las dificultades pueda ayudarnos a evitar sus errores (y tal vez a cometer otros diferentes, claro).

Muchos son los casos de empresas que parecían indestructibles y que han acabado ocupando una posición secundaria en sus mercados, absorbidas por sus competidores o desaparecidas: Nokia, Olivetti, PanAm, Blockbuster, Arthur Andersen, Compaq, Rover,… Entre todas ellas, el caso de Kodak me parece fascinante.

kodak-crisis

Kodak, 130 años de historia

La Eastman Kodak Company, popularmente conocida como Kodak, fue fundada en 1888. Su éxito inicial se debió a la introducción del carrete de papel en el mercado, reemplazando las placas de cristal que se empleaban hasta entonces, así como al lanzamiento de las primeras cámaras que empleaban carretes circulares. Su lema en aquella época describe bastante bien su propuesta de valor: “Usted aprieta el botón, nosotros hacemos el resto”.

Desde su aparición, Kodak lideró el desarrollo comercial de la fotografía. Gracias a innovaciones tecnológicas que gozaron de ciclos de vida extensos, Kodak disfrutó durante 130 años de una posición envidable en el mercado. Un líder con todas las de la ley, casi un monopolio (70% de cuota de mercado en los años 90) que le permitió emplear una estrategia orientada a la alta rentabilidad. Kodak llegó a ocupar la posición nº18 en la lista Forbes de mayores empresas norteamericanas.

Esta situación cambió con la llegada del siglo XXI. Para entender la dimensión del desastre, basta decir que la acción de Kodak en el año 2004 cotizaba a 30$ y que en 2012 se desplomó hasta los 27 centavos.

¿Qué factores explican esta debacle? ¿Cómo una empresa líder durante 130 años puede desmoronarse como un castillo de naipes en unos pocos años? He aquí algunas explicaciones, extraídas de los múltiples estudios de este caso que se han realizado hasta la fecha (por ejemplo, el de Eduardo Esteva o el de Camilo Matiz).

Una lectura limitada de su misión

La misión de Kodak era y es “proveer a sus consumidores con las soluciones necesarias para capturar, almacenar, procesar, generar y comunicar imágenes donde sea y cuando sea”. Resulta sorprendente: una misión así debería haber impulsado a Kodak a sumarse, cuando no a liderar, el desarrollo de la fotografía digital.

Sin embargo, Kodak actuó en primera instancia de forma excesivamente conservadora ante la irrupción de las nuevas tecnológicas. Y cuando las cosas se complicaron, en lugar de inspirarse en su misión para reaccionar, buscaron refugio en subsectores en los que seguir rentabilizando su antiguo know-how (imagen médica, impresión rápida, impresión de libros bajo demanda…) en lugar de afrontar las dificultades y ser fieles a si mismos.

kodak-caso

Orientación a la rentabilidad, no al cliente

¿Sabían que en 1996 Kodak ya contaba con un modelo de cámara fotográfica digital? Sin embargo, la dirección de Kodak cuestionaba que la fotografía digital pudiese reemplazar a la fotografía tradicional.

Éste es un error recurrente en las grandes fallidas empresariales: la resistencia al cambio y la argumentación sesgada de directivos que lleva a las empresas a rechazar la realidad que se avecina. La historia está plagada de frases lapidarias que muestran la incapacidad de una gran mayoría de empresarios de dimensionar correctamente la magnitud de un cambio social: “el cine con sonido es una moda pasajera”, “la gente no necesita ir todo el día con un teléfono en el bolsillo”, “los coches eléctricos no tienen futuro”,…

Kodak tuvo la oportunidad de liderar la revolución digital en los 90, pero optó por seguir exprimiendo la vaca lechera de la fotografía tradicional. El negocio de los carretes y el revelado era altamente rentable, mientras que la fotografía digital implicaba un concepto “do it yourself” que requería pensar en nuevos modelos de negocio. Sin embargo, ¿acaso el hecho de que el nuevo mundo digital no fuese tan rentable justificaba la decisión de aferrarse al negocio de siempre? La respuesta es NO. Si Kodak no daba el salto, otros lo iban a dar. Y siempre es mejor pasar de un negocio grande a uno mediano, que quedarse con un negocio inexistente.

Empresas como Canon, Nikon o Sony dieron ese salto. Tenían poco a perder y su estrategia fue mucho más atrevida. Cuando Kodak quiso reaccionar, no era nadie en el mundo de la fotografía digital.

Infravalorar a los competidores

He visto este fenómeno numerosas veces en mi vida. Siempre que hablo con personas empleadas en empresas líderes de su sector (ya sea banca, telecomunicaciones, seguros, búsquedas en internet…) percibo cierto complejo de superioridad. Es un fenómeno curioso, en cierto modo comprensible. Las empresas “ganadoras” generan una fuerte cultura empresarial que impregna a todos sus colaboradores y que, en el fondo, puede hacer la empresa más débil.

Kodak subestimó a sus competidores. O sobrestimaron el poder de su marca, pensando que podrían sumarse a la carrera digital en cualquier momento y gozar de  ventaja sobre sus competidores por el simple hecho de ser Kodak. Se equivocaron, el consumidor aprendió pronto quiénes eran los referente en la era digital, y Kodak no estaba entre ellos.

Lecciones aprendidas

Los errores de Kodak se han estudiado en escuelas de negocio, se conocen sobradamente. Y aún así, se volverán a producir. Hoy en día nos cuesta pensar en un futuro sin Google, Apple, Facebook, Microsoft, SAP o Zara. Pero un cambio tecnológico o social repentino, y una reacción inadecuada, pueden acabar con cualquiera de las empresas indestructibles antes mencionadas. No tengo la menor duda.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Artículos | Investigacion de Mercados | Sin categoría Trackback | No hay comentarios

Bayesianos contra frecuentistas

Escrito por Carlos Ochoa el 17 de noviembre 2014

Leer el artículo completo

El edificio de la estadística descansa en el concepto de probabilidad. Y, sin embargo, no existe un consenso universal sobre cómo interpretar este concepto.

Existen dos formas de interpretar la idea de probabilidad: la interpretación clásica (o frecuentista) y la interpretación bayesiana. Mark C. Chu-Carroll nos da una buena explicación al respecto en su blog, que trataré de resumir aquí.

La interpretación clásica, mayoritaria por lo menos hasta ahora, define la probabilidad en términos de experimentación. Si repites un experimento un número infinito de veces y compruebas que en 350 de cada 1.000 ocasiones se ha producido  un determinado resultado, un frecuentista diría que la probabilidad de ese resultado es del 35%. Basándose en esta definición, un frecuentista afirma que es posible asociar a cada evento una probabilidad de obtener un valor VERDADERO del mismo.

La aproximación clásica se basa por lo tanto en estudiar la probabilidad “real” de las cosas, tratando de determinar hasta qué punto una medición realizada sobre un conjunto de experimentos se aproxima a la probabilidad real que subyace. Es por ello que un frecuentista definiría probabilidad como una expresión matemática que predice en qué medida es verosímil que ciertos eventos ocurran basándose en el patrón observado hasta este momento.

Sir Ronald Fisher

Ronald Fisher. uno de los padres de la estadística frecuentista moderna

Por el contrario, la interpretación bayesiana se basa en un conocimiento limitado de las cosas. Afirma que sólo asocias una probabilidad a un evento porque hay incertidumbre sobre el mismo, es decir, porque no conoces todos los hechos. En realidad, un evento dado, o bien ocurrirá (probabilidad=100%) o bien no ocurrirá (probabilidad=0%). Cualquier otra cosa es una aproximación que hacemos del problema a partir de nuestro conocimiento incompleto del mismo. El enfoque bayesiano se basa por lo tanto en la idea de refinar predicciones a partir de nuevas evidencias. Un bayesiano definiría probabilidad como la expresión matemática que mide el nivel de conocimiento que tenemos para hacer una predicción. Por lo tanto, para un bayesiano, estríctamente hablando es incorrecto decir “predigo que hay un 30% de probabilidades de que ocurra el evento P”, sino que debería decir “basándome en el conocimiento actual que tengo, tengo un 30% de certeza de que P ocurrirá”.

bayes

Thomas Bayes. creador del concepto de probabilidad condicionada que rige el pensamiento bayesiano.

¿Importa tanto la diferencia?

La dos formas de entender una probabilidad son más relevantes de lo que pudiera parecer. Es muy diferente pensar en la probabilidad como el número de veces en que un experimento arrojará un resultado, a concebirla como el grado de conocimiento que tengo sobre dicho resultado. En varios problemas, ambos enfoques pueden ser equivalentes. En otros, no tanto.

La aproximación bayesiana hace que algunas cosas sean más claras. Emplear una visión clásica lleva a muchas personas a confundir el significado de las estadísticas. Por ejemplo, si un estudio muestra que de cada 100 fumadores 10 van a desarrollar cáncer de pulmón, una interpretación clásica del dato puede llevarnos  pensar que si fumo, tengo un 10% de probabilidad de enfermar. Y esto no es cierto. Lo que realmente nos dice el estudio es que el dato (10 de cada 100 fumadores desarrollan cáncer) puede considerarse como un buen punto de partida para hacer una predicción sobre las opciones de desarrollar cáncer si fumo, pero un bayesiano dejaría muy claro que se trata de un conocimiento muy incompleto, y que por lo tanto no es de mucha utilidad a no ser que disponga de más información para incrementar mi certeza.

Como contrapartida, el razonamiento bayesiano puede llevarnos al absurdo. Un bayesiano cree que puedes hacer un análisis probabilístico prácticamente de cualquier cosa, simplemente alineando los factores que pueden influir en ella y combinando  adecuadamente tu conocimiento sobre esos factores. Esta idea ha sido empleada frecuentemente por auténticos obsesos del pensamiento bayesiano para asignar una probabilidad a la existencia de Dios, a que la tierra haya sido visitada por alienígenas, a que los artistas hayan incluído mensajes secretos en sus pinturas, etc.

Los frecuentistas no son víctimas de este problema. Un frecuentista considera que las probabilidades sólo tienen sentido en el ámbito de experimentos repetibles. Bajo este punto de visto, es absurdo asignar una probabilidad a la existencia de Dios, porque la existencia de un creador del universo no es un problema que podamos repetir y observar numerosas veces.

Los frecuentistas no creen que sea posible asignar una probabilidad a absolutamente cualquier cosa, algo que a menudo es ridículo.

Y entonces, ¿quién tiene razón?

Probablemente ambos tienen razón. O ambos están equivocados. Hay escenarios en los que la idea de una probabilidad fija basada en un modelo repetible y observable, en un experimento controlado, es demasiado simple. Y otros casos en que la idea de una probabilidad que mide el grado de conocimiento de una cosa es igualmente simplista.

Como en tantas otras cosas de la ciencia – y de la vida – no existe un enfoque universalmente válido. La visión frecuentista ha aportado un rigor y un sistema de trabajo a muchos ámbitos de la estadística, empezando por el cálculo del error muestral. La visión bayesiana, por el contrario, ha mostrado ser una buena herramienta para hacer predicciones sobre sucesos complejos, tomando datos de múltiples fuentes de forma simultánea. También es la base de uno de los algoritmos más exitosos en el análisis de utilidad de estudios tipo Conjoint.

En cualquier caso, la polarización de las ideas no suele ser una buena consejera para tomar buenas decisiones. Y en el momento de emplear un enfoque frecuentista o bayesiano de un problema, no deberíamos olvidar esta máxima.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Sin categoría | Comentarios desactivados

¿Por qué cotilleamos?

Escrito por Oriol Llauradó el 14 de noviembre 2014

Leer el artículo completo

A todos nos gusta cotillear, reconozcámoslo. Hablar sobre otras personas (en su ausencia) es más bien fácil, nos cuesta poco, e incluso puede ser divertido.

La universalidad del fenómeno ha llamado la atención de los antropólogos y les ha llevado a preguntarse de dónde surge esta pasión ancestral. Parece ser que el cotilleo ha sido durante miles de años una conducta adaptativa: los individuos que identificaban y seleccionaban a su pareja sin necesidad de entrar en conflicto con los demás, obtenían una ventaja competitiva notable. Los individuos mejor informados tenían una mayor probabilidad de alcanzar el éxito reproductivo.

Desde hace siglos, el cotilleo ha sido una preciosa fuente de información y coordinación social. Hay antropólogos que consideran el fenómeno tan importante que piensan que nuestros antepasados ampliaron su léxico precisamente para poder chismorrear.

1397378849566

Por otro lado, cotillear nos proporciona un cierto estatus: nos hace sentir poseedores de un conocimiento especial y realza nuestro ego ante el grupo.

Aunque el cotilleo sea bienintencionado y tenga sus beneficios, no nos olvidemos de que puede destruir reputaciones y convertir en víctimas a inocentes, especialmente si es anónimo y masivo, como puede suceder en las redes sociales.

De hecho, hay una muy buena razón para hablar bien de los demás, y es la llamada: “transferencia espontánea de rasgos“. Este fenómeno consiste en que la gente te atribuirá los rasgos con los que tú calificas a los demás. Es decir, si insistes llamando “inmorales” a tus compañeros de trabajo, todo el mundo acabará asociándote con la falta de ética. O como sabían las abuelas: si no puedes decir una cosa buena de alguien, es mejor no decir nada.

Por cierto, pese a la imagen que ilustra esta entrada, no hay ningún estudio que demuestre que las mujeres cotillean más que los hombres.

Para ampliar información:

http://blogs.elpais.com/verne/2014/11/por-que-nos-gusta-cotillear.html

http://www.newscientist.com/article/mg21128225.700-read-all-about-it-why-we-have-an-appetite-for-gossip.html

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Sin categoría Trackback | No hay comentarios

Lo que nos deja el referéndum en Escocia

Escrito por Oriol Llauradó el 4 de noviembre 2014

Leer el artículo completo

TNS ha dado a conocer los resultados de una encuesta realizada en Escocia tras el referéndum del 18 de septiembre sobre la independencia.

La principal conclusión es que la celebración del referéndum parece haber aumentado las ganas de participar de los ciudadanos. Un tercio de los encuestados declaró sentirse más propenso a participar en futuras elecciones tras la votación. Los menores de 35 años son el grupo cuya probabilidad de participar ha aumentado más. Y la involucración se extiende más allá del hecho de votar: un 32% declaró estar más abierto que en el pasado a participar en futuros debates sobre cuestiones de interés público.

Referéndum Escocia

Las actividades previas a la celebración del referéndum nos recuerdan la importancia que todavía tienen los canales tradicionales: el 62% de los encuestados declaró haber hablado sobre el referéndum con amigos o familiares, y el 60%  había visto al menos un debate televisado. En cambio, solo un 11% dijo haber participado en una discusión a través de Internet.

Cabe destacar que la forma en la que se ha desarrollado el proceso ha sido ejemplar:

No sabemos si esta inercia se mantendrá pero, a día de hoy, una de las lecciones que nos ha dejado el referéndum en Escocia es que la creación de espacios de diálogo descentralizados y abiertos reduce la desafección política. Tal y como prescribe el informe Citizens as partners de la OCDE, en el futuro más inmediato, el éxito de la Administración dependerá de su capacidad para escuchar y trabajar conjuntamente con los ciudadanos para lograr un mayor bienestar. Estrechar la relación con los ciudadanos parece una buena inversión para revitalizar la confianza de éstos en la Administración.

Leer más:

Referendum effect set to increase political activity

Los paneles ciudadanos, una nueva metodología de investigación

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Encuestas Online | Estudios | Noticias | Sin categoría Trackback | No hay comentarios

En busca de la pregunta perfecta

Escrito por Carlos Ochoa el 3 de noviembre 2014

Leer el artículo completo

Trabajar en una empresa de paneles online puede atrofiar tu sensibilidad como respondiente. Por eso mantengo la disciplina de participar regularmente en encuestas. Aunque mis respuestas no sean válidas para un estudio, me lo tomo muy en serio; trato de responder con toda sinceridad, pensando qué quiere saber de mí el investigador que está detrás de la escena. También hago encuestas online a personas cercanas, a mi propia familia. Lo recomiendo, no se puede trabajar en esta industria sin ver a una persona de 72 años completando un cuestionario online.

 

preguntas perfectas

 

Todas estas participaciones me han llevado a ver preguntas realmente malas. Para mí, una pregunta mala cumple dos condiciones: (1) es imposible responderla con sinceridad, incitando al encuestado a inventarse una respuesta y (2) no genera información útil alguna para el investigador. Vamos, lo que sería una jugada maestra. Pondría en esta categoría muchas de esas preguntas de tipo “¿te sientes identificado con esta marca de cordones de zapatos?” o “¿piensas que esta marca de anticongelante es para gente como tú?”. Cuando respondo estas preguntas me siento inútil, incapaz de encontrar la forma correcta de responder. Cuando hago estas preguntas a otros, directamente siento vergüenza.

El síndrome Grand

Pero erigirse juez de preguntas ajenas es muy cómodo. Si este tipo de preguntas llegan a los cuestionarios, será que no es sencillo hacer buenas preguntas. Así que me propuse buscar la pregunta perfecta.

Mi pregunta perfecta debería ser clara y contundente. Atrayente para el respondiente, capaz de capturar ese dato anhelado por el investigador. De ligera lectura, pero honda profundidad. Objetiva como un número, precisa como un cirujano.

Buscar la perfección tiene un peligro. No querría caer en el síndrome Grand. Joseph Grand es un personaje de “La Peste”, de Albert Camus, que trata de escribir una novela. Pero no una novela cualquiera; una novela perfecta de principio a fin que, según sus propias palabras, debía hacer que los editores al leerla, se levantasen y exclamasen al unísono “señores, hay que quitarse el sombrero”.

Joseph Grand se obsesionó tanto en la perfección que no era capaz de pasar de la primera frase. La reescribía una y otra vez. Camus describe así esta parálisis creativa:

“Noches, semanas enteras sobre una palabra…, a veces una simple conjunción. (…) Compréndame bien, doctor. En rigor, es fácil escoger entre el mas y el pero. Ya es más difícil optar entre el mas y el y. La dificultad aumenta con el pues y el porque. Pero seguramente lo más difícil que existe es emplear bien el cuyo”.

¿Medir la calidad de una pregunta?

Así que empecé a recopilar ingredientes para una pregunta perfecta, pero con sentido práctico. En primer lugar, identifiqué las recomendaciones de toda la vida, que no por conocidas son menos importantes. Las preguntas deben ser concisas, redactadas empleando el lenguaje del encuestado, con estructuras gramaticales simples. Deben ser objetivas, evitar la doble negación así como cualquier elemento que dé lugar a dobles interpretaciones. Son reglas obvias, pero no siempre son fáciles de aplicar: ¿qué es un lenguaje sencillo?, ¿puedo medir de alguna forma la bondad de mi pregunta?.

Así que buscando la pregunta perfecta, descubrí que no estaba solo. Un grupo de investigadores del RECSM (colaboradores del R2online) llevan tiempo en ello. Bueno, en realidad han dado un paso atrás para resolver un problema más fundamental: ¿es posible medir la calidad de una pregunta?

La respuesta es sí. Para ello, han tenido que definir qué es la calidad de una pregunta. Es el producto de su validez y su fiabilidad.

Una pregunta es válida si la respuesta que obtiene se parece mucho a lo que buscamos, o por lo menos no tiene tendencia a desviarse siempre en la misma dirección. Y es fiable si cada vez que usamos la pregunta, da el mismo resultado. Para entendernos: un tirador con arco es fiable si siempre que dispara impacta en el mismo sitio, aunque no sea el centro de la diana. Y es válido si al disparar siempre se acerca al centro de la diana, aunque impacte en diferentes posiciones. Un tirador de calidad hace las dos cosas a la vez: es válido y fiable.

 

Validez y fiabilidad, calidad en las encuestas

 

El RECSM emplea métodos que permiten medir fiabilidad y validez, y por tanto calidad. La fiabilidad se mide repitiendo una pregunta a los mismos respondientes. La validez, comparando una pregunta con otras con las que debería correlacionar.

Perfectas no, pero de alta calidad

En su investigación, el RECSM recopila información de múltiples formatos de pregunta y miden cómo afectan a la calidad diferentes características de las mismas: el tema de la pregunta, el tipo de escala de respuesta, el número de alternativas… A partir de la información recopilada ponen a disposición de la comunidad científica un programa, el SQP, que predice la calidad de una pregunta.

Tal vez ellos podrían ayudarme a encontrar mi pregunta perfecta. Su respuesta, muy científica, fue que no existía tal pregunta, pero sí me podían dar unas pautas de qué cosas debería tener una buena pregunta:

  1. Si busca capturar opiniones (no datos), probablemente debería ser sobre temas laborales o sobre política.
  2. Emplearía una escala específica sobre el tema, no una escala general de tipo “acuerdo – desacuerdo”.
  3. La escala tendría 11 puntos (por ejemplo, de 0 a 10).
  4. No estaría dentro de una matriz o batería de preguntas.
  5. Tendría dos puntos de referencia fijos en los 2 extremos de la escala, más un tercer punto neutral (es decir, los valores numéricos se acompañarían de una descripción de su significado en esos 3 puntos).

Seguramente mi soñada pregunta debería tener alguno de estos elementos. La calidad de una pregunta es un concepto objetivo, que puede ser medido estadísticamente, en contra de lo que pudiera pensarse. Atendiendo a las recomendaciones de los expertos en metodología de encuestas y aplicando buenas dosis de sentido común, podemos estar más cerca de una pregunta perfecta. Mientras no lo logremos, evitemos las que sabemos de antemano que distan mucho de serlo.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: calidad | Herramientas | R2Online | Sin categoría Trackback | Comentarios (4)

Predecir lo impredecible

Escrito por Carlos Ochoa el 24 de octubre 2014

Leer el artículo completo

El ser humano ha hecho grandes progresos en su capacidad de predicción. Escribo dos simples letras en Google, “eb”, y recibo sugerencias sobre el brote del “ébola” en el mundo, justo lo que quería encontrar. Estos progresos nos hacen sobrestimar nuestra capacidad predictiva. Sin embargo, Nate Silver en su libro sobre predicciones, documenta más fracasos que éxitos predictivos. Y la mayor parte de los fracasos vienen por un exceso de confianza en nuestra capacidad predictiva.

 

bola

 

¿Todo es predecible?

Responder a esta pregunta nos lleva a antiguos debates. San Agustín y los calvinistas creían en la predestinación, lo que nos llevaría a pensar que es posible predecir cualquier cosa aunque no alterar el curso de los acontecimientos. Por el contrario, los jesuitas y Santo Tomás de Aquino creían en la libre voluntad del hombre y por lo tanto en la impredecibilidad.

Con la llegada de la ilustración y la revolución industrial, el debate pasó a moverse en otros términos. Las leyes de la mecánica descubiertas por Newton hablaban de un universo ordenado y perfectamente predecible, gobernado por unas leyes relativamente simples. El ser humano empezó a creer en algo llamado determinismo, sutilmente diferente a la predestinación.

La idea del determinismo queda ilustrada en un principio elaborado por Pierre-Simon Laplace en 1814, conocido popularmente como el demonio de Laplace. Laplace venía a decir que una inteligencia superior que pudiese conocer la posición actual de todas las partículas del universo y que conociese todas las leyes que rigen el mismo, podría predecir perfectamente el futuro. Para esta inteligencia, el futuro sería algo tan evidente como el pasado. Por lo tanto, si el hombre no puede predecir su futuro es por falta de esa inteligencia superior.

 

laplace

La idea del demonio del Laplace ha sido objeto de controversia. Algunos pensadores concluyeron que, en la práctica, el universo sólo se puede conocer hasta cierto punto, lo que nos obliga a hablar de probabilidades. Más recientemente, el descubrimiento de la mecánica cuántica nos ha llevado a pensar que el universo realmente funciona de forma probabilista. Cuando miramos una partícula de cerca, se comporta como una onda y no podemos saber su posición y su movimiento al mismo tiempo. Parece ser que ni siquiera una inteligencia superior puede predecir el curso de las cosas.

 

¡Pero si apenas predecimos el tiempo!

Bien, aceptemos que no podemos predecir todo, que el universo es intrínsecamente incierto por la forma en que se comportan las partículas. Afortunadamente, la meteorología funciona a nivel de moléculas, lo que nos evita estos problemas cuánticos. Si pudiésemos conocer las condiciones de la atmósfera con detalle (presión, temperatura… en cada posición del espacio) y las leyes que rigen los gases, podríamos predecir qué tiempo hará en el futuro.

Durante varias décadas numerosos científicos han tratado de hacer predicciones meteorológicas basadas en esta idea. Se trata de crear un modelo de la atmósfera, introducir la información de la situación actual de la misma  y simular cómo va a evolucionar con el paso del tiempo. Esta forma de predecir contrasta con métodos basados puramente en la estadística, principalmente dos:

(1) Persistencia: predecir el tiempo que hará mañana basándonos en el tiempo de hoy.

(2) Climatología: predecir el tiempo basándonos en qué época del año estamos. Si es invierno, la probabilidad de frío es más alta.

Sorprendentemente, sólo en las últimas décadas las previsiones meteorológicas han mejorado las predicciones basadas en persistencia o climatología. Pese a que cada vez disponemos de datos más precisos y mayor capacidad de cálculo para simular la atmósfera, la precisión de las previsiones ha mejorado muy lentamente. En 1970, una previsión de temperatura tenía un error promedio de 6º, en la actualidad de 3,5º. Un enorme esfuerzo para tan poco resultado. ¿Por qué?

 

El efecto mariposa

La respuesta la descubrió Edward Lorentz en 1972. Trabajando en un modelo meteorológico, Lorentz se percató de que una pequeña imprecisión en un dato sobre las condiciones iniciales de la atmósfera podía generar una predicción climática completamente diferente a varios días vista. Una décima de grado de temperatura puede transformar completamente la predicción. Este efecto, explicado a menudo con la frase “un aleteo de las alas de una mariposa en Brasil puede producir un tornado en Texas”, se conoce como teoría del caos o efecto mariposa. Se produce en sistemas no lineales y dinámicos, en los que el resultado de una predicción se usa para generar otra, y otra, y otra….

Los modelos meteorológicos tienen ambas propiedades. Por eso son tan malos haciendo predicciones a largo plazo. Las pequeñas imperfecciones de los datos se transforman en predicciones grotescas cuando las llevamos demasiado lejos en el tiempo. Nat Silver nos facilita un ejemplo muy interesante de este efecto. Silver comparó la precisión de una previsión sobre temperatura hecha con 3 sistemas: (1) un modelo meteorológico sofisticado, (2) una predicción basada en persistencia y (3) otra basada en la climatología. Los resultados muestran que las predicciones de los modelos meteorológicos son mejores que las basadas en persistencia o climatología, pero sólo a 6 días vista. Cuando tratamos de predecir más allá, acertaremos más basándonos en la climatología.

El resultado es sorprendente. No estamos diciendo que la predicción será igual, decimos que será peor. La explicación es que en un modelo dinámico, a medida que me alejo de la situación de inicio, el ruido de los datos se va amplificando cada vez más. El efecto mariposa es devastador.

 

Y pese a todo, un éxito

Pese a todas estas consideraciones, la meteorología es una de las pocas disciplinas que han tenido éxito predictivo. El huracán Katrina de 2005 fue predicho con antelación, permitiendo acotar la zona geográfica en la que impactaría con una precisión de 160 km. Tan sólo 20 años antes, la precisión habría sido de 560 km.

Es posible evacuar una región de 160km en 72 horas y salvar muchas vidas. Si el Katrina mató a 1.800 personas no fue por una mala predicción, fue por malas decisiones en la gestión de la crisis y por la resistencia de la gente a moverse de sus casas. Curiosamente, uno de los factores que jugó en contra fue el huracán que golpeó la misma región en 1965, el Betsy. Estudios realizados indican que haber sobrevivido a un huracán te hace más reacio a abandonar tu casa en el siguiente y reduce tu probabilidad de sobrevivir.

 

katrina

Estamos tan acostumbrado a que los hombres del tiempo acierten, que nos fijamos más en sus errores que en sus aciertos. Pero es indudable que realizan un gran trabajo y han desarrollado un nivel de profesionalidad muy elevado. Sus predicciones gozan de un nivel de honestidad envidiable. Acompañan sus previsiones con una indicación de qué fiabilidad tienen (“70% de probabilidad de lluvia”), algo que no observamos en predicciones del ámbito económico, por ejemplo.

En próximos posts veremos otros terrenos en los que el hombre sigue sin encontrar las claves de una buena predicción.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: Artículos | Predicciones | Sin categoría Trackback | No hay comentarios

Zorros y erizos, buenos y malos predictores

Escrito por Carlos Ochoa el 13 de octubre 2014

Leer el artículo completo

Uno de los capítulos más interesantes de La señal y el ruido, de Nate Silver, está dedicado a la cuestión de si algunas personas predicen mejor que otras.

zorroyerizo

Silver emplea las predicciones políticas como terreno de juego de su análisis. En concreto, se fija en un programa televisivo de Estados Unidos, The McLaughlin Group. Este programa reúne semanalmente un panel de expertos políticos que debaten sobre diferentes cuestiones y que finalizan su intervención con varias predicciones sobre la actualidad política. Las predicciones deben formularse en pocos segundos. Son tanto sobre temas sugeridos por el presentador como propuestos por el propio experto.

Durante el programa los expertos suelen manifestar predicciones con tanta rotundidad como poca base documental y estadística. Algunos de ellos no dudan en predecir una victoria de un candidato a la presidencia que cuenta con todas las encuestas en contra, dando a entender que manejan algún tipo de información privilegiada al respecto.

Así que Silver decidió analizar las 1.000 últimas predicciones del panel de expertos, para medir de forma objetiva su capacidad de acertar. El resultado fue el siguiente:

Los datos mostraban que lo expertos apenas acertaban más que una moneda lanzada al aire. ¿Este nivel de aciertos es algo habitual entre supuestos expertos? Philip Tetlock, tras formularse la misma pregunta, decidió estudiar predicciones de expertos, tanto del mundo académico como gubernamental. Sus resultados mostraron que no es así: algunos expertos aciertan, de forma consistente, más que otros. Es decir, existen buenos y malos predictores.

El zorro y el erizo

Tetlock se dedicó a estudiar qué rasgos de personalidad caracterizaban a los buenos predictores frente a los malos. Dio con dos perfiles muy diferenciados: los zorros y los erizos.

Los erizos son aquellas personas que creen en ideas rectoras que gobiernan el mundo, convencidos de que todo puede ser explicado y comprendido. Son personas de fuertes convicciones, que buscan una victoria clara al enfrentarse a un problema. Karl Marx o Sigmund Freu encajarían en este perfil.

Los zorros, por el contrario, son personas que aceptan las imperfecciones del mundo, que creen en una multitud de pequeñas ideas y que piensan que la mejor forma de afrontar un problema es emplear diversas aproximaciones. Son más tolerantes a la incertidumbre, a la complejidad y a la discrepancia de opiniones.

Silver nos facilita una tabla de actitudes típicas de zorros y erizos. ¿Sabrías decir en qué lado estás tú?

 

Cómo piensan los zorros Cómo piensan los erizos
De forma multicisciplinaria: Incorporan ideas de diferentes disciplinas, sin importarle su origen ideológico. Especializada: Habitualmente dedican la mayor parte de sus carreras a uno o dos grandes problemas. Pueden ver con escepticismo las opiniones disruptivas.
Adaptables: Encuentran una nueva aproximación – o persiguen múltiples aproximaciones a la vez – si no están seguros de que la aproximación original funciona. Leales: Se mantienen fieles a la misma aproximación integral al problema. La nueva información que pueda estar disponible se usa para refinar el modelo original.
Autocríticos: A menudo reconocen errores en sus predicciones y asumen su culpa en esos errores. Obstinados: Achacan los errores a la mala suerte o a circunstancias inevitables. Un buen modelo tuvo un mal día.
Tolerantes a la complejidad: Ven el universo como algo muy complejo, hasta el punto de aceptar que muchos problemas fundamentales pueden ser irresolubles o inherentemente impredecibles. Buscadores de un orden: Esperan que el mundo funcione de acuerdo a unas pocas y relativamente simples leyes fundamentales, obtenidas una vez se haya logrado identificar la señal dentro del ruido.
Cautos: Expresan sus predicciones de forma probabilística, matizando sus opiniones. Confiados: Rara vez expresan predicciones con matices y son reacios a modificarlas.
Empíricos: Confían más en la observación que en la teoría. Ideológicos: Esperan que las soluciones a muchos problemas diarios sean manifestaciones de una gran teoría.
Los zorros son mejores predictores Los erizos son peores predictores

 

Tetlock se percató de que los zorros son mucho mejores predictores que los erizos. Es una cuestión de actitud. Pensemos en la caída de la URSS en 1991. Muy pocos analistas políticos predijeron dicha caída cuando, mirando retrospectivamente, gran cantidad de indicios habría permitido predecirla. Muchos de esos analistas eran erizos y su aproximación al problema no fue la correcta para hacer una buena predicción. Algunos analistas, muy críticos con el comunismo, veían la URSS como un peligro mayor de lo que realmente era a finales de los 80. Su aversión al régimen de Moscú les impidió interpretar correctamente las señales, de todo tipo, que emitía un estado en destrucción. Otros, más afines a la ideología comunista, cometieron el error inverso, infravalorando la importancia de esas señales precisamente porque no querían verlas. Sólo unos pocos analistas fueron capaces de detectar y dimensionar correctamente las señales.

Actitud frente a la información

Como se deduce del ejemplo anterior, la principal carencia de un mal predictor es una mala actitud frente a la información. Supuestamente, cuanta más información tenemos, mejor deberían ser nuestras predicciones. Sin embargo, esa regla no se cumple para el erizo. Frente a información abundante, el erizo se refugia en su idea rectora y filtra convenientemente los datos que recibe, quedándose con aquellos que refuerzan su predisposición inicial.

Esta actitud explica porqué Silver y Tetlock encontraron grandes fallos en las predicciones políticas. En política, es habitual encontrar predictores sesgados, vinculados a una fuerte ideología. Eso condiciona irremediablemente las predicciones. Si a eso sumamos un esquema de incentivos perverso – una predicción más temeraria es televisivamente más atractiva – nos encontramos con un ámbito especialmente castigado por malas predicciones.

Algo parecido sucede con el economía. Pero eso lo veremos en otro post.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: mercados predictivos | Predicciones | Sin categoría Trackback | No hay comentarios

La señal y el ruido

Escrito por Carlos Ochoa el 7 de octubre 2014

Leer el artículo completo

Ha caído en mis manos un ejemplar del célebre libro La señal y el ruido, de Nate Silver. He ido a parar a esta lectura después de una interesante conversación con Àngels Pont, directora del instituto de investigación GESOP, sobre mercados predictivos.

La señal y el ruido, de Nate Silver.

Los mercados predictivos constituyen una técnica de investigación innovadora que permite hacer predicciones (sobre cualquier cosa, ya sean los resultados de unas elecciones o de un evento deportivo) dejando que un grupo de individuos puedan comprar y vender acciones de los diferentes resultados posibles. El valor de este mercado bursátil de opiniones refleja el resultado más probable.

Hablaremos en otro post sobre mercados predictivos, pero la idea tremendamente seductora que mueve esta técnica y que poco tiene que ver con la investigación de mercados tradicional, es preguntar a la gente su opinión sobre la posibilidad de que se produzca un evento en lugar de su posición personal respecto a dicho evento.

Veamos un ejemplo: predecir el resultado de unas elecciones. En un estudio clásico seleccionamos una muestra altamente representativa de electores y les preguntamos a qué candidato piensan votar. Si la muestra se ha creado correctamente, podremos inferir el resultado más probable de las elecciones dentro de cierto intervalo de error. Una muestra más grande nos permite reducir el intervalo de error.

Pero, ¿qué sucedería si preguntamos a una muestra de personas quién creen que va a ganar las elecciones en lugar de qué candidato piensan votar? Diversas experiencias muestran la extraordinaria capacidad predictiva de las personas, algo a lo que Aristóteles llamaba la sabiduría de las masas en su Política.

Aristóteles

Como técnica, los estudios predictivos no tienen nada que ver con un muestreo clásico. Nuestro universo ya no lo componen personas que votan, sino la información que poseen las personas sobre qué votarán los demás. Cada persona contiene mucha más información que su propia intención de voto: sabe lo que votaría él pero también cómo votarán las personas de su entorno, ha visto resultados de sondeos, puede estar informada sobre el estado de la opinión pública… Es por ello que una muestra realmente pequeña de opiniones personales puede darnos una buena predicción.

Pero, ¿cómo debe seleccionarse una muestra de predictores? ¿existen personas con mayor capacidad de predicción que otras? ¿en qué medida influye en la capacidad de predicción el conocimiento de la muestra sobre el tema tratado? Alexander Wheatley y Hubertus Hofkirchner presentaron en el ESOMAR CONGRESS de Niza los resultados de algunos estudios experimentales al respecto. Sometieron a una muestra de panelistas a diferentes preguntas de naturaleza predictiva: qué precio crees que tendrá el nuevo iPAD mini 2 el día de su lanzamiento, resultados deportivos, cómo crees que se comportarán otras personas en una situación dada… Algunos de los aprendizajes de Wheatley y Hofkirchner fueron los siguientes:

Parte de las razones que explican la capacidad de predicción de un individuo vienen explicadas en el libro cuyo título preside este post. Las personas hacemos predicciones usando dos componentes: la señal, que es información correcta, y el ruido, información irrelevante que nos aleja de la señal. Si agregamos predicciones de personas independientes y no sesgadas, podemos llegar a cancelar el ruido y acercarnos a la señal que buscamos.

En su libro, Nate Silver profundiza en cómo hacemos predicciones y qué características tiene un buen predictor. A través de numerosos ejemplos, que abarcan desde predicciones políticas, deportivas, económicas e incluso meterológicas, Silver identifica qué hace buena una predicción y qué caracteriza a los buenos predictores. Y a los malos.

En próximos posts iremos desgranando algunas de las claves facilitadas en este interesante libro. En cualquier caso, os animo a leerlo, porque en los detalles y en el estilo narrativo del autor está gran parte de la información útil. Es decir, la señal.

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: esomar | Estudios | Herramientas | Innovación | mercados predictivos | Predicciones | Sin categoría Trackback | Comentarios (3)

Conclusiones del Chilescopio 2014

Escrito por Ruth Alonso el 12 de septiembre 2014

Leer el artículo completo

El pasado 27 de agosto de 2014 Netquest tuvo la oportunidad de asistir al evento de Chilescopio y en este post queremos compartir con vosotros esta experiencia.

Fruto de nuestra colaboración con Chilescopio 2014, en esta edición se ha ampliado el enfoque ofreciendo una comparativa de las actitudes de los chilenos hacia las marcas, junto con las de argentinos, peruanos y colombianos.

 chilescopio_ (1)

El estudio de Chilescopio presenta en esta edición cómo son los chilenos con respecto a otros países a través de una serie de encuestas realizadas a miembros del panel Netquest en Chile, Argentina, Colombia y Perú. Los resultados generan una idea sobre las tendencias de estilos de vida y consumo en estos países.

Algunas de las conclusiones del estudio son:

 chilescopio

Para Netquest fue un placer colaborar y agradecemos la entusiasta recepción por parte de las empresas.

Puedes consultar el documento “Cómo son los chilenos respeto a otros países” aquí.

 

Share on LinkedInTweet about this on TwitterShare on FacebookShare on Google+Email this to someone
Categoría: estadisticas | Estudios | Investigacion de Mercados | LATAM | netquest | Panel | Paneles Online | Sin categoría Trackback | No hay comentarios