Siniestro total de las encuestas
Entre los derrotados en las europeas están las encuestas, o mejor dicho, las estimaciones publicadas y, por las caras de los dirigentes de los dos partidos que tienen dinero para pagar tracking, también las no publicadas (¿quién hacía las encuestas para el PP que tuvo que desmontar la carpa para la celebración? ¿qué estimaciones le daba a su cliente?). Si se trata de técnicas de investigación destinadas a captar lo que sucede en la opinión pública, el fiasco es considerable. Cuatro grandes errores cada uno de los cuáles obligaría a una profunda reflexión de los profesionales implicados y de sus clientes. Juntos, un siniestro total.
No detectar el resquebrajamiento del bipartidismo, o sea, la fortísima corriente contra los dos grandes partidos (y eso que indicadores hay por toneladas, basta ver las valoraciones de Rajoy, Rubalcaba, el Gobierno, la Oposición, los candidatos, …) Como se ve en la tabla y en el gráfico, desde abril las estimaciones los situaban entorno al 30%: entre el 30 y el 34% al PP y entre el 25% y el 30% al PSOE. Como es conocido: 26'0% y 23'0%, respectivamente. Demasiado distancia, algo falló, sobre todo en el PP. Las que se publicaron en marzo se aproximaban más al resultado que las de abril y mayo, ¿qué decir?, ¿cómo se explica esto?
La distancia entre PP y PSOE. Al final un 3%, pero durante mayo las distancias por término medio se ampliaban al 4'5% y crecían. CIS, Metroscopia y Celeste-tel dieron estimaciones que se parecían a la distancia real, pero con un gran desajuste en el porcentaje de voto.
Podemos. Impresionante que pasara desapercibida su irrupción, especialmente para las empresas que hacen encuestas mensuales o semanales. Es verdad que poco a poco apareció en las estimaciones y creció pero no es creíble que la semana antes de las elecciones estuviera en un 3% y acabase con un 8% (Gad3 y Sigma Dos fueron las que mejor detectaron su crecimiento, aunque lo subestimaron). Los trabajos de campo tuvieron que detectar a Podemos, si no lo hicieron las redes están mal. Si lo hicieron y los “estimadores” pasaron del dato sus procedimientos no valen.
Cataluña. Los que se arriesgaron a dar datos de Cataluña, muy señaladamente el CEO, patinaron clamorosamente. Los datos del CIS, no sus estimaciones, han venido mostrando un sistemático avance de ERC superando a CiU. Será la única cosa que diré que se avanzó en estos “ejercicios caseros” que hemos venido publicando en Agenda Pública.
¿Por qué este desaguisado encuesteril? Por motivos técnicos, porque no hay teorías solventes para pasar de los datos de los trabajos de campo a “estimaciones”. Dicho de manera menos ampulosa, las estimaciones se hacen a ojo o casi. Por motivos de enfoque, porque los responsables de las encuestas forman parte de la “clase política”, de una especie de “segundo círculo” demasiado impermeable a las novedades, tendentes a creer que “saben más” que sus redes de campo. Pero nunca es así. Toda encuesta tiene sorpresas que no se espera el investigador, y si no las tiene algo está mal. Yo siempre aprendo algo nuevo o sorprendente con cada encuesta que hago, igual que de las reuniones de grupo.
Las encuestas son un instrumento de investigación que permite a la sociedad conocerse mejor a sí misma y que a empresas, o partidos en este caso, les deben permitir todas decisiones reduciendo sus riesgos. En muchas ocasiones grandes expertos, sobre todo norteamericanos (Perry, Greenberg, Crespi, etc.), han criticado lo rudimentario de las encuestas que se publican y las que compran los partidos (en Estados Unidos, pero se podría aplicar a España) ¿Se han preguntado alguna vez los responsables de los partidos por qué las encuestas que encargan les dan mejores resultados que los que obtienen en realidad?
Lo ocurrido ahora debería servir para que los clientes (medios y partidos en las encuestas políticas) elevaran su nivel de exigencia. Una encuesta política es bastante más que hacer un cuestionario, pasarlo a una red de campo y dar unas estimaciones porque los datos no cuadran (o sea, el recuerdo de voto no reproduce el resultado de las elecciones anteriores). Tiene que haber una sólida fundamentación teórica: qué se prevé encontrar y cómo se va a analizar (estadística, no vaguedades o chiripas o decir que la encuesta no es un “instrumento científico”, cosas leídas por aquí y por allá, no se crean). Para eso, el enfoque carrera de caballos que tienen la mayor parte de las encuestas publicadas no es el apropiado. Como ven los interesados por los márgenes de error, no era un problema de estadística y dimensiones de las muestras, sino de que parte de los entrevistados no dice la verdad (dice su verdad en el momento de la entrevista), de que los cuestionarios no captaban la intención de voto en las europeas por problemas de redacción, y de inconsistencia de las teorías con las que se hacen las estimaciones. Ahí está el margen de error realmente relevante, no en la teoría del muestreo. Hacer una encuesta y analizarla es muy complejo, sería deseable que hubiéramos aprendido eso de este siniestro total.