Ciencia Crítica pretende ser una plataforma para revisar y analizar la Ciencia, su propio funcionamiento, las circunstancias que la hacen posible, la interfaz con la sociedad y los temas históricos o actuales que le plantean desafíos. Escribimos aquí Fernando Valladares, Raquel Pérez Gómez, Joaquín Hortal, Adrián Escudero, Miguel Ángel Rodríguez-Gironés, Luis Santamaría, Silvia Pérez Espona, Ana Campos y Astrid Wagner.
El uso excesivo de métricas y la lógica capitalista pervierten el trabajo científico
Dentro de los planes para estabilizar los puestos de científicos y tecnólogos que el Gobierno supuestamente pretende incluir en los presupuestos generales de 2018, el todavía ministro de Guindos ha incluido la creación de una nueva “comisión evaluadora del desempeño de la actividad científico-tecnológica”. Esta comisión determinaría cuándo o qué científicos deben ser estabilizados, así como su nivel salarial. Sorprende un poco la necesidad de crear una nueva comisión para evaluar a los científicos, cuando sus funciones ya existen dentro de la ANECA (Agencia Nacional de Evaluación de la Calidad Científica y Acreditación). Más aún dado que España carece de sistemas consistentes de evaluación para departamentos, universidades y centros de investigación similares a los de otros países de nuestro área (como el Research Evaluation Framework del Reino Unido).
La supuesta necesidad de crear una comisión de evaluación como prioridad parece más bien ahondar en uno de los “hechos alternativos” preferidos de la Secretaría de Estado de I+D+i: la falta de evaluación y el bajo desempeño de los científicos en España. Los investigadores somos constantemente evaluados en todos los aspectos de nuestra actividad. Y mientras que los salarios de algunos puestos considerados extremadamente competitivos no parecen estar directamente relacionados con su desempeño profesional, como por ejemplo los consejeros del Ibex, la progresión en todos los estadios de la carrera científica (e incluso la posibilidad de tener una carrera, ya que la posiciones académicas son menos cada año) depende de la cantidad y calidad del desempeño del investigador. La productividad es también decisiva para obtener proyectos de investigación, porque se da la paradoja de que la mayoría de la Universidades y Organismos Públicos de Investigación (OPIs) pagan el sueldo de los investigadores, pero dejan en sus manos el obtener recursos con los que hacer su trabajo. Sin olvidar que hasta las propias revistas científicas donde se publican los resultados de la investigación son evaluadas y clasificadas en función del impacto de los artículos que publican.
Por desgracia, muchos gestores perciben el ejercicio de una evaluación detallada como un gasto excesivo e innecesario, y recurren cada vez con más frecuencia a indicadores simples (a menudo elaborados por empresas que provienen del mundo de la información financiera, como la famosa Thomson Reuters) que permiten comparar rápidamente un gran número de investigadores o grupos de investigación. Estas métricas del impacto de la investigación abarcan desde el número de artículos publicados y patentes desarrolladas, hasta la rapidez y profusión con que se han citado los primeros (o las revistas en que están publicados), o el rendimiento económico de las segundas.
No cabe duda de que estas métricas pueden ser útiles para hacerse una idea general del desempeño de un investigador, pero no sirven ni para cuantificar sus cualidades académicas (como la originalidad o la profundidad de sus razonamientos), ni para identificar el impacto a largo plazo de su investigación, ni para conocer su relevancia como mentor de investigadores más jóvenes (de hecho, a menudo las peores prácticas en supervisión de investigadores jóvenes se dan en los grupos “de élite”). En ausencia de una evaluación más profunda, las métricas de impacto se han convertido en un recurso fácil y práctico para paliar las deficiencias de los sistemas de selección, con comités cada vez más saturados por el número de candidatos a evaluar y abarcando áreas temáticas cada vez mayores. Esto además disminuye la eficacia de las métricas, ya que sus valores promedio varían de un tema de investigación a otro en función de determinadas modas (los denominados hot topics) y del nivel de inversión que reciben.
Paradójicamente, el uso indiscriminado de indicadores puede desvirtuar la riqueza y pluralidad de la investigación. Es posible que la lógica capitalista de disminuir los recursos por debajo del umbral en el que los científicos pueden trabajar sin presiones y aumentar la competitividad entre ellos aumente el rendimiento a corto plazo. Sin embargo, también altera la percepción de la actividad científica como una labor esencialmente colaborativa, en la que todos contribuyen de forma solidaria a construir un conocimiento cada vez mayor y mejor – del que, a su vez, se beneficia la iniciativa privada para desarrollar aplicaciones económica y socialmente beneficiosas a medio y largo plazo.
El uso generalizado de métricas simples ha propiciado que se asiente el cambio de ciencia colaborativa a ciencia competitiva. El ambiente competitivo es tal que entre los investigadores la producción científica ha llegado a convertirse en un espectáculo similar a la clasificación de la liga de fútbol o al ranking de tenistas en la ATP, al centrar la importancia de su labor más en el continente (dónde se publica y cuánto se cita) que en el contenido (cuánto ha avanzado el conocimiento). Según modelos matemáticos basados en procesos de selección natural, este tipo de ambiente competitivo genera ciencia de mala calidad incluso en colectivos de investigadores que siguen un código ético intachable. Y de hecho, los niveles elevados de competición son suficientes para reducir la calidad de las publicaciones científicas , menoscabar el potencial de hacer descubrimientos transformadores, incentivar la publicación de resultados poco fiables o difícilmente repetibles (como los llamados “falsos positivos”), y desincentivar la crítica al conocimiento ya establecido.
Y lo que es peor, un ambiente tan competitivo incentiva las prácticas fraudulentas. Más de la mitad de los investigadores del Reino Unido encuestados por el Nuffield Council on Bioethics reconocen que o bien ellos, o bien colegas directos, se sienten presionados para bajar los estándares de calidad de su investigación, obligados como están a obtener altas métricas de impacto y captar grandes cantidades de dinero (acabe gastado de forma eficiente o no). Aunque la mayoría de los investigadores resistan a la tentación, un ambiente así fomenta primero malas prácticas, más tarde el desarrollo de una cultura académica poco ética, y finalmente la aparición de tramposos que inventan o falsean datos, plagian a otros autores, trafican con las autorías de los artículos, duplican sus trabajos y/o evalúan de manera maliciosa para asfixiar a sus competidores o robarles las ideas.
La propia estructura de la ciencia como un sistema de conocimiento en revisión y discusión continua permite detectar muchos de estos casos: gracias a ello, sabemos que esta nueva cultura de la hipercompetitividad científica ha multiplicado el número de retracciones (artículos ya publicados que se retiran al detectarse irregularidades en sus procedimientos o datos) en los últimos años. Estos incluyen casos de fraudes reiterados en numerosos artículos, como el de Jesús Ángel Lemus o Susana González, por citar los dos más recientes y famosos del sistema científico español.
Está claro que el exceso de competitividad entre los científicos se nos está yendo de las manos. La combinación de recursos escasos y el foco de la evaluación del desempeño en indicadores no sólo provocan la desmoralización y el abandono de la carrera científica, sino que fomenta las malas prácticas. Las soluciones a este problema pasan no solo por promover una cultura crítica que detecte y castigue a los tramposos, sino por incentivar a los investigadores que promueven una aproximación cooperativa y comunitaria al trabajo científico. Para ello hace falta utilizar cuidadosamente las métricas de evaluación, que sí son útiles para separar el grano de la paja en procesos de selección competitivos que permitan atraer y estabilizar a los científicos más brillantes, incluyendo muchos españoles expatriados. Pero es necesario combinarlas con otras formas de evaluar el conocimiento y desempeño, promover el desarrollo de “métricas responsables” y, sobre todo, ir más allá de la obsesión por el impacto rápido de las publicaciones individuales. En este sentido, iniciativas de sistemas de publicación abierta como ArXiv o biorRxiv, y sistemas de evaluación transparente y abierta como Peer Community, permiten escapar de la tiranía de las revistas científicas y abren un espacio de esperanza para el renacimiento de la ciencia como una empresa solidaria y cooperativa.
Sobre este blog
Ciencia Crítica pretende ser una plataforma para revisar y analizar la Ciencia, su propio funcionamiento, las circunstancias que la hacen posible, la interfaz con la sociedad y los temas históricos o actuales que le plantean desafíos. Escribimos aquí Fernando Valladares, Raquel Pérez Gómez, Joaquín Hortal, Adrián Escudero, Miguel Ángel Rodríguez-Gironés, Luis Santamaría, Silvia Pérez Espona, Ana Campos y Astrid Wagner.