Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Israel no da respiro a la población de Gaza mientras se dilatan las negociaciones
Los salarios más altos aportarán una “cuota de solidaridad” para pensiones
Opinión - Por el WhatsApp muere el pez. Por Isaac Rosa

Carta abierta al ministro Subirats. Otra ANECA es posible

Uni-Digna
EFE/Ballesteros

7

El actual sistema público de evaluación y acreditación para acceder a un puesto docente e investigador en el ámbito universitario o promocionar en la carrera académica establece que todo profesor o profesora universitaria tiene que conseguir que dos multinacionales extranjeras le admitan publicar cierto número de artículos en las revistas que ellas determinan y controlan.

El sistema de evaluación de la carrera profesional universitaria, sobre todo a partir del Real Decreto-ley 14/2012, premia la acumulación de esas publicaciones cuantificables y comercializables que son las que supuestamente generan “distinción y reconocimiento” (sexenios), al tiempo que “penaliza” si no se consiguen, con la imposibilidad del acceso, la no promoción, la reducción del salario y un aumento significativo de carga docente. 

La esencial función docente de la Universidad pública se devalúa

Este sistema está convirtiendo así la función docente esencial de la universidad en un obstáculo para la promoción académica, un “castigo”, que termina por devaluar una finalidad fundamental de la universidad, que es la de enseñar, provocando que el mismo profesorado la minusvalore y postergue. 

Frente a la docencia, pensada para aportar a quienes se están formando, la práctica investigadora se convierte en una inversión en el propio currículum, mediante este tipo de publicaciones que sí reportan beneficios subjetivos (valoración) y materiales (compensaciones retributivas). Este sistema valora solo aquellas publicaciones que tengan valor para el mercado y que se puedan cuantificar y medir según los criterios y ranking establecidos por estas dos grandes empresas del negocio editorial. Olvida que la ciencia debe estar al servicio de la humanidad y de la mejora del mundo en el que convivimos, ligada a problemas y necesidades sociales que no siempre son valorados por el mercado, convirtiéndola así, aún más, en una moneda de cambio determinada por las exigencias del mercado. 

Emprendedores del impacto que compiten por la cita

Se está presionando así a la comunidad científica para transformar la investigación rigurosa, que conlleva tiempo y procedimientos a veces lentos y reposados, en una loca carrera de la “cultura del impacto y de la citación” para conseguir ser valorado cuanto antes y así poder obtener esos preciados sexenios que faciliten promocionar en la competitiva carrera universitaria. 

Este sistema ha asumido la tesis de que el factor de impacto de una revista (el número de citas recibidas), que mide la visibilidad y la difusión, sea el que defina el valor científico de los artículos. Este índice es controlado por los datos ofrecidos por el informe Journal of Citation Report (JCR) de la multinacional Clarivate a través de su producto Web of Science (WOS), y por la multinacional Elsevier a través de su producto Scopus, mediante un importante sesgo de cobertura que afecta a revistas, disciplinas, lenguas, regiones e intereses de investigación de forma muy dispar. A pesar de ello, ha llegado a convertirse en el capital académico más preciado para las instituciones de todo el mundo. La Fundación Española para la Ciencia y la Tecnología, dependiente del Ministerio de Ciencia e Innovación, las universidades y el Centro Superior de Investigaciones Científicas, no solo lo admiten y participan en ello, sino que pagan por las licencias a estas multinacionales, anualmente, millones de euros de dinero público. 

Decisiones políticas que orientan la I+D

De esta forma, nuestras administraciones públicas son cooperadoras necesarias (en financiación y difusión) del monopolio de estas dos multinacionales privadas extranjeras para el desarrollo de su sistema comercial de evaluación. Los ministerios de Ciencia y Universidades le conceden una autoridad y liderazgo que estas multinacionales se “autoatribuyen” en sus páginas web, desde su “monopolio de hecho” de la evaluación científica. 

El conjunto de todo este engranaje es accionado por las agencias nacionales de evaluación. Las agencias como la ANECA, que acredita la capacidad del profesorado, y la CNEAI, que reconoce a través de esos sexenios la actividad investigadora realizada, priorizan como criterios de valor la publicación de artículos en las revistas científicas incluidas en esas bases de datos elaboradas por estas dos multinacionales, Clarivate y Elsevier, en detrimento de otros formatos y modos de canalizar la actividad investigadora. 

Sistema de dominio cuasi-colonial

Este sistema ha recibido innumerables críticas. Desde el sesgo lingüístico y geográfico que favorece a publicaciones y la autoría anglosajona, hasta su énfasis en determinados estándares de lo que determinan qué es ciencia y lo que no lo es y no se publica, pues no pasa “sus” filtros.

Se insiste en utilizar el concepto de excelencia, para justificar las reglas de evaluación, pero ese concepto, que proviene del mundo de la innovación, viene autodefinido por modelos hegemónicos externos a la ciencia.  Estos criterios de valor, además, reproducen una lógica colonial pues refuerzan una geopolítica de poder que margina y desprecia las revistas científicas no anglosajonas, imponiendo sin discusión el inglés como lengua “científica”. 

También se ha criticado la recurrencia y la permanencia de determinados círculos científicos dominantes que se nutren y se citan entre sí (de las más de 8.000 revistas de todo el mundo que son incluidas en el ranking JCR, tan solo 300 representaron más del 50% de lo que se citó y más del 30% de lo que se publicó; y de esas 8.000 el 37,5% cuenta con más del 90% de artículos citados y más del 80% de los publicados). 

Pero el problema sustancial y que afecta a toda la concepción del conocimiento compartido es el escándalo que supone el hecho de que resultados de investigaciones financiadas con dinero público, de todos y todas, se publiquen en revistas de acceso privado. Con este modelo la producción de conocimiento se encierra en un circuito privatizado, ajeno en buena parte a su servicio a toda la sociedad y al compromiso con el bien común. 

A pesar de las críticas de todo tipo que este modelo ha generado, conserva intacta su capacidad de definir quién vale y quién no. Se asume así que aquello que ocurre fuera de lo validado por este modelo comercial, competitivo y privado, no existe o no sirve a la ciencia: “si tu trabajo no figura aquí, no vale”.

Competición en vez de colaboración

Esta bibliometría, más que aportar resultados de investigación excelentes, ha conseguido presionar a la comunidad investigadora para adaptar su trabajo hacia lo que se valora en el competitivo mercado de los sexenios. Se abandonan las monografías o libros con conocimiento reflexivo de fondo, capaces de alcanzar al gran público, pues son consideradas “méritos menores” porque puntúan menos frente a los artículos con índices medibles de impacto. 

Se está generando así una inflación de papers inabarcable, que pocos leen y que no siempre se escriben con el poso necesario. Incluso se denuncia que se tiende a recurrir cada vez con más frecuencia al autoplagio, a las autocitas, a las redes de citas, a las guerras de citas, a no citar a posibles competidores/as, a sufrir la exigencia de citar artículos publicados en los últimos años en la revista donde se quiere publicar, como norma generalizada ya.  Todo ello lleva a que la persona interesada en hacer carrera dentro de la universidad se vea condenada, en un círculo perverso, a autosuperarse permanentemente. Se entienden así los estados de ansiedad, depresión, el desencanto con la profesión y el estrés laboral, como características propias del sistema universitario actual, estrechamente vinculadas con la precariedad, la competitividad y la incertidumbre...

Además, en los últimos años han conocido un notable incremento las publicaciones de acceso abierto (open access). Revistas con artículos accesibles en línea para el público, sin coste económico para quien las lee. Pero este modelo lo han convertido de nuevo en un negocio las grandes multinacionales. Cobran a los autores y autoras o las instituciones públicas que financian sus investigaciones por la publicación (una media de 2.700 euros por 15 páginas). En este sistema todo es beneficio para las multinacionales editoriales. Los científicos les dan gratis el resultado de sus investigaciones; realizan gratis la revisión por pares de la validez científica de las publicaciones de otros científicos. Las editoriales venden el producto a bibliotecas de universidades y académicos, que con dinero público pagan para leer lo que crean. Y ahora exigen que se pague por publicar en acceso abierto. Es un cuádruple pago. Es como si los periódicos exigieran a los y las periodistas que escribieran y editaran el trabajo los unos-as de los otros-as gratuitamente, y reclamaran al gobierno que pagara la factura con el dinero público. 

Re-evolucionar el sistema de evaluación de la producción científica es posible

La excelencia de la investigación científica en las universidades públicas es inseparable de su conciencia ciudadana y de la capacidad de promover la participación civil en la decisión sobre los fines y los usos sociales de la ciencia.

El corazón de la ciencia se define en términos de colaboración, no de competición; de amor honesto al saber y no a los réditos individuales; de interés por incrementar el conocimiento y no por la producción de publicaciones. Pero el actual sistema obliga a un proceso continuo de competición interna que fragmenta y enfrenta al profesorado, naturalizando la competencia en vez de producir formas colaborativas de pensamiento e investigación. Lo que vale, lo que cuenta, lo que tiene valor (de mercado) es la acumulación, lo inmediatamente vendible y comercializable. 

El sistema actual es inaceptable y la propia ANECA es consciente de ello: en octubre de 2021 publicaba unos «Principios y directrices para la actualización de criterios de evaluación de la investigación de ANECA 2021» presentándolos públicamente a través de su canal de Youtube. Mediante este acto se anunciaba la revisión de ciertas prácticas evaluativas perniciosas, la adhesión a principios de transparencia, integridad académica, igualdad, etc., pero también una confusa persistencia en criterios acientíficos y contrarios al ideal de ciencia para el bien común. Por eso, este momento es clave de cara a redefinir la política pública de evaluación de la investigación.

Otro sistema de evaluación al servicio del bien común

No defendemos que publicar en revistas de demostrada calidad científica no sea necesario, puesto que lo es para compartir el conocimiento generado y devolver a la sociedad aquello que puede ayudar a mejorarla; ni que el profesorado no deba publicar. Tampoco que publicar investigación de rigor científico no cuente, por ejemplo, para evitar que en la carrera docente del profesorado se utilicen criterios poco éticos ejerciendo un uso perverso del poder. Pero es necesario otro sistema de evaluación de la producción científica del profesorado universitario público, sin intereses comerciales, sin criterios de beneficios empresariales de quien controla el sistema de producción científica, basado en la colaboración, el conocimiento compartido, el libre acceso a la producción científica. Es decir, necesitamos una universidad realmente pública y democrática. Una universidad que cuestione esta concepción neoliberal de la ciencia, la investigación y la universidad basada en la competitividad. 

Es necesario apostar por una universidad que sea capaz de incorporar otros elementos de valor al trabajo investigador y docente: trabajo compartido, investigación de base y a largo plazo, docencia como valor, honestidad científica, compromiso con toda la sociedad y también con las necesidades y sectores más desfavorecidos. Una universidad al servicio del bien común y no del beneficio económico de accionistas e inversionistas.

Los países que tienen un enfoque de modelo social y productivo de alto valor son aquellos que cuentan con más apoyos a la investigación básica y en todas las disciplinas, también las humanísticas, sociales y artísticas, los que conceden relevancia a la investigación transdisciplinar que no tiene casi cabida en el sistema hegemónico y que es fundamental para que la investigación se oriente a los desafíos sociales. No en vano dicha investigación es la que genera los cimientos para construir un modelo social más justo en lo económico, más sabio en lo social y más ecológico en lo natural. Son aquellos que valoran también el impacto social, cultural y político de la investigación no sólo por el número de citas de las publicaciones realizadas sino por la implicación en la resolución de problemas locales o en el avance del bienestar social, por la participación de la comunidad en el desarrollo de las investigaciones o porque incluyen orientaciones prácticas para la solución de problemas reales en contextos reales, sean locales o globales. 

Propuestas concretas para avanzar

Hubo proyectos públicos de prestigio que podían haber sido una alternativa como el sistema DICE (Difusión y Calidad Editorial de las Revistas Españolas de Humanidades y Ciencias Sociales y Jurídicas) desarrollado desde 2006 por el CSIC o el INRECS, INRECJ o INRECH de la Universidad de Granada en el año 2014. Pero se dejaron morir recortando su financiación por falta de voluntad política. Ahora se trata de ir mucho más allá.

1) Dirigir las políticas públicas de investigación al desarrollo de los repositorios públicos de “acceso abierto”, mandato expreso del programa de la Unión Europea Horizonte 2020, en la línea que plantea la Declaración de San Francisco sobre Evaluación de la Investigación (DORA) y la Declaración de Berlín, administrados por universidades u organizaciones de investigación públicas, que serían una valiosa infraestructura que podrían apoyar la transición a un sistema de evaluación y comunicación académica más colaborativa y adecuada.

2) No reducir la evaluación de la investigación a las publicaciones científicas en forma de papers o capítulos de libros. Considerar otros méritos de investigación, como la labor realizada en la dirección de tesis doctorales, la generación de patentes libres y abiertas, la creación de bases de datos o de software de interés social y público, la consideración de formatos abiertos como documentos pdf, páginas web, blogs o vídeos.

3) Incluir el impacto social como criterio, considerando como mérito la investigación orientada a temas relacionados con el bienestar humano, desde una perspectiva global y local, al desarrollo cultural, a la sostenibilidad y al cambio social, a la conexión con los entornos locales y los movimientos y colectivos de utilidad pública y los beneficios que muestre en la solución de problemas sociales y ambientales o por la participación de la comunidad en el desarrollo de las investigaciones, valorando sus resultados en la transformación de las desigualdades de todo tipo.

4) Someter a evaluación los criterios, los modelos, los procedimientos, los agentes que participan, las estrategias de trabajo, las garantías, los resultados y cuantos elementos participen en la actividad evaluadora de la investigación. La evaluación debería ser al menos tan exigente consigo misma como lo es respecto a lo que evalúa. Esta evaluación debe ser transparente, democrática, participativa y pública.

5) Utilizar referentes de buena ejecución en lugar de ordenaciones y ranking. De este modo, por ejemplo, una buena revista lo será no porque ocupe una posición relativa en un listado, sino porque cumple con requisitos establecidos desde criterios científicos. Así se considera, por ejemplo, en iniciativas como Redalyc y Latindex.

6) La investigación de relevancia local debe ser valorada y potenciada, tal y como señala la declaración de Leiden, hoy sacrificada por la exigencia de la publicación en revistas de cualquier parte del mundo, descontextualizadas, pero que tengan alto impacto, que es lo que cuenta.

7) Los criterios cuantitativos, en cualquier caso, únicamente han de ser utilizados para apoyar la valoración cualitativa por expertos y expertas, que tiene que basarse en razonamientos informados y ha de revestirse de carácter deliberativo.

Si se quiere, se puede

Se han presentado, en este sentido, dos Proposiciones No de Ley (PNL) en el Parlamento Nacional con el fin de superar esas métricas basadas en el factor de impacto de las citas en JCR y similares, ahorrar una ingente cantidad de dinero público que pagamos a estas multinacionales extranjeras y sentar las bases para que la comunidad académica, de forma negociada y consensuada, dé a luz un nuevo sistema de evaluación público y abierto de la investigación. Estas proposiciones no son ese nuevo sistema sino una propuesta para avanzar en este sentido para consensuar con la comunidad académica universitaria un sistema de evaluación de la producción científica más justo, que responda a un modelo de ciencia para el bien común.

Pero parece que en el actual Ministerio de Universidades no hay voluntad política para iniciar este proceso de cambio, debatiendo y consensuando con la comunidad universitaria y sus representantes otro modelo de evaluación del profesorado universitario que superara el negocio del impacto en las revistas, y deja que la ANECA siga en esta deriva de medición cuantitativa y colonial que sigue orientando la universidad hacia un modelo mercantil y productivista.

Es hora de sumarse a una acción colectiva por parte de la comunidad universitaria que exija este cambio. Únete a este manifiesto para hacérselo llegar al ministro de Universidades y que inicie el proceso planteado en las dos PNL registradas en el Parlamento Nacional.

Etiquetas
stats