Comisión de Publicaciones

En el escrito del pasado mes de diciembre exponíamos la preocupación existente en muchos sectores de la investigación española por el impacto que está teniendo el actual sistema de evaluación de la producción científica en los patrones de publicación. Un ejemplo de este impacto es la aparición de editoriales y de multitud de revistas que han sido más que cuestionadas por la calidad de la revisión de los trabajos publicados. Muchas de estas revistas, sin embargo, han conseguido situarse en los listados más utilizados para este tipo de evaluaciones.

Este mes de marzo, los medios de comunicación se han hecho eco de esta problemática, apareciendo la noticia de que uno de los científicos más prolíficos (más de 100 trabajos al año) y más citados del mundo había sido suspendido de empleo y sueldo durante 13 años por, presuntamente, llevar a cabo prácticas cuestionables en este contexto: concretamente, por firmar (gran parte de) sus trabajos como investigador de ciertas universidades de otros países. Porque esta forma exclusivamente cuantitativa de medir la calidad de un científico o de una institución (se es “mejor” cuantos más artículos y citas se tengan) está pervirtiendo todo el sistema, siendo la principal perjudicada la ciencia en sí misma.

Desde siempre, las instituciones de todo el mundo han intentado tener entre sus filas a los científicos más reputados: premios Nobel, medallas Fields y premios Abel en matemáticas… Ahora muchas de ellas solo pretenden fichar investigadores con “numerosas publicaciones y citas”, pues eso les hará subir centenares de puestos en los rankings internacionales, como el famoso ranking de Shanghái, lo que supone un incremento de su “prestigio” y, en consecuencia, mayores ganancias. Desde hace ya bastantes años (véase el artículo publicado por Science en diciembre de 2011), empezó incluso a imponerse la práctica en ciertas universidades de ofrecer suculentas sumas de dinero a aquellos científicos, altamente productivos y muy citados, que aceptasen firmar sus trabajos bajo el nombre de la citada institución.

Así, esta necesidad de publicar y ser citado, bien a causa del tipo de evaluaciones fundamentalmente cuantitativas a las que estamos sometidos, bien por las políticas llevadas a cabo por algunas instituciones, o por otros intereses, ha originado a su alrededor un negocio millonario que ha pervertido la esencia misma de lo que debe ser la investigación de calidad, y que poco o nada tiene que ver con el avance real y profundo de la ciencia. Es un círculo vicioso del que parece difícil salir.

Afortunadamente, en los últimos tiempos están apareciendo numerosas voces que se han ido levantando en contra de esta vorágine. Diversas sociedades científicas, españolas e internacionales, están presentando escritos sobre la problemática en la evaluación de la investigación: la National Science Foundation desarrolló en 2020 un documento muy significativo sobre lo que deben ser las bases de la evaluación científica; la Sociedad Científica Informática de España (SCIE) ha publicado una declaración en la que se recogen los criterios que, a su entender, deben regir para construir la nueva forma de evaluar la investigación en Informática en España, y, recientemente, la Real Sociedad Matemática Española, preocupada por el impacto de los métodos de evaluación bibliométricos en el desarrollo de la carrera investigadora en Matemáticas, ha decidido asimismo intervenir activamente, dando a conocer esta problemática y proponiendo líneas de actuación con el fin de conseguir una evaluación de la producción investigadora que sea, en la medida de lo posible, más equilibrada y justa.

Ya en 2012 surgió una iniciativa, DoRA, impulsada por una parte de la comunidad científica, que exhortaba a cambiar las formas de evaluación de la investigación, fomentando la calidad de los contenidos frente a otras métricas como el factor de impacto. Son ya numerosas las instituciones y organismos que se han adherido a esta “Declaración de San Francisco sobre la Evaluación de la Investigación”, entre ellas, el pasado 3 de abril, la propia ANECA.

No queremos concluir este escrito sin destacar la reciente decisión de Clarivate de excluir más de 50 revistas de la colección principal de Web of Science por sus comportamientos anómalos de publicación, lo que conllevará que a partir de ahora no tengan factor de impacto JCR, véase aquí el comunicado. Un paso más para intentar poner freno a una situación que se nos está yendo de las manos.

 

Tags: ,