El Comité del ICSU para la Libertad y la Responsabilidad en la Conducta de la Ciencia (CFRS) está preocupado porque algunas de las políticas y prácticas que están adoptando actualmente las instituciones científicas y los editores de revistas pueden estar socavando inadvertidamente la integridad de la literatura científica. Esto se ve agravado por el uso acrítico de métricas de publicación, como reemplazo de la revisión por pares independientes, en la evaluación del desempeño científico. Al señalar estas preocupaciones a las organizaciones miembros del ICSU, se espera que tomen medidas para garantizar la calidad del registro científico y promover un enfoque cauteloso y crítico para el uso de métricas de publicación en la evaluación de la investigación.
Cuestiones de interés:
- Al hacer nombramientos de carrera y otorgar becas, el historial de publicaciones de los solicitantes y, en particular, el número y el supuesto impacto de las publicaciones, es a menudo un criterio principal. Esto crea inadvertidamente incentivos para publicaciones duplicadas, publicaciones divididas, publicaciones de poco valor y autoría honoraria.
- Los factores de impacto de la revista dan una indicación del número promedio de citas que se esperan de un artículo en una revista en particular, pero estos números se malinterpretan fácilmente. Por ejemplo, pueden verse influidos por la proporción de revisiones a artículos primarios. Las citas para cualquier artículo individual pueden ser mucho más altas o más bajas que las esperadas por el factor de impacto.
- Si bien el número de citas puede dar una indicación de la calidad de una publicación, no es necesariamente así. Es muy posible que los artículos realmente novedosos y muy importantes atraigan poca atención durante varios años después de su publicación. Un artículo que es incorrecto puede generar múltiples citas a partir de artículos que lo refutan, y los números de citas se pueden inflar mediante autocitas. El número de citas también tiende a ser mayor en las revisiones que en los artículos primarios.
- El valor atribuido a los registros de publicaciones y citas puede presionar a los científicos para que publiquen demasiado pronto o exageren o interpreten en exceso los resultados. También puede, en situaciones extremas, promover la mala conducta científica, en la que los resultados son fabricados, falsificados o plagiados.
- Como resultado de la presión para publicar, un número creciente de manuscritos se envían a varias revistas antes de que finalmente sean aceptados. Esto aumenta la carga de los revisores, lo que en última instancia disminuye la rigurosidad del proceso de revisión. Varias presentaciones y revisiones del mismo trabajo pueden retrasar la comunicación de resultados importantes y se puede argumentar que multiplicar el número de revisiones rara vez impide la publicación final de un trabajo de mala calidad.
- Los medios alternativos de publicación en archivos electrónicos no revisados o revisados por expertos, en blogs o páginas de inicio individuales o institucionales, se están volviendo cada vez más populares. Si bien estos medios abren nuevas posibilidades y mejoran la accesibilidad general a las publicaciones, también aumentan la disponibilidad de información menos significativa o posiblemente engañosa.
Al CFRS le preocupa que las políticas y prácticas actuales puedan tener efectos graves en la calidad del trabajo científico en general y aumentar la carga para los revisores de las revistas. Cualquier aumento innecesario en el volumen de publicaciones científicas amenaza un proceso de revisión adecuado, que es esencial para mantener los estándares de precisión e integridad.
Además de su papel en la publicación científica, el Comité considera que la revisión por pares rigurosa e imparcial es el mecanismo más importante para juzgar la calidad del trabajo científico y los proyectos científicos. Establecer y mantener buenos procesos de revisión por pares es en sí mismo un desafío y se reconoce que puede haber beneficios en el uso de medidas y métricas cuantitativas como complementos de este proceso. Sin embargo, la aparente simplicidad y atracción de tales índices numéricos no deben ocultar su potencial de manipulación y mala interpretación y, por lo tanto, solo deben usarse con considerable precaución.
Debido a que las normas para el número de publicación, las convenciones de autoría y las citas difieren de un campo a otro, los juicios y las políticas suelen ser mejor realizados por pares con experiencia en la misma área. CFRS insta a las organizaciones miembros del ICSU a estimular la discusión de criterios de evaluación científica, indicadores de carrera y registros de publicaciones, con el objetivo de promover un sistema que pueda servir mejor a la ciencia en general. En lugar de aprender a sobrevivir en una cultura de "publicar o perecer", se debe alentar y apoyar a los científicos jóvenes para que produzcan comunicaciones científicas de alta calidad que contribuyan realmente al progreso científico.
Las preguntas a considerar, con respecto al uso de métricas para evaluar el desempeño de la investigación, incluyen:
- Al juzgar las solicitudes de subvenciones y puestos, ¿cuál es el equilibrio óptimo entre la revisión directa por pares, incluida la lectura de artículos relevantes, y el uso de medidas cuantitativas basadas en registros de publicaciones?
- Al evaluar los registros y el desempeño de las publicaciones, ¿qué ponderación se debe aplicar al número de publicación, los factores h, el factor de impacto de la revista, el número de citas, la publicación primaria versus la revisión?
- Teniendo en cuenta que las convenciones varían considerablemente de un campo a otro, ¿cuánto crédito se debe otorgar a la primera autoría, la última autoría, la autoría intermedia o la autoría correspondiente? En algunos campos, la prevalencia de la 'autoría fantasma' también es un tema de considerable preocupación *.
- ¿Qué crédito se debe otorgar a las preimpresiones y otras publicaciones electrónicas, ya sean revisadas por pares o no? ¿Deben tenerse en cuenta los índices de impacto como los clics, las descargas o los enlaces?
- ¿Debería limitarse el número de publicaciones que cuentan para subvenciones o nombramientos? Por ejemplo, ¿deberían tenerse en cuenta solo las tres mejores publicaciones por año? ¿Deberían incluso penalizarse los científicos por ser autores de más de, digamos, 20 publicaciones al año? [Estos límites pueden parecer contrarios a la intuición, pero ayudarían a promover una cultura en la que todos los autores han contribuido genuinamente a las publicaciones en las que aparecen sus nombres].
- ¿Qué ponderación debería darse a otras medidas cuantitativas del resultado de la investigación, como las solicitudes de patente, las patentes concedidas o las patentes licenciadas?
El Comité es consciente de que la discusión de muchas de estas cuestiones ya está muy avanzada en algunos países y en algunas áreas de la ciencia, pero sugiere que el debate se amplíe a toda la comunidad científica internacional. Al compartir opciones y estrategias, se espera que la comunidad científica mundial pueda beneficiarse de las experiencias de organizaciones individuales.
* Ver, por ejemplo, Ross et al, JAMA 299, 1800-1812 (2008).
Apéndice
Mientras se desarrollaba esta declaración, la Unión Matemática Internacional publicó el informe Estadísticas de citas, que es un análisis crítico detallado del uso de datos de citas para la evaluación científica. Una de las principales conclusiones de este informe es: si bien tener un solo número para juzgar la calidad es realmente simple, puede llevar a una comprensión superficial de algo tan complicado como la investigación. Los números no son inherentemente superiores a los juicios sólidos.
Informe de estadísticas de citas
Acerca de esta declaración
Esta declaración es responsabilidad del Comité de Libertad y Responsabilidad en la Conducta de la Ciencia (CFRS), que es un comité de políticas del Consejo Internacional para la Ciencia (ICSU). No refleja necesariamente los puntos de vista de las organizaciones miembros individuales del ICSU.