Contra la bibliometría “rápida y sucia”: aspectos para valorar la complejidad en los análisis bibliométricos

Contenido principal del artículo

Rafael Repiso
https://orcid.org/0000-0002-2803-7505
Álvaro Cabezas-Clavijo
https://orcid.org/0000-0001-9641-8855

Resumen

El presente trabajo denuncia el auge indiscriminado de estudios bibliométricos de baja calidad que, aprovechando la accesibilidad de bases de datos como Web of Science o Scopus y el uso de herramientas automatizadas, proliferan en revistas científicas de diversas disciplinas. Esta tendencia, facilitada por la ausencia de conocimientos especializados de los revisores de revista y por el interés en incrementar rápidamente la productividad académica, ha derivado en la publicación de investigaciones metodológicamente pobres, con escasa elaboración conceptual y valor analítico limitado. Frente a este panorama, los autores reivindican la bibliometría como un campo de alta especialización que exige comprensión teórica, competencia metodológica e interpretación crítica de los datos. Con base en estos principios, se propone una aproximación metodológica para valorar la complejidad de los estudios bibliométricos a partir de seis dimensiones: tamaño de la población, origen y fuente de los datos, forma de recolección, grado de normalización, tipos de análisis empleados y herramientas utilizadas. Esta perspectiva metodológica pretende ofrecer a editores e investigadores un marco para identificar investigaciones sustantivas y distinguirlas de aquellas realizadas con poco esfuerzo, criterio y contexto teórico.

Detalles del artículo

Sección

Monográfico

Cómo citar

Repiso, R., & Cabezas-Clavijo, Álvaro. (2025). Contra la bibliometría “rápida y sucia”: aspectos para valorar la complejidad en los análisis bibliométricos. Revista Panamericana De Comunicación, 7(1). https://doi.org/10.21555/rpc.v7i1.3419

Referencias

Cabezas-Clavijo, A., Milanés-Guisado, Y., Alba-Ruiz, R., & Delgado-Vázquez, Á. M. (2023). The need to develop tailored tools for improving the quality of thematic bibliometric analyses: Evidence from papers published in Sustainability and Scientometrics. Journal of Data and Information Science, 8(4), 10-35. https://doi.org/10.2478/jdis-2023-0021

Hoang, A. D. (2025). Evaluating bibliometrics reviews: A practical guide for peer review and critical reading. Evaluation Review, OnlineFirst. https://doi.org/10.1177/0193841X251336839

Hulland, J. (2024). Bibliometric reviews-some guidelines. Journal of the Academy of Marketing Science, 52(4), 935-938. https://doi.org/10.1007/s11747-024-01016-x

Leydesdorff, L. (2001). The challenge of scientometrics: The development, measurement, and self-organization of scientific communications. Universal Publishers.

Moed, H. F. (2005). Citation analysis in research evaluation. Springer.

Montazeri, A., Mohammadi, S., Hesari, P. M., Ghaemi, M., Riazi, H., & Sheikhi-Mobarakeh, Z. (2023). Preliminary guideline for reporting bibliometric reviews of the biomedical literature (BIBLIO): a minimum requirements. Systematic Reviews, 12(1), 239. https://doi.org/10.1186/s13643-023-02410-2

Ng, J. Y., Haustein, S., Ebrahimzadeh, S., Chen, C., Sabe, M., Solmi, M., & Moher, D. (2023). Guidance List for repOrting Bibliometric AnaLyses (GLOBAL): A research protocol. https://osf.io/nvu6w

Waltman, L., & Van-Eck, N. J. (2015). Field-normalized citation impact indicators and the choice of an appropriate counting method. Journal of Informetrics, 9(4), 872–894. https://doi.org/10.1016/j.joi.2015.08.001

Artículos similares

También puede Iniciar una búsqueda de similitud avanzada para este artículo.