Content validity and reliability of an instrument on ethics and Artificial Intelligence in health sciences students
Published 2026-03-09
How to Cite
Downloads
Copyright (c) 2026 Revista Panamericana de Pedagogía

This work is licensed under a Creative Commons Attribution 4.0 International License.
Abstract
The increasing integration of artificial intelligence (AI) in health sciences education poses ethical challenges related to academic integrity, data privacy, algorithmic bias, and professional responsibility. Despite this growing relevance, there is a lack of validated instruments that comprehensively assess ethical factors associated with the academic use of AI among university students in health-related fields. The aim of this study was to design and validate an instrument to evaluate ethical factors linked to the academic use of artificial intelligence in health sciences students. An instrumental study was conducted that included the design of the instrument, content validation through expert judgment by 13 specialists using the Expert Judges Scale (Centro Universitario CIFE, 2019), calculation of Aiken’s V coefficient, a pilot test applied to 32 students, and the final application of the instrument to a sample of 313 health sciences students. The items demonstrated adequate content validity (V ≥ 0.75) and high internal consistency, with a Cronbach’s alpha of 0.886 and a McDonald’s Omega of 0.89. Students reported clear instructions, relevant content, and high acceptability of the instrument. In conclusion, the instrument shows solid content validity and adequate reliability, supporting its use in future research aimed at analyzing ethical factors related to the academic use of artificial intelligence in health sciences education.
Keywords
- Artificial intelligence,
- Educational evaluation,
- Ethics,
- Health sciences students,
- Higher education
References
- Ahmad, S. F., Han, H., Alam, M. M., Rehmat, M. K., Irshad, M., Arraño-Muñoz, M., & Ariza-Montes, A. (2023). Impact of artificial intelligence on human loss in decision making, laziness and safety in education. Humanities and Social Sciences Communications, 10(1), Artículo 311. https://doi.org/10.1057/s41599-023-01787-8
- Al-Qerem, W., Eberhardt, J., Jarab, A., Al Bawab, A. Q., Hammad, A., Alasmari, F., Alazab, B., Husein, D. A., Alazab, J., & Al-Beool, S. (2023). Exploring knowledge, attitudes, and practices towards artificial intelligence among health professions’ students in Jordan. BMC Medical Informatics and Decision Making, 23(1), Artículo 288. https://doi.org/10.1186/s12911-023-02403-0
- Avello-Sáez, D., Lucero-González, N., & Villagrán, I. (2024). Desarrollo de una declaración de uso de inteligencia artificial con una perspectiva de integridad académica en educación médica y ciencias de la salud. Revista Médica Clínica Las Condes, 35(5–6), 412–420. https://doi.org/10.1016/j.rmclc.2024.06.003
- Benítez, R., Cencerrado, A., Gerard, B., & Kanaan, E. S. (2018). Inteligencia artificial avanzada. Editorial UOC. https://openaccess.uoc.edu/server/api/core/bitstreams/509e0233-eefd-44e0-acf7-58582fa65f7a/content
- Bulger, S. M., & Housner, L. D. (2007). Modified Delphi investigation of exercise science in physical education teacher education. Journal of Teaching in Physical Education, 26(1), 57–80. https://doi.org/10.1123/jtpe.26.1.57
- Cámara de Diputados del H. Congreso de la Unión. (2025, 20 de marzo). Ley Federal de protección de datos personales en posesión de los particulares. Secretaría de Servicios Parlamentarios. https://www.diputados.gob.mx/LeyesBiblio/pdf/LFPDPPP.pdf
- Carpenter, S. (2018). Ten steps in scale development and reporting: A guide for researchers. communication methods and measures, 12(1), 25–44. https://doi.org/10.1080/19312458.2017.1396583
- Carvajal, A., Centeno, C., Watson, R., Martínez, M., & Sanz Rubiales, Á. (2011). ¿Cómo validar un instrumento de medida de la salud? Anales del Sistema Sanitario de Navarra, 34(1), 63–72. https://recyt.fecyt.es/index.php/ASSN/article/view/10317
- Centro Universitario CIFE. (2018). Cuestionario de satisfacción con el instrumento (plantilla). Google Forms. https://docs.google.com/forms/d/e/1FAIpQLSc8-jOiWYwG64QbnhRyGAg1ElTggq2aP1XiSg45pyN9XLbXNQ/viewform
- Centro Universitario CIFE. (2019). Escala Jueces Expertos (plantilla). https://bit.ly/4c2yZ8t
- Chauca Saavedra, C. L., Arones Mayuri, M. E., Quispe Nombreras, V. C., & Olivera Machado, S. H. (2025). Percepción del impacto del aprendizaje de la Inteligencia Artificial en la formación de estudiantes universitarios de la salud. Revista Información Científica. https://doi.org/10.5281/zenodo.15392016
- Comisión Nacional de Bioética. (1947). Código de Nuremberg . https://www.conbioetica-mexico.salud.gob.mx/descargas/pdf/normatividad/normatinternacional/2.INTL._Cod_Nuremberg.pdf
- Conbioética. (1964). Declaración de Helsinki de la AMM. https://conbioetica-mexico.salud.gob.mx/descargas/pdf/Declaracion_Helsinki_Brasil.pdf
- Declaración de Singapur sobre la integridad en la investigación. (2010). https://www.conicyt.cl/fondap/files/2014/12/DECLARACI%C3%93N-SINGAPUR.pdf
- George, D., & Mallery, P. (2019). IBM SPSS Statistics 26 step by step: A simple guide and reference. Routledge. https://doi.org/10.4324/9780429056765
- Holmes, W., Iniesto, F., Anastopoulou, S., & Boticario, J. G. (2023). Stakeholder perspectives on the ethics of AI in distance-based higher education. The International Review of Research in Open and Distributed Learning, 24(2), 96–117. https://doi.org/10.19173/irrodl.v24i2.6089
- IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. (2019). Ethically aligned design: A vision for prioritizing human well-being with artificial intelligence and autonomous systems. IEEE.
- Informe Belmont: Principios y guías éticos para la protección de los sujetos humanos de investigación. (1979). Comisión Nacional para la Protección de los Sujetos Humanos de Investigación Biomédica y del Comportamiento. https://www.conbioetica-mexico.salud.gob.mx/descargas/pdf/normatividad/normatinternacional/10._INTL_Informe_Belmont.pdf
- Juárez-Hernández, L. G. (2018). Plantilla para el cálculo de la V de Aiken e intervalos de confianza.
- Juárez-Hernández, L. G., & Tobón, S. (2018). Análisis de los elementos implícitos en la validación de contenido de un instrumento de investigación. Revista Espacios, 39(53), 23–30. https://www.revistaespacios.com/cited2017/cited2017-23.pdf
- McDonald, R. P. (2013). Test theory: A unified treatment. Psychology Press. https://doi.org/10.4324/9781410601087
- Melo, Z. (2024). Inteligencia artificial en salud: desafíos éticos para lograr la aplicación de las tecnologías a la salud del paciente. Trayectorias Humanas Trascontinentales, (18). https://doi.org/10.25965/trahs.6349
- Montero, I., y León, O. G. (2005). Sistema de clasificación del método en los informes de investigación en psicología. International Journal of Clinical and Health Psychology, 5(1), 115–127. https://www.redalyc.org/pdf/337/33701007.pdf
- Nunnally, J., y Bernstein, I. (1995). Psychometric theory (3.ª ed.). McGraw-Hill.
- Penfield, R. D., & Giacobbi, P. R., Jr. (2004). Applying a score confidence interval to Aiken’s item content-relevance index. Measurement in Physical Education and Exercise Science, 8(4), 213–225. https://doi.org/10.1207/s15327841mpee0804_3
- Robles Zeas, R. M., Serrano Paredes, K. L., & Cruz Gavilanes, T. M. (2024). Uso de inteligencia artificial como soporte para el aprendizaje en las ciencias de la salud. Imaginario Social, 7(1). http://revista-imaginariosocial.com/index.php/es/index
- Rodríguez Weber, F. L., Portela Ortiz, J. M., & Enríquez Barajas, A. (2024). La inteligencia artificial (IA) en la medicina y su aprendizaje. Acta Médica Grupo Ángeles, 22(3), 261–263. https://doi.org/10.35366/117512
- Sallam, M., Salim, N. A., Barakat, M., Al-Mahzoum, K., Al-Tammemi, A. B., Malaeb, D., Hallit, R., & Hallit, S. (2023). Assessing health students’ attitudes and usage of ChatGPT in Jordan: Validation study. JMIR Medical Education, 9(1), Artículo e48254. https://doi.org/10.2196/48254
- Sánchez Mendiola, M. (2025). ¿Autonomía en riesgo? Ética y la dependencia de la inteligencia artificial generativa en la formación médica. Investigación en Educación Médica, 14(53), 5–7. https://doi.org/10.22201/fm.20075057e.2025.53.24670
- UNESCO. (2022). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
- Vélez-Rivera, R., Muñoz-Álvarez, D., Leal-Orellana, P., & Ruiz-Garrido, A. (2024). Uso de Inteligencia Artificial en educación superior y sus implicancias éticas: Mapeo sistemático de literatura. Hachetetepé: Revista Científica de Educación y Comunicación, (28), Artículo 1105. https://doi.org/10.25267/Hachetetepe.2024.i28.1105
- Zinbarg, R. E., Revelle, W., Yovel, I., & Li, W. (2005). Cronbach’s $alpha$, Revelle’s $beta$, and McDonald’s $omega_H$: Their relations with each other and two alternative conceptualizations of reliability. Psychometrika, 70(1), 123–133. https://doi.org/10.1007/s11336-003-0974-7