No. 42 (2026): julio-diciembre
Research articles

Content validity and reliability of an instrument on ethics and Artificial Intelligence in health sciences students

Francisco-Raúl Hernández-Burrola Autonomous University of Chihuahua image/svg+xml
Haydeé Parra-Acosta Autonomous University of Chihuahua image/svg+xml

Published 2026-03-09

How to Cite

Hernández-Burrola, F.-R., & Parra-Acosta, H. (2026). Content validity and reliability of an instrument on ethics and Artificial Intelligence in health sciences students. Revista Panamericana De Pedagogía, 42. https://doi.org/10.21555/rpp.3695

Downloads

Download data is not yet available.

Abstract

The increasing integration of artificial intelligence (AI) in health sciences education poses ethical challenges related to academic integrity, data privacy, algorithmic bias, and professional responsibility. Despite this growing relevance, there is a lack of validated instruments that comprehensively assess ethical factors associated with the academic use of AI among university students in health-related fields. The aim of this study was to design and validate an instrument to evaluate ethical factors linked to the academic use of artificial intelligence in health sciences students. An instrumental study was conducted that included the design of the instrument, content validation through expert judgment by 13 specialists using the Expert Judges Scale (Centro Universitario CIFE, 2019), calculation of Aiken’s V coefficient, a pilot test applied to 32 students, and the final application of the instrument to a sample of 313 health sciences students. The items demonstrated adequate content validity (V ≥ 0.75) and high internal consistency, with a Cronbach’s alpha of 0.886 and a McDonald’s Omega of 0.89. Students reported clear instructions, relevant content, and high acceptability of the instrument. In conclusion, the instrument shows solid content validity and adequate reliability, supporting its use in future research aimed at analyzing ethical factors related to the academic use of artificial intelligence in health sciences education.

Keywords

  • Artificial intelligence,
  • Educational evaluation,
  • Ethics,
  • Health sciences students,
  • Higher education

References

  1. Ahmad, S. F., Han, H., Alam, M. M., Rehmat, M. K., Irshad, M., Arraño-Muñoz, M., & Ariza-Montes, A. (2023). Impact of artificial intelligence on human loss in decision making, laziness and safety in education. Humanities and Social Sciences Communications, 10(1), Artículo 311. https://doi.org/10.1057/s41599-023-01787-8
  2. Al-Qerem, W., Eberhardt, J., Jarab, A., Al Bawab, A. Q., Hammad, A., Alasmari, F., Alazab, B., Husein, D. A., Alazab, J., & Al-Beool, S. (2023). Exploring knowledge, attitudes, and practices towards artificial intelligence among health professions’ students in Jordan. BMC Medical Informatics and Decision Making, 23(1), Artículo 288. https://doi.org/10.1186/s12911-023-02403-0
  3. Avello-Sáez, D., Lucero-González, N., & Villagrán, I. (2024). Desarrollo de una declaración de uso de inteligencia artificial con una perspectiva de integridad académica en educación médica y ciencias de la salud. Revista Médica Clínica Las Condes, 35(5–6), 412–420. https://doi.org/10.1016/j.rmclc.2024.06.003
  4. Benítez, R., Cencerrado, A., Gerard, B., & Kanaan, E. S. (2018). Inteligencia artificial avanzada. Editorial UOC. https://openaccess.uoc.edu/server/api/core/bitstreams/509e0233-eefd-44e0-acf7-58582fa65f7a/content
  5. Bulger, S. M., & Housner, L. D. (2007). Modified Delphi investigation of exercise science in physical education teacher education. Journal of Teaching in Physical Education, 26(1), 57–80. https://doi.org/10.1123/jtpe.26.1.57
  6. Cámara de Diputados del H. Congreso de la Unión. (2025, 20 de marzo). Ley Federal de protección de datos personales en posesión de los particulares. Secretaría de Servicios Parlamentarios. https://www.diputados.gob.mx/LeyesBiblio/pdf/LFPDPPP.pdf
  7. Carpenter, S. (2018). Ten steps in scale development and reporting: A guide for researchers. communication methods and measures, 12(1), 25–44. https://doi.org/10.1080/19312458.2017.1396583
  8. Carvajal, A., Centeno, C., Watson, R., Martínez, M., & Sanz Rubiales, Á. (2011). ¿Cómo validar un instrumento de medida de la salud? Anales del Sistema Sanitario de Navarra, 34(1), 63–72. https://recyt.fecyt.es/index.php/ASSN/article/view/10317
  9. Centro Universitario CIFE. (2018). Cuestionario de satisfacción con el instrumento (plantilla). Google Forms. https://docs.google.com/forms/d/e/1FAIpQLSc8-jOiWYwG64QbnhRyGAg1ElTggq2aP1XiSg45pyN9XLbXNQ/viewform
  10. Centro Universitario CIFE. (2019). Escala Jueces Expertos (plantilla). https://bit.ly/4c2yZ8t
  11. Chauca Saavedra, C. L., Arones Mayuri, M. E., Quispe Nombreras, V. C., & Olivera Machado, S. H. (2025). Percepción del impacto del aprendizaje de la Inteligencia Artificial en la formación de estudiantes universitarios de la salud. Revista Información Científica. https://doi.org/10.5281/zenodo.15392016
  12. Comisión Nacional de Bioética. (1947). Código de Nuremberg . https://www.conbioetica-mexico.salud.gob.mx/descargas/pdf/normatividad/normatinternacional/2.INTL._Cod_Nuremberg.pdf
  13. Conbioética. (1964). Declaración de Helsinki de la AMM. https://conbioetica-mexico.salud.gob.mx/descargas/pdf/Declaracion_Helsinki_Brasil.pdf
  14. Declaración de Singapur sobre la integridad en la investigación. (2010). https://www.conicyt.cl/fondap/files/2014/12/DECLARACI%C3%93N-SINGAPUR.pdf
  15. George, D., & Mallery, P. (2019). IBM SPSS Statistics 26 step by step: A simple guide and reference. Routledge. https://doi.org/10.4324/9780429056765
  16. Holmes, W., Iniesto, F., Anastopoulou, S., & Boticario, J. G. (2023). Stakeholder perspectives on the ethics of AI in distance-based higher education. The International Review of Research in Open and Distributed Learning, 24(2), 96–117. https://doi.org/10.19173/irrodl.v24i2.6089
  17. IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. (2019). Ethically aligned design: A vision for prioritizing human well-being with artificial intelligence and autonomous systems. IEEE.
  18. Informe Belmont: Principios y guías éticos para la protección de los sujetos humanos de investigación. (1979). Comisión Nacional para la Protección de los Sujetos Humanos de Investigación Biomédica y del Comportamiento. https://www.conbioetica-mexico.salud.gob.mx/descargas/pdf/normatividad/normatinternacional/10._INTL_Informe_Belmont.pdf
  19. Juárez-Hernández, L. G. (2018). Plantilla para el cálculo de la V de Aiken e intervalos de confianza.
  20. Juárez-Hernández, L. G., & Tobón, S. (2018). Análisis de los elementos implícitos en la validación de contenido de un instrumento de investigación. Revista Espacios, 39(53), 23–30. https://www.revistaespacios.com/cited2017/cited2017-23.pdf
  21. McDonald, R. P. (2013). Test theory: A unified treatment. Psychology Press. https://doi.org/10.4324/9781410601087
  22. Melo, Z. (2024). Inteligencia artificial en salud: desafíos éticos para lograr la aplicación de las tecnologías a la salud del paciente. Trayectorias Humanas Trascontinentales, (18). https://doi.org/10.25965/trahs.6349
  23. Montero, I., y León, O. G. (2005). Sistema de clasificación del método en los informes de investigación en psicología. International Journal of Clinical and Health Psychology, 5(1), 115–127. https://www.redalyc.org/pdf/337/33701007.pdf
  24. Nunnally, J., y Bernstein, I. (1995). Psychometric theory (3.ª ed.). McGraw-Hill.
  25. Penfield, R. D., & Giacobbi, P. R., Jr. (2004). Applying a score confidence interval to Aiken’s item content-relevance index. Measurement in Physical Education and Exercise Science, 8(4), 213–225. https://doi.org/10.1207/s15327841mpee0804_3
  26. Robles Zeas, R. M., Serrano Paredes, K. L., & Cruz Gavilanes, T. M. (2024). Uso de inteligencia artificial como soporte para el aprendizaje en las ciencias de la salud. Imaginario Social, 7(1). http://revista-imaginariosocial.com/index.php/es/index
  27. Rodríguez Weber, F. L., Portela Ortiz, J. M., & Enríquez Barajas, A. (2024). La inteligencia artificial (IA) en la medicina y su aprendizaje. Acta Médica Grupo Ángeles, 22(3), 261–263. https://doi.org/10.35366/117512
  28. Sallam, M., Salim, N. A., Barakat, M., Al-Mahzoum, K., Al-Tammemi, A. B., Malaeb, D., Hallit, R., & Hallit, S. (2023). Assessing health students’ attitudes and usage of ChatGPT in Jordan: Validation study. JMIR Medical Education, 9(1), Artículo e48254. https://doi.org/10.2196/48254
  29. Sánchez Mendiola, M. (2025). ¿Autonomía en riesgo? Ética y la dependencia de la inteligencia artificial generativa en la formación médica. Investigación en Educación Médica, 14(53), 5–7. https://doi.org/10.22201/fm.20075057e.2025.53.24670
  30. UNESCO. (2022). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
  31. Vélez-Rivera, R., Muñoz-Álvarez, D., Leal-Orellana, P., & Ruiz-Garrido, A. (2024). Uso de Inteligencia Artificial en educación superior y sus implicancias éticas: Mapeo sistemático de literatura. Hachetetepé: Revista Científica de Educación y Comunicación, (28), Artículo 1105. https://doi.org/10.25267/Hachetetepe.2024.i28.1105
  32. Zinbarg, R. E., Revelle, W., Yovel, I., & Li, W. (2005). Cronbach’s $alpha$, Revelle’s $beta$, and McDonald’s $omega_H$: Their relations with each other and two alternative conceptualizations of reliability. Psychometrika, 70(1), 123–133. https://doi.org/10.1007/s11336-003-0974-7