Núm. 42 (2026): julio-diciembre
Artículos de investigación

Validación de contenido y confiabilidad del instrumento: ética e inteligencia artificial en estudiantes en salud

Francisco-Raúl Hernández-Burrola Universidad Autónoma de Chihuahua image/svg+xml
Haydeé Parra-Acosta Universidad Autónoma de Chihuahua image/svg+xml

Publicado 09-03-2026

Cómo citar

Hernández-Burrola, F.-R., & Parra-Acosta, H. (2026). Validación de contenido y confiabilidad del instrumento: ética e inteligencia artificial en estudiantes en salud. Revista Panamericana De Pedagogía, 42. https://doi.org/10.21555/rpp.3695

Descargas

Los datos de descarga todavía no están disponibles.

Resumen

El uso creciente de la inteligencia artificial (IA) en la formación de estudiantes de ciencias de la salud plantea desafíos éticos relacionados con integridad académica, privacidad, sesgos algorítmicos y responsabilidad profesional. Se identificó la ausencia de instrumentos validados para evaluar estos factores en contextos universitarios. El objetivo fue diseñar y validar un instrumento para valorar los factores éticos vinculados al uso académico de la IA en estudiantes de ciencias de la salud. Se efectuó un estudio instrumental que incluyó el diseño inicial del instrumento, valoración de contenido mediante juicio de 13 expertos utilizando la Escala de Jueces Expertos (Centro Universitario CIFE, 2019), el cálculo del coeficiente V de Aiken, una prueba piloto aplicada a 32 estudiantes y la aplicación del instrumento a una muestra de 313 estudiantes. Los ítems mostraron una validez de contenido adecuada (V ≥ 0.75) y se obtuvieron coeficientes de consistencia interna elevados (α = 0.886; Ω = 0.89). Los estudiantes reportaron claridad en las instrucciones, pertinencia de los contenidos y alta aceptabilidad del instrumento. Este instrumento constituye un aporte relevante para la evaluación pedagógica del uso ético de la inteligencia artificial en la educación superior en salud. En conclusión, presenta validez de contenido sólida y confiabilidad adecuada, lo que permite su uso en investigaciones posteriores orientadas a analizar los factores éticos en el uso académico de la inteligencia artificial en la educación en salud.

Palabras clave

  • Educación Superior,
  • Estudiantes de ciencias de la salud,
  • Ética,
  • Evaluación educativa,
  • Inteligencia artificial

Referencias

  1. Ahmad, S. F., Han, H., Alam, M. M., Rehmat, M. K., Irshad, M., Arraño-Muñoz, M., & Ariza-Montes, A. (2023). Impact of artificial intelligence on human loss in decision making, laziness and safety in education. Humanities and Social Sciences Communications, 10(1), Artículo 311. https://doi.org/10.1057/s41599-023-01787-8
  2. Al-Qerem, W., Eberhardt, J., Jarab, A., Al Bawab, A. Q., Hammad, A., Alasmari, F., Alazab, B., Husein, D. A., Alazab, J., & Al-Beool, S. (2023). Exploring knowledge, attitudes, and practices towards artificial intelligence among health professions’ students in Jordan. BMC Medical Informatics and Decision Making, 23(1), Artículo 288. https://doi.org/10.1186/s12911-023-02403-0
  3. Avello-Sáez, D., Lucero-González, N., & Villagrán, I. (2024). Desarrollo de una declaración de uso de inteligencia artificial con una perspectiva de integridad académica en educación médica y ciencias de la salud. Revista Médica Clínica Las Condes, 35(5–6), 412–420. https://doi.org/10.1016/j.rmclc.2024.06.003
  4. Benítez, R., Cencerrado, A., Gerard, B., & Kanaan, E. S. (2018). Inteligencia artificial avanzada. Editorial UOC. https://openaccess.uoc.edu/server/api/core/bitstreams/509e0233-eefd-44e0-acf7-58582fa65f7a/content
  5. Bulger, S. M., & Housner, L. D. (2007). Modified Delphi investigation of exercise science in physical education teacher education. Journal of Teaching in Physical Education, 26(1), 57–80. https://doi.org/10.1123/jtpe.26.1.57
  6. Cámara de Diputados del H. Congreso de la Unión. (2025, 20 de marzo). Ley Federal de protección de datos personales en posesión de los particulares. Secretaría de Servicios Parlamentarios. https://www.diputados.gob.mx/LeyesBiblio/pdf/LFPDPPP.pdf
  7. Carpenter, S. (2018). Ten steps in scale development and reporting: A guide for researchers. communication methods and measures, 12(1), 25–44. https://doi.org/10.1080/19312458.2017.1396583
  8. Carvajal, A., Centeno, C., Watson, R., Martínez, M., & Sanz Rubiales, Á. (2011). ¿Cómo validar un instrumento de medida de la salud? Anales del Sistema Sanitario de Navarra, 34(1), 63–72. https://recyt.fecyt.es/index.php/ASSN/article/view/10317
  9. Centro Universitario CIFE. (2018). Cuestionario de satisfacción con el instrumento (plantilla). Google Forms. https://docs.google.com/forms/d/e/1FAIpQLSc8-jOiWYwG64QbnhRyGAg1ElTggq2aP1XiSg45pyN9XLbXNQ/viewform
  10. Centro Universitario CIFE. (2019). Escala Jueces Expertos (plantilla). https://bit.ly/4c2yZ8t
  11. Chauca Saavedra, C. L., Arones Mayuri, M. E., Quispe Nombreras, V. C., & Olivera Machado, S. H. (2025). Percepción del impacto del aprendizaje de la Inteligencia Artificial en la formación de estudiantes universitarios de la salud. Revista Información Científica. https://doi.org/10.5281/zenodo.15392016
  12. Comisión Nacional de Bioética. (1947). Código de Nuremberg . https://www.conbioetica-mexico.salud.gob.mx/descargas/pdf/normatividad/normatinternacional/2.INTL._Cod_Nuremberg.pdf
  13. Conbioética. (1964). Declaración de Helsinki de la AMM. https://conbioetica-mexico.salud.gob.mx/descargas/pdf/Declaracion_Helsinki_Brasil.pdf
  14. Declaración de Singapur sobre la integridad en la investigación. (2010). https://www.conicyt.cl/fondap/files/2014/12/DECLARACI%C3%93N-SINGAPUR.pdf
  15. George, D., & Mallery, P. (2019). IBM SPSS Statistics 26 step by step: A simple guide and reference. Routledge. https://doi.org/10.4324/9780429056765
  16. Holmes, W., Iniesto, F., Anastopoulou, S., & Boticario, J. G. (2023). Stakeholder perspectives on the ethics of AI in distance-based higher education. The International Review of Research in Open and Distributed Learning, 24(2), 96–117. https://doi.org/10.19173/irrodl.v24i2.6089
  17. IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. (2019). Ethically aligned design: A vision for prioritizing human well-being with artificial intelligence and autonomous systems. IEEE.
  18. Informe Belmont: Principios y guías éticos para la protección de los sujetos humanos de investigación. (1979). Comisión Nacional para la Protección de los Sujetos Humanos de Investigación Biomédica y del Comportamiento. https://www.conbioetica-mexico.salud.gob.mx/descargas/pdf/normatividad/normatinternacional/10._INTL_Informe_Belmont.pdf
  19. Juárez-Hernández, L. G. (2018). Plantilla para el cálculo de la V de Aiken e intervalos de confianza.
  20. Juárez-Hernández, L. G., & Tobón, S. (2018). Análisis de los elementos implícitos en la validación de contenido de un instrumento de investigación. Revista Espacios, 39(53), 23–30. https://www.revistaespacios.com/cited2017/cited2017-23.pdf
  21. McDonald, R. P. (2013). Test theory: A unified treatment. Psychology Press. https://doi.org/10.4324/9781410601087
  22. Melo, Z. (2024). Inteligencia artificial en salud: desafíos éticos para lograr la aplicación de las tecnologías a la salud del paciente. Trayectorias Humanas Trascontinentales, (18). https://doi.org/10.25965/trahs.6349
  23. Montero, I., y León, O. G. (2005). Sistema de clasificación del método en los informes de investigación en psicología. International Journal of Clinical and Health Psychology, 5(1), 115–127. https://www.redalyc.org/pdf/337/33701007.pdf
  24. Nunnally, J., y Bernstein, I. (1995). Psychometric theory (3.ª ed.). McGraw-Hill.
  25. Penfield, R. D., & Giacobbi, P. R., Jr. (2004). Applying a score confidence interval to Aiken’s item content-relevance index. Measurement in Physical Education and Exercise Science, 8(4), 213–225. https://doi.org/10.1207/s15327841mpee0804_3
  26. Robles Zeas, R. M., Serrano Paredes, K. L., & Cruz Gavilanes, T. M. (2024). Uso de inteligencia artificial como soporte para el aprendizaje en las ciencias de la salud. Imaginario Social, 7(1). http://revista-imaginariosocial.com/index.php/es/index
  27. Rodríguez Weber, F. L., Portela Ortiz, J. M., & Enríquez Barajas, A. (2024). La inteligencia artificial (IA) en la medicina y su aprendizaje. Acta Médica Grupo Ángeles, 22(3), 261–263. https://doi.org/10.35366/117512
  28. Sallam, M., Salim, N. A., Barakat, M., Al-Mahzoum, K., Al-Tammemi, A. B., Malaeb, D., Hallit, R., & Hallit, S. (2023). Assessing health students’ attitudes and usage of ChatGPT in Jordan: Validation study. JMIR Medical Education, 9(1), Artículo e48254. https://doi.org/10.2196/48254
  29. Sánchez Mendiola, M. (2025). ¿Autonomía en riesgo? Ética y la dependencia de la inteligencia artificial generativa en la formación médica. Investigación en Educación Médica, 14(53), 5–7. https://doi.org/10.22201/fm.20075057e.2025.53.24670
  30. UNESCO. (2022). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
  31. Vélez-Rivera, R., Muñoz-Álvarez, D., Leal-Orellana, P., & Ruiz-Garrido, A. (2024). Uso de Inteligencia Artificial en educación superior y sus implicancias éticas: Mapeo sistemático de literatura. Hachetetepé: Revista Científica de Educación y Comunicación, (28), Artículo 1105. https://doi.org/10.25267/Hachetetepe.2024.i28.1105
  32. Zinbarg, R. E., Revelle, W., Yovel, I., & Li, W. (2005). Cronbach’s $alpha$, Revelle’s $beta$, and McDonald’s $omega_H$: Their relations with each other and two alternative conceptualizations of reliability. Psychometrika, 70(1), 123–133. https://doi.org/10.1007/s11336-003-0974-7