Validación de contenido y confiabilidad del instrumento: ética e inteligencia artificial en estudiantes en salud
Publicado 09-03-2026
Cómo citar
Descargas
Derechos de autor 2026 Revista Panamericana de Pedagogía

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
Resumen
El uso creciente de la inteligencia artificial (IA) en la formación de estudiantes de ciencias de la salud plantea desafíos éticos relacionados con integridad académica, privacidad, sesgos algorítmicos y responsabilidad profesional. Se identificó la ausencia de instrumentos validados para evaluar estos factores en contextos universitarios. El objetivo fue diseñar y validar un instrumento para valorar los factores éticos vinculados al uso académico de la IA en estudiantes de ciencias de la salud. Se efectuó un estudio instrumental que incluyó el diseño inicial del instrumento, valoración de contenido mediante juicio de 13 expertos utilizando la Escala de Jueces Expertos (Centro Universitario CIFE, 2019), el cálculo del coeficiente V de Aiken, una prueba piloto aplicada a 32 estudiantes y la aplicación del instrumento a una muestra de 313 estudiantes. Los ítems mostraron una validez de contenido adecuada (V ≥ 0.75) y se obtuvieron coeficientes de consistencia interna elevados (α = 0.886; Ω = 0.89). Los estudiantes reportaron claridad en las instrucciones, pertinencia de los contenidos y alta aceptabilidad del instrumento. Este instrumento constituye un aporte relevante para la evaluación pedagógica del uso ético de la inteligencia artificial en la educación superior en salud. En conclusión, presenta validez de contenido sólida y confiabilidad adecuada, lo que permite su uso en investigaciones posteriores orientadas a analizar los factores éticos en el uso académico de la inteligencia artificial en la educación en salud.
Palabras clave
- Educación Superior,
- Estudiantes de ciencias de la salud,
- Ética,
- Evaluación educativa,
- Inteligencia artificial
Referencias
- Ahmad, S. F., Han, H., Alam, M. M., Rehmat, M. K., Irshad, M., Arraño-Muñoz, M., & Ariza-Montes, A. (2023). Impact of artificial intelligence on human loss in decision making, laziness and safety in education. Humanities and Social Sciences Communications, 10(1), Artículo 311. https://doi.org/10.1057/s41599-023-01787-8
- Al-Qerem, W., Eberhardt, J., Jarab, A., Al Bawab, A. Q., Hammad, A., Alasmari, F., Alazab, B., Husein, D. A., Alazab, J., & Al-Beool, S. (2023). Exploring knowledge, attitudes, and practices towards artificial intelligence among health professions’ students in Jordan. BMC Medical Informatics and Decision Making, 23(1), Artículo 288. https://doi.org/10.1186/s12911-023-02403-0
- Avello-Sáez, D., Lucero-González, N., & Villagrán, I. (2024). Desarrollo de una declaración de uso de inteligencia artificial con una perspectiva de integridad académica en educación médica y ciencias de la salud. Revista Médica Clínica Las Condes, 35(5–6), 412–420. https://doi.org/10.1016/j.rmclc.2024.06.003
- Benítez, R., Cencerrado, A., Gerard, B., & Kanaan, E. S. (2018). Inteligencia artificial avanzada. Editorial UOC. https://openaccess.uoc.edu/server/api/core/bitstreams/509e0233-eefd-44e0-acf7-58582fa65f7a/content
- Bulger, S. M., & Housner, L. D. (2007). Modified Delphi investigation of exercise science in physical education teacher education. Journal of Teaching in Physical Education, 26(1), 57–80. https://doi.org/10.1123/jtpe.26.1.57
- Cámara de Diputados del H. Congreso de la Unión. (2025, 20 de marzo). Ley Federal de protección de datos personales en posesión de los particulares. Secretaría de Servicios Parlamentarios. https://www.diputados.gob.mx/LeyesBiblio/pdf/LFPDPPP.pdf
- Carpenter, S. (2018). Ten steps in scale development and reporting: A guide for researchers. communication methods and measures, 12(1), 25–44. https://doi.org/10.1080/19312458.2017.1396583
- Carvajal, A., Centeno, C., Watson, R., Martínez, M., & Sanz Rubiales, Á. (2011). ¿Cómo validar un instrumento de medida de la salud? Anales del Sistema Sanitario de Navarra, 34(1), 63–72. https://recyt.fecyt.es/index.php/ASSN/article/view/10317
- Centro Universitario CIFE. (2018). Cuestionario de satisfacción con el instrumento (plantilla). Google Forms. https://docs.google.com/forms/d/e/1FAIpQLSc8-jOiWYwG64QbnhRyGAg1ElTggq2aP1XiSg45pyN9XLbXNQ/viewform
- Centro Universitario CIFE. (2019). Escala Jueces Expertos (plantilla). https://bit.ly/4c2yZ8t
- Chauca Saavedra, C. L., Arones Mayuri, M. E., Quispe Nombreras, V. C., & Olivera Machado, S. H. (2025). Percepción del impacto del aprendizaje de la Inteligencia Artificial en la formación de estudiantes universitarios de la salud. Revista Información Científica. https://doi.org/10.5281/zenodo.15392016
- Comisión Nacional de Bioética. (1947). Código de Nuremberg . https://www.conbioetica-mexico.salud.gob.mx/descargas/pdf/normatividad/normatinternacional/2.INTL._Cod_Nuremberg.pdf
- Conbioética. (1964). Declaración de Helsinki de la AMM. https://conbioetica-mexico.salud.gob.mx/descargas/pdf/Declaracion_Helsinki_Brasil.pdf
- Declaración de Singapur sobre la integridad en la investigación. (2010). https://www.conicyt.cl/fondap/files/2014/12/DECLARACI%C3%93N-SINGAPUR.pdf
- George, D., & Mallery, P. (2019). IBM SPSS Statistics 26 step by step: A simple guide and reference. Routledge. https://doi.org/10.4324/9780429056765
- Holmes, W., Iniesto, F., Anastopoulou, S., & Boticario, J. G. (2023). Stakeholder perspectives on the ethics of AI in distance-based higher education. The International Review of Research in Open and Distributed Learning, 24(2), 96–117. https://doi.org/10.19173/irrodl.v24i2.6089
- IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. (2019). Ethically aligned design: A vision for prioritizing human well-being with artificial intelligence and autonomous systems. IEEE.
- Informe Belmont: Principios y guías éticos para la protección de los sujetos humanos de investigación. (1979). Comisión Nacional para la Protección de los Sujetos Humanos de Investigación Biomédica y del Comportamiento. https://www.conbioetica-mexico.salud.gob.mx/descargas/pdf/normatividad/normatinternacional/10._INTL_Informe_Belmont.pdf
- Juárez-Hernández, L. G. (2018). Plantilla para el cálculo de la V de Aiken e intervalos de confianza.
- Juárez-Hernández, L. G., & Tobón, S. (2018). Análisis de los elementos implícitos en la validación de contenido de un instrumento de investigación. Revista Espacios, 39(53), 23–30. https://www.revistaespacios.com/cited2017/cited2017-23.pdf
- McDonald, R. P. (2013). Test theory: A unified treatment. Psychology Press. https://doi.org/10.4324/9781410601087
- Melo, Z. (2024). Inteligencia artificial en salud: desafíos éticos para lograr la aplicación de las tecnologías a la salud del paciente. Trayectorias Humanas Trascontinentales, (18). https://doi.org/10.25965/trahs.6349
- Montero, I., y León, O. G. (2005). Sistema de clasificación del método en los informes de investigación en psicología. International Journal of Clinical and Health Psychology, 5(1), 115–127. https://www.redalyc.org/pdf/337/33701007.pdf
- Nunnally, J., y Bernstein, I. (1995). Psychometric theory (3.ª ed.). McGraw-Hill.
- Penfield, R. D., & Giacobbi, P. R., Jr. (2004). Applying a score confidence interval to Aiken’s item content-relevance index. Measurement in Physical Education and Exercise Science, 8(4), 213–225. https://doi.org/10.1207/s15327841mpee0804_3
- Robles Zeas, R. M., Serrano Paredes, K. L., & Cruz Gavilanes, T. M. (2024). Uso de inteligencia artificial como soporte para el aprendizaje en las ciencias de la salud. Imaginario Social, 7(1). http://revista-imaginariosocial.com/index.php/es/index
- Rodríguez Weber, F. L., Portela Ortiz, J. M., & Enríquez Barajas, A. (2024). La inteligencia artificial (IA) en la medicina y su aprendizaje. Acta Médica Grupo Ángeles, 22(3), 261–263. https://doi.org/10.35366/117512
- Sallam, M., Salim, N. A., Barakat, M., Al-Mahzoum, K., Al-Tammemi, A. B., Malaeb, D., Hallit, R., & Hallit, S. (2023). Assessing health students’ attitudes and usage of ChatGPT in Jordan: Validation study. JMIR Medical Education, 9(1), Artículo e48254. https://doi.org/10.2196/48254
- Sánchez Mendiola, M. (2025). ¿Autonomía en riesgo? Ética y la dependencia de la inteligencia artificial generativa en la formación médica. Investigación en Educación Médica, 14(53), 5–7. https://doi.org/10.22201/fm.20075057e.2025.53.24670
- UNESCO. (2022). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
- Vélez-Rivera, R., Muñoz-Álvarez, D., Leal-Orellana, P., & Ruiz-Garrido, A. (2024). Uso de Inteligencia Artificial en educación superior y sus implicancias éticas: Mapeo sistemático de literatura. Hachetetepé: Revista Científica de Educación y Comunicación, (28), Artículo 1105. https://doi.org/10.25267/Hachetetepe.2024.i28.1105
- Zinbarg, R. E., Revelle, W., Yovel, I., & Li, W. (2005). Cronbach’s $alpha$, Revelle’s $beta$, and McDonald’s $omega_H$: Their relations with each other and two alternative conceptualizations of reliability. Psychometrika, 70(1), 123–133. https://doi.org/10.1007/s11336-003-0974-7