Skip to main content

Unfortunately we don't fully support your browser. If you have the option to, please upgrade to a newer version or use Mozilla Firefox, Microsoft Edge, Google Chrome, or Safari 14 or newer. If you are unable to, and need support, please send us your feedback.

We'd appreciate your feedback.Tell us what you think!

Elsevier
Publish with us
Connect

Inteligencia Artificial en la Educación Médica: ética, datos y equidad para docentes y estudiantes

22 de diciembre de 2025

La inteligencia artificial (IA) ya forma parte de la educación y práctica clínica: apoya diagnósticos por imagen, prioriza pacientes, resume literatura y automatiza tareas. Pero no es éticamente neutra. Este artículo publicado por Educación Médica de Elsevier, ofrece un marco claro y accionable para docentes de Medicina y Enfermería sobre: (a) características éticas que deben cumplir los sistemas de IA; (b) uso de datos de salud (primario y secundario, consentimiento y el caso europeo); (c) equidad algorítmica; y (d) responsabilidad profesional en su diseño y uso.

El contenido se basa en consensos internacionales (UNESCO, Recommendation on the Ethics of AI; NAM, AI Code of Conduct; WMA, Declaración de Helsinki), y se contextualiza con la regulación europea. Además, integra la Declaración de la Comisión de Ética y Deontología de la OMC sobre el EHDS.

a) Características éticas de la IA

Aunque la IA sea estadística, las decisiones humanas están en todas las fases del ciclo de vida: elección de datos, objetivos, validación, despliegue, mantenimiento y finalización del sistema. De forma convergente, los principales marcos éticos señalan cinco exigencias:

Principales marcos éticos

Estas exigencias aparecen en la UNESCO Recommendation (valores y principios), y en el AI Code of Conduct de la National Academy of Medicine, que traduce estos valores a compromisos operativos (equidad, monitoreo, rendición de cuentas, participación de las personas afectadas).

b) Los datos en salud: ética del uso, reutilización y consentimiento

La IA necesita datos para aprender y aplicarse en medicina, y los datos de salud son especialmente sensibles porque tocan la intimidad de las personas y suelen obtenerse con fines asistenciales. Estos datos provienen de fuentes privadas y públicas (clínicas, investigación, salud pública, administrativos y actividades sociales/de consumo) y se registran en ámbitos como el clínico, el de laboratorio, el de investigación y el administrativo. Los principios éticos que deben guiar su uso incluyen la calidad de los datos, la confidencialidad, la privacidad, el consentimiento informado para la cesión, la custodia y la transparencia sobre el origen y las finalidades.

Tipos de tratamiento de datos:

  • Codificados / seudonimizados: permiten volver a identificar mediante un código (custodiado por tercero en seudonimización). Siguen siendo datos personales, aunque facilitan análisis.

  • Anonimizados / agregados: datos no atribuibles de forma irreversible a una persona; reducen riesgos, aunque la combinación de conjuntos puede permitir su reidentificación.

Reutilización y perfilado: La reutilización de datos para fines secundarios ofrece oportunidades —nuevas investigaciones, reducción de costes y la posibilidad de combinar bases de datos—, pero también implica riesgos, como el cambio de significado de los datos y posibles usos no previstos. Por ello, los requisitos éticos clave incluyen la adecuación de objetivos, la precisión de los algoritmos, la justificación social y la transparencia, la confidencialidad y la protección de poblaciones vulnerables, así como salvaguardas ante usos comerciales indebidos.

Consentimientos: específico, “broad”, dinámico y cesiones automatizadas:

  • Consentimiento específico (estudio‑a‑estudio) es robusto pero poco operativo en datos masivos.

  • “Broad consent” o consentimiento amplio, facilita la investigación pero se discute su suficiencia informativa.

  • Consentimiento dinámico (DC): interfaz digital que permite actualizar y granularizar preferencias en el tiempo; mejora transparencia y engagement con participantes.

El Espacio Europeo de Datos Sanitarios (EEDS), regulado en 2025 y con implementación prevista para 2027, facilita la circulación de datos de salud en la UE para usos primarios y secundarios (investigación, políticas sanitarias, etc.), con posibles implicaciones de monetización de datos. Predomina un consentimiento presunto para la incorporación al EEDS, y los datos para usos secundarios suelen estar anonimizados, con seudonimizados solo cuando sea necesario. Su gobernanza exige transparencia, supervisión y participación de autoridades y representantes sociales. En cuanto a la IA, la supervisión se soporta en trazabilidad, auditorías y comités legales/éticos, con marcos adaptativos para gestionar riesgos. La privacidad y el derecho a no ser perfilado exigen salvaguardas para evitar vulneraciones de la confidencialidad o discriminación cuando se combinan bases de datos.

Privacidad, confidencialidad y derecho a no ser perfilado

  • Confidencialidad: la información de salud no debe divulgarse sin autorización; la protección de datos genéticos y psiquiátricos es especialmente crítica ante riesgos de estigmatización o discriminación.

  • Desafíos de la combinación de bases de datos: la articulación de múltiples conjuntos de datos puede hacer visibles individuos o grupos; esto refuerza el llamado a salvaguardar la confidencialidad y la no discriminación.

  • Derecho a no ser perfilado: frente al análisis de grandes bases de datos, surge la necesidad de proteger la identidad de grupos y evitar sesgos que afecten a poblaciones enteras.

c) Equidad algorítmica

La equidad algorítmica busca evitar que sesgos históricos, sesgos en la recolección de datos o sesgos introducidos por el diseño del algoritmo afecten a individuos o grupos. Las fuentes de sesgo pueden incluir:

Fuentes de sesgo

Para docentes es clave enfatizar en la formación de equipos que evalúen la representatividad de los datos, transparenten orígenes y contextos y apliquen medidas de mitigación de sesgos. La transparencia sobre el origen de los datos, el contexto y las operaciones realizadas es esencial para sostener la confianza en la práctica clínica y educativa.

d) Responsabilidad profesional y uso de la IA

La IA apoya decisiones clínicas, pero no sustituye el juicio profesional. En Europa, el EU AI Act (Reglamento 2024/1689) impone obligaciones basadas en riesgo —desde prohibiciones hasta requisitos para sistemas de alto riesgo y modelos GPAI—, con cronograma de aplicación escalonado. La responsabilidad se distribuye a lo largo de la cadena (desarrolladores, proveedores, instituciones y usuarios), y las sanciones por incumplimiento pueden ser significativas.

Para tu protocolo docente/servicio:

  • Inventario de sistemas de IA y su clasificación de riesgo.

  • Procedimientos de validación clínica y auditorías de uso.

  • Registro de trazabilidad (decisiones técnicas/humanas) y formación en alfabetización en IA.

Además, se subraya que, aunque la IA puede mejorar los procesos clínicos y docentes, la confianza está en la combinación de evidencia robusta, supervisión ética y responsabilidad profesional. Una mala praxis en IA puede resultar en diagnósticos erróneos, uso excesivo de recursos, violaciones de confidencialidad o degradación de la calidad de la atención.

Conclusiones

La IA no es éticamente neutra y exige competencias formativas que garanticen un uso fiable, tanto técnica como éticamente. Las mejoras que se introduzcan deben respetar los derechos de las personas y contribuir al bien de la sociedad. Aunque existen marcos regulatorios y entidades estatales que guían el desarrollo y la implementación, la responsabilidad ética de cada profesional de la salud y de cada docente es central para evitar brechas digitales y asegurar una atención centrada en el paciente.

La educación en IA debe considerar también las diferencias intergeneracionales entre docentes y entre los pacientes. Es indispensable facilitar la comprensión de qué significan los datos y los procesos de IA para los pacientes y para la ciudadanía, promoviendo una alfabetización que permita entender riesgos, beneficios y limitaciones. En última instancia, son las personas, y no la IA, quienes deben definir la visión, diseñar estrategias y forjar espacios de reflexión ética para promover soluciones que beneficien a individuos y a la salud pública.

Accede al artículo completo aquí.

¿Quieres estar a la vanguardia en educación médica?

Mantente al día con las últimas tendencias y transforma tu enseñanza. Si deseas recibir información sobre nuestro programa Elsevier Docencia, solicitar pruebas de nuestros productos o descubrir cómo innovar en tus clases, ¡regístrate ahora y no pierdas la oportunidad de ser parte del cambio!

Haz clic en el enlace y ¡únete a nuestra comunidad de educadores comprometidos!