Saltar al contenido principal

Lamentablemente no somos totalmente compatibles con su navegador. Si tiene la opción, actualice a una versión más reciente o utilice Mozilla Firefox, Microsoft Edge, Google Chrome o Safari 14 o posterior. Si no puede y necesita ayuda, envíenos sus comentarios.

Agradeceríamos sus comentarios sobre esta nueva experiencia.Díganos qué piensa

Elsevier
Publique con nosotros
Connect

Inteligencia Artificial en la Educación Médica: ética, datos y equidad para docentes y estudiantes

22 de diciembre de 2025

La inteligencia artificial (IA) ya forma parte de la educación y práctica clínica: apoya diagnósticos por imagen, prioriza pacientes, resume literatura y automatiza tareas. Pero no es éticamente neutra. Este artículo publicado por Educación Médica de Elsevier, ofrece un marco claro y accionable para docentes de Medicina y Enfermería sobre: (a) características éticas que deben cumplir los sistemas de IA; (b) uso de datos de salud (primario y secundario, consentimiento y el caso europeo); (c) equidad algorítmica; y (d) responsabilidad profesional en su diseño y uso.

El contenido se basa en consensos internacionales (UNESCO, Recommendation on the Ethics of AI; NAM, AI Code of Conduct; WMA, Declaración de Helsinki), y se contextualiza con la regulación europea. Además, integra la Declaración de la Comisión de Ética y Deontología de la OMC sobre el EHDS.

a) Características éticas de la IA

Aunque la IA sea estadística, las decisiones humanas están en todas las fases del ciclo de vida: elección de datos, objetivos, validación, despliegue, mantenimiento y finalización del sistema. De forma convergente, los principales marcos éticos señalan cinco exigencias:

Principales marcos éticos

Estas exigencias aparecen en la UNESCO Recommendation (valores y principios), y en el AI Code of Conduct de la National Academy of Medicine, que traduce estos valores a compromisos operativos (equidad, monitoreo, rendición de cuentas, participación de las personas afectadas).

b) Los datos en salud: ética del uso, reutilización y consentimiento

La IA necesita datos para aprender y aplicarse en medicina, y los datos de salud son especialmente sensibles porque tocan la intimidad de las personas y suelen obtenerse con fines asistenciales. Estos datos provienen de fuentes privadas y públicas (clínicas, investigación, salud pública, administrativos y actividades sociales/de consumo) y se registran en ámbitos como el clínico, el de laboratorio, el de investigación y el administrativo. Los principios éticos que deben guiar su uso incluyen la calidad de los datos, la confidencialidad, la privacidad, el consentimiento informado para la cesión, la custodia y la transparencia sobre el origen y las finalidades.

Tipos de tratamiento de datos:

  • Codificados / seudonimizados: permiten volver a identificar mediante un código (custodiado por tercero en seudonimización). Siguen siendo datos personales, aunque facilitan análisis.

  • Anonimizados / agregados: datos no atribuibles de forma irreversible a una persona; reducen riesgos, aunque la combinación de conjuntos puede permitir su reidentificación.

Reutilización y perfilado: La reutilización de datos para fines secundarios ofrece oportunidades —nuevas investigaciones, reducción de costes y la posibilidad de combinar bases de datos—, pero también implica riesgos, como el cambio de significado de los datos y posibles usos no previstos. Por ello, los requisitos éticos clave incluyen la adecuación de objetivos, la precisión de los algoritmos, la justificación social y la transparencia, la confidencialidad y la protección de poblaciones vulnerables, así como salvaguardas ante usos comerciales indebidos.

Consentimientos: específico, “broad”, dinámico y cesiones automatizadas:

  • Consentimiento específico (estudio‑a‑estudio) es robusto pero poco operativo en datos masivos.

  • “Broad consent” o consentimiento amplio, facilita la investigación pero se discute su suficiencia informativa.

  • Consentimiento dinámico (DC): interfaz digital que permite actualizar y granularizar preferencias en el tiempo; mejora transparencia y engagement con participantes.

El Espacio Europeo de Datos Sanitarios (EEDS), regulado en 2025 y con implementación prevista para 2027, facilita la circulación de datos de salud en la UE para usos primarios y secundarios (investigación, políticas sanitarias, etc.), con posibles implicaciones de monetización de datos. Predomina un consentimiento presunto para la incorporación al EEDS, y los datos para usos secundarios suelen estar anonimizados, con seudonimizados solo cuando sea necesario. Su gobernanza exige transparencia, supervisión y participación de autoridades y representantes sociales. En cuanto a la IA, la supervisión se soporta en trazabilidad, auditorías y comités legales/éticos, con marcos adaptativos para gestionar riesgos. La privacidad y el derecho a no ser perfilado exigen salvaguardas para evitar vulneraciones de la confidencialidad o discriminación cuando se combinan bases de datos.

Privacidad, confidencialidad y derecho a no ser perfilado

  • Confidencialidad: la información de salud no debe divulgarse sin autorización; la protección de datos genéticos y psiquiátricos es especialmente crítica ante riesgos de estigmatización o discriminación.

  • Desafíos de la combinación de bases de datos: la articulación de múltiples conjuntos de datos puede hacer visibles individuos o grupos; esto refuerza el llamado a salvaguardar la confidencialidad y la no discriminación.

  • Derecho a no ser perfilado: frente al análisis de grandes bases de datos, surge la necesidad de proteger la identidad de grupos y evitar sesgos que afecten a poblaciones enteras.

c) Equidad algorítmica

La equidad algorítmica busca evitar que sesgos históricos, sesgos en la recolección de datos o sesgos introducidos por el diseño del algoritmo afecten a individuos o grupos. Las fuentes de sesgo pueden incluir:

Fuentes de sesgo

Para docentes es clave enfatizar en la formación de equipos que evalúen la representatividad de los datos, transparenten orígenes y contextos y apliquen medidas de mitigación de sesgos. La transparencia sobre el origen de los datos, el contexto y las operaciones realizadas es esencial para sostener la confianza en la práctica clínica y educativa.

d) Responsabilidad profesional y uso de la IA

La IA apoya decisiones clínicas, pero no sustituye el juicio profesional. En Europa, el EU AI Act (Reglamento 2024/1689) impone obligaciones basadas en riesgo —desde prohibiciones hasta requisitos para sistemas de alto riesgo y modelos GPAI—, con cronograma de aplicación escalonado. La responsabilidad se distribuye a lo largo de la cadena (desarrolladores, proveedores, instituciones y usuarios), y las sanciones por incumplimiento pueden ser significativas.

Para tu protocolo docente/servicio:

  • Inventario de sistemas de IA y su clasificación de riesgo.

  • Procedimientos de validación clínica y auditorías de uso.

  • Registro de trazabilidad (decisiones técnicas/humanas) y formación en alfabetización en IA.

Además, se subraya que, aunque la IA puede mejorar los procesos clínicos y docentes, la confianza está en la combinación de evidencia robusta, supervisión ética y responsabilidad profesional. Una mala praxis en IA puede resultar en diagnósticos erróneos, uso excesivo de recursos, violaciones de confidencialidad o degradación de la calidad de la atención.

Conclusiones

La IA no es éticamente neutra y exige competencias formativas que garanticen un uso fiable, tanto técnica como éticamente. Las mejoras que se introduzcan deben respetar los derechos de las personas y contribuir al bien de la sociedad. Aunque existen marcos regulatorios y entidades estatales que guían el desarrollo y la implementación, la responsabilidad ética de cada profesional de la salud y de cada docente es central para evitar brechas digitales y asegurar una atención centrada en el paciente.

La educación en IA debe considerar también las diferencias intergeneracionales entre docentes y entre los pacientes. Es indispensable facilitar la comprensión de qué significan los datos y los procesos de IA para los pacientes y para la ciudadanía, promoviendo una alfabetización que permita entender riesgos, beneficios y limitaciones. En última instancia, son las personas, y no la IA, quienes deben definir la visión, diseñar estrategias y forjar espacios de reflexión ética para promover soluciones que beneficien a individuos y a la salud pública.

Accede al artículo completo aquí.

¿Quieres estar a la vanguardia en educación médica?

Mantente al día con las últimas tendencias y transforma tu enseñanza. Si deseas recibir información sobre nuestro programa Elsevier Docencia, solicitar pruebas de nuestros productos o descubrir cómo innovar en tus clases, ¡regístrate ahora y no pierdas la oportunidad de ser parte del cambio!

Haz clic en el enlace y ¡únete a nuestra comunidad de educadores comprometidos!