Skip to main content

Autora: Andrea de la Fuente

La inteligencia artificial (IA) está transformando de manera significativa múltiples sectores de la economía y la administración pública. En el ámbito sanitario, su impacto potencial abarca desde la mejora del diagnóstico y la monitorización clínica hasta la optimización de procesos administrativos y el avance de la investigación biomédica (1,2). Esta expansión implica una responsabilidad proporcional: la necesidad de generar evidencia clínica robusta, garantizar la seguridad y la equidad, y establecer marcos regulatorios que aseguren el cumplimiento de estándares sanitarios y éticos aceptables (3,4). El equilibrio entre innovación y control se configura así como una oportunidad estratégica y, al mismo tiempo, como un reto relevante para gestores, evaluadores y responsables de política sanitaria (2,3).

Beneficios tangibles: ámbitos en los que la IA puede mejorar resultados y eficiencia
La IA ofrece numerosas oportunidades para el sistema sanitario, con potencial para traducirse tanto en mejores resultados en salud como en una asignación más eficiente del gasto sanitario, especialmente cuando su adopción se acompaña de evaluación económica y estudios de impacto en práctica real (1,2,5). Entre los principales ámbitos de contribución destacan (1,2,5):

  • Mejora de la precisión diagnóstica y reducción de errores clínicos mediante modelos de imagen y patología digital.
  • Incremento de la eficiencia operativa a través de la automatización de tareas administrativas y la priorización de recursos asistenciales.
  • Refuerzo de la vigilancia y de la capacidad de respuesta temprana mediante el análisis de flujos de datos heterogéneos.
  • Democratización del acceso a atención clínica especializada mediante el despliegue de herramientas digitales en entornos con escasez de especialistas.

Obstáculos críticos: evidencia, equidad y ética
La incorporación de la IA en el sector salud plantea múltiples retos de distinta naturaleza:

  1. Evidencia y validación: una parte sustancial de la literatura se basa en estudios preclínicos o de simulación que no equivalen a validación clínica. Resulta esencial diferenciar entre rendimiento computacional y beneficio clínico real, utilizando diseños de evaluación adecuados (3,4).
  2. Infraestructura y capacidades: la adopción efectiva requiere sistemas interoperables, gobernanza de datos sólida y profesionales formados en salud digital, aspectos que continúan siendo limitantes en muchas administraciones y centros sanitarios (2,5).
  3. Riesgos de sesgo y falta de equidad: los modelos entrenados con datos no representativos pueden reproducir o amplificar desigualdades existentes, con impacto negativo sobre poblaciones vulnerables (2,6).
  4. Ciberseguridad y privacidad: el tratamiento masivo de datos incrementa los riesgos de reidentificación y de ataques, lo que exige controles técnicos y contractuales estrictos (2,6).
  5. Ética operativa: los principios éticos aplicables a la IA en salud (responsabilidad, autonomía, no maleficencia, equidad, privacidad, transparencia y confianza) requieren una traducción práctica en procesos y decisiones organizativas (6). Esto implica documentar datasets y procesos de entrenamiento, garantizar supervisión humana en decisiones críticas y evaluar de forma sistemática los impactos de las intervenciones algorítmicas (4,6).

Marco regulatorio en Europa: AI Act
La Unión Europea ha adoptado un enfoque regulatorio basado en el riesgo mediante el AI Act, que establece obligaciones diferenciadas en función del nivel de riesgo del sistema y exige transparencia, gestión de riesgos y supervisión para las aplicaciones clasificadas como de alto riesgo (2). Este marco se complementa con el Reglamento de Dispositivos Médicos y con la futura European Health Data Space, que condicionan tanto el uso de datos sanitarios como la comercialización de soluciones clínicas basadas en la IA (2).

De la norma a la práctica: guías AESIA y adaptación al contexto español
En España, existe la Agencia Española de Supervisión de Inteligencia Artificial (AESIA), cuya función es supervisar, regular y garantizar el uso responsable de la inteligencia artificial. Esta agencia ha publicado guías prácticas que ofrecen instrumentos operativos para adaptar los requisitos del AI Act y las obligaciones regulatorias europeas a la práctica nacional. Estas incluyen checklists de gestión de riesgos, criterios de transparencia, requisitos de documentación técnica y recomendaciones para la vigilancia postcomercialización, entre otros (7). Su aplicación facilita a hospitales y agencias evaluadoras la incorporación de criterios de evaluación tecnológica y la exigencia de evidencia clínica proporcional al nivel de riesgo del sistema evaluado (7).

IA en acción en España: casos clínicos y sistemas públicos
En España ya se han desarrollado múltiples experiencias que ilustran la aplicación práctica de la IA en distintos niveles asistenciales (4,8,9). Entre ellas se incluyen:

  • Sistemas de predicción de riesgo y estratificación integrados en historias clínicas electrónicas para priorizar intervenciones en pacientes crónicos (4).
  • Herramientas de detección precoz por imagen (retinopatía diabética, cribado mamográfico asistido) que complementan la labor de especialistas (4).
  • Soluciones de monitorización mediante wearables que permiten seguimiento remoto y generación de alertas tempranas (4,5).
  • Proyectos piloto hospitalarios orientados a optimizar la gestión de camas y recursos durante picos asistenciales, combinando datos demográficos, epidemiológicos y de ocupación para la planificación de vacunaciones y puntos de atención (2,4).
  • Aplicaciones de IA en farmacia hospitalaria orientadas al análisis de grandes volúmenes de datos para apoyar la toma de decisiones clínicas, optimizar procesos farmacoterapéuticos y mejorar la seguridad, eficiencia y calidad de la atención al paciente (8).
  • Iniciativas en atención primaria que exploran el uso de asistentes basados en modelos de lenguaje para el resumen de consultas y el apoyo a la elaboración de informes clínicos, con el objetivo de reducir la carga administrativa (1,4).
  • Aplicaciones en investigación y salud pública que utilizan IA para segmentación poblacional, diseño de campañas de comunicación adaptadas y mejora de la vigilancia epidemiológica mediante el análisis de datos no estructurados (2,4,5).
  • Desarrollos en investigación clínica y patología digital, incluyendo modelos para el análisis de muestras histológicas y la generación de datos sintéticos que preservan la privacidad y facilitan estudios multicéntricos (1,4,6).
  • Herramientas que permiten consultas en lenguaje natural sobre medicamentos de uso humano para ofrecer respuestas inmediatas basadas en información oficial de prospectos, mejorando la accesibilidad, comprensión y transparencia de la información farmacológica para la ciudadanía (9).

Hacia una IA sanitaria responsable: prioridades para los próximos años
El horizonte inmediato exige avanzar de forma coordinada en tres líneas prioritarias (2,3,7):

  1. Fortalecer la evidencia clínica mediante estudios prospectivos y ensayos que midan resultados relevantes para pacientes y sistemas.
  2. Desarrollar capacidades institucionales (infraestructura de datos, formación y unidades de evaluación tecnológica) para integrar la IA en procesos de compra, evaluación y toma de decisiones.
  3. Armonizar gobernanza y auditoría para asegurar equidad, transparencia y seguridad, combinando regulación, auditorías independientes y participación ciudadana.

La IA aplicada a la salud ofrece oportunidades sustantivas para mejorar resultados y eficiencia. No obstante, su adopción responsable depende de la disponibilidad de evidencia robusta, de una gobernanza adecuada de los datos, de la capacitación de los profesionales y de marcos regulatorios ajustados al riesgo. España cuenta ya con herramientas prácticas para orientar la implementación conforme al AI Act, pero su impacto real requerirá una coordinación efectiva entre clínicos, economistas de la salud, agencias evaluadoras y responsables públicos, con el objetivo de transformar el potencial tecnológico en beneficios reales y equitativos para la población (2-4,7).

Referencias
1. Icahn School of Medicine at Mount Sinai. (2023). Frontiers of Medical Research: Artificial Intelligence. Science/AAAS sponsored supplement.

2. Panteli, D., Adib, K., Buttigieg, S., Goiana-da-Silva, F., Ladewig, K., Azzopardi-Muscat, N., Figueras, J., Novillo-Ortiz, D., & McKee, M. (2025). Artificial intelligence in public health: promises, challenges, and an agenda for policy makers and public health institutions. The Lancet. Public health, 10(5), e428–e432. https://doi.org/10.1016/S2468-2667(25)00036-2

3. Kouzy, R., Hong, J. C., & Bitterman, D. S. (2025). One shot at trust: building credible evidence for medical artificial intelligence. The Lancet Digital Health, 7, 100883. https://doi.org/10.1016/j.landig.2025.100883

4. Puchades, R., & Ramos-Ruperto, L.; Grupo de Trabajo de Medicina Digital de la SEMI. (2024). Inteligencia artificial en la práctica clínica: calidad y evidencia. Revista Clínica Española, 225, 23–27. https://doi.org/10.1016/j.rceng.2024.11.001

5. Castaño Castaño, S. (2025). La inteligencia artificial en Salud Pública: oportunidades, retos éticos y perspectivas futuras. Revista Española de Salud Pública, 99, e202503017

6. Ning, Y., Teixayavong, S., Shang, Y., Savulescu, J., et al. (2024). Generative artificial intelligence and ethical considerations in health care: a scoping review and ethics checklist. The Lancet Digital Health, 6, e848–e856. https://doi.org/10.1016/S2589-7500(24)00143-2

7. Agencia Española de Seguridad e Inteligencia Artificial (AESIA). Guías. Gobierno de España. https://aesia.digital.gob.es/es/guias (citado 11 de Febrero 2025).

8. Yared González-Pérez, Alfredo Montero Delgado, Jose Manuel Martinez Sesmero (2024).Acercando la inteligencia artificial a los servicios de farmacia hospitalaria. Farmacia Hospitalaria. Volume 48, Supplement 1, Pages S35-S44. https://doi.org/10.1016/j.farma.2024.02.007

9. Agencia Española de Medicamentos y Productos Sanitarios. (2025). La AEMPS lanza MeQA, una herramienta de IA pionera en la respuesta a preguntas sobre medicamentos de uso humano. AEMPS. https://www.aemps.gob.es/informa/la-aemps-lanza-meqa-una-herramienta-de-ia-pionera-en-la-respuesta-a-preguntas-sobre-medicamentos-de-uso-humano/ (citado 11 de Febrero 2025).