
Compartimos los principales aprendizajes de una conversación convocada por la Alianza para la Investigación en Políticas y Sistemas de Salud de la OMS sobre el uso responsable y equitativo de la inteligencia artificial en la investigación, en políticas y sistemas de salud. La nota destaca oportunidades concretas y salvaguardas clave (gobernanza, equidad y soberanía de datos), con la participación de Gabriel Rada, director de Fundación Epistemonikos.

28|DECEMBER|2025
Inteligencia artificial responsable para la investigación en políticas y sistemas de salud: oportunidades reales, con salvaguardas claras
Compartimos los principales aprendizajes de una conversación convocada por la Alianza para la Investigación en Políticas y Sistemas de Salud de la OMS sobre el uso responsable y equitativo de la inteligencia artificial en la investigación, en políticas y sistemas de salud. La nota destaca oportunidades concretas y salvaguardas clave (gobernanza, equidad y soberanía de datos), con la participación de Gabriel Rada, director de Fundación Epistemonikos.
La Alianza para la Investigación en Políticas y Sistemas de Salud de la OMS convocó, a fines de septiembre de 2025 en Montreux, Suiza, a un grupo de expertos para discutir cómo integrar la inteligencia artificial (IA) de manera responsable y equitativa en la investigación en políticas y sistemas de salud (IPSS), especialmente en países de ingresos bajos y medianos.
El director de Fundación Epistemonikos, Gabriel Rada, fue uno de los expertos convocados para aportar desde su experiencia, tanto como investigador en Políticas y Sistemas de Salud como desde los desarrollos de Epistemonikos, en particular la Plataforma para el Conocimiento Sostenible y el Sistema de Evidencia de Extremo a Extremo (E2E Evidence), que utilizan inteligencia artificial avanzada con especial atención a la transparencia y la rigurosidad.
Por qué importa la IA en la IPSS
A diferencia de otros campos, en la IPSS la equidad y el enfoque participativo tienen un rol central en los procesos de política pública. Por eso, la IA puede ser muy útil, pero su adopción requiere resguardos adicionales para evitar aumentar las brechas existentes y asegurar su legitimidad.
Qué oportunidades se ven más prometedoras
En la reunión se destacó el potencial de la IA para:
-
Ampliar capacidades: reducir barreras de entrada para equipos pequeños y facilitar mentoría, aprendizaje entre pares y colaboración multilingüe.
-
Fortalecer la traducción de evidencia a políticas: apoyar resúmenes de política multilingües y productos más accesibles, sin perder de vista que el juicio humano y la negociación política siguen siendo centrales.
Tres condiciones para un uso responsable
Un punto transversal fue que la IA debe responder a necesidades reales del sistema de salud y del trabajo investigativo, con foco en equidad. En ese marco, emergieron tres temas críticos:
-
Gobernanza: reglas claras sobre cómo se construyen, usan y evalúan estas herramientas.
-
Equidad: evitar que la IA profundice desigualdades en capacidades, acceso o representación.
-
Soberanía de datos: reducir la dependencia de pocas plataformas globales, fortaleciendo redes regionales y marcos compartidos.
La contribución de Epistemonikos: IA con rigor metodológico
Gabriel Rada compartió cómo las revisiones sistemáticas ya están siendo aceleradas por IA, destacando un principio metodológico esencial: si la IA se usa para “resumir estudios” sin un método riguroso, los resultados no son confiables; la IA debe integrarse a métodos rigurosos, no reemplazarlos.
Esta mirada se alinea con nuestra visión de conocimiento sostenible: innovación que mejora eficiencia y acceso, sin transar calidad, trazabilidad y control de sesgos.
Cómo lo aterrizamos en Epistemonikos: de la búsqueda a la selección, con IA y control metodológico
En Epistemonikos ya aplicamos IA en etapas críticas del proceso de síntesis, especialmente donde se concentra gran parte del costo y del tiempo. Por ejemplo, en nuestras herramientas combinamos apoyo automatizado con criterios metodológicos explícitos para mejorar la eficiencia sin perder transparencia.
Utilizamos IA para apoyar la construcción de estrategias de búsqueda, para asistir en la selección de estudio, en la evaluación del riesgo de sesgo y en la extracción de datos. En todos los casos, el principio es el mismo: la IA acelera y ordena, pero la decisión final y la validación metodológica siguen en manos del equipo revisor.
Un hito concreto: el buscador con IA de la Alliance
La consulta coincidió con el lanzamiento del Alliance HPSR search tool, una herramienta de búsqueda con IA para encontrar y comprender evidencia en publicaciones apoyadas por la Alliance y artículos open access. La propia plataforma advierte que las respuestas generadas por IA pueden ser incompletas o inexactas, y recomienda verificar siempre el contexto y las fuentes originales.
Qué viene ahora
La Alliance señaló que este encuentro es un paso inicial: los aprendizajes informarán un reporte a publicarse en 2026 sobre cómo desplegar IA de forma responsable y equitativa en HPSR.
Enlaces de interés: