Boletín BIREME n. 102

Productos y Servicios de Información y el uso de IA

Con el fin de avanzar en el uso de la Inteligencia Artificial en sus productos y servicios de información en salud y, al mismo tiempo, reafirmar sus valores institucionales, como la ética, la transparencia y la responsabilidad, BIREME/OPS/OMS ha establecido un conjunto de directivas para orientar el desarrollo y la adopción de soluciones basadas en IA en el ámbito del Centro.

El documento se elaboró a partir de la guia interna compartida por la Organización Panamericana de la Salud (OPS) en 2024, que establece principios éticos y recomendaciones para el uso responsable de la tecnología, y que hace referencia a publicaciones similares publicadas por la Organización Mundial de la Salud (OMS); y por la Organización de las Naciones Unidas (ONU). Con ello, el responsable técnico del producto que se va a desarrollar deberá garantizar el cumplimiento de las directrices establecidas por la OMS y la OPS en relación con el uso de modelos de lenguaje (LLM) para la salud, incluido el documento Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models.

En BIREME, la iniciativa da continuidad a las acciones de incorporación de la IA para calificar desarrollos, priorizar rutas de innovación e impulsar avances en productos y servicios. Se basa en la gobernanza en aspectos relevantes para el tema de la IA, como la protección de datos, la validación humana, el registro de versiones y los análisis de riesgo, garantizando la autoría responsable y la transparencia en el uso de la Inteligencia Artificial.

Las directrices organizadas por BIREME definen criterios para que el uso de la IA sea transparente, seguro y esté alineado con los valores de la OPS/OMS. Entre los puntos centrales, se destacan:

  • Protección de datos: se prohíbe la introducción de datos sensibles, internos o identificables en plataformas externas sin las garantías contractuales adecuadas.
  • Validación humana obligatoria: los resultados de los LLM, como ChatGPT, Gemini, Claude y Copilot, deben tratarse como borradores y ser revisados por expertos antes de cualquier uso institucional.
  • Documentación y trazabilidad: cada solución debe mantener un historial documentado, incluyendo versiones de modelos, revisiones y validaciones realizadas.
  • Transparencia en el uso institucional: todo producto basado en IA debe explicitar sus limitaciones, reforzar la necesidad de validación humana e indicar claramente cuándo se han utilizado herramientas de IA en la producción de contenidos, asegurando la verificación de las fuentes citadas.
  • Autoría y responsabilidad: cada solución debe identificar al responsable técnico de su creación y mantenimiento.
  • Evaluación de riesgos: antes de adoptar cualquier solución, realizar un análisis de viabilidad y riesgo que contemple aspectos éticos, de confidencialidad, de costos y de dependencia tecnológica.

Con esta iniciativa, BIREME refuerza su compromiso con la ética, la transparencia y la responsabilidad en el uso de la inteligencia artificial generativa en la salud. “Son directrices que contribuyen a la gobernanza de la gestión de la información y consolidan una base institucional para la innovación responsable”, destacó Marcos Mori, líder del área de desarrollos de BIREME.

Leave a Reply

Your email address will not be published. Required fields are marked *