Visando avançar no uso de Inteligência Artificial em seus produtos e serviços de informação em saúde e, simultaneamente, reafirmar seus valores institucionais, como a ética, transparência e responsabilidade, a BIREME/OPAS/OMS estabeleceu um conjunto de diretivas para orientar o desenvolvimento e a adoção de soluções baseadas em IA no âmbito do Centro.
O documento foi elaborado a partir de orientação interna da Organização Pan-Americana da Saúde (OPAS) publicado em 2024, que estabelece princípios éticos e recomendações para o uso responsável da tecnologia, e que faz referência a publicações similares publicadas pela Organização Mundial da Saúde (OMS); e pela Organização das Nações Unidas (ONU). Com isso, o responsável técnico do produto a ser desenvolvido deverá assegurar cumprimento das diretivas estabelecidas pela OMS e OPAS em relação ao uso de modelos de linguagem (LLMs) para a saúde, incluindo o documento Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models.
Na BIREME, a iniciativa dá sequência às ações de incorporação de IA para qualificar desenvolvimentos, priorizar rotas de inovação e impulsionar avanços em produtos e serviços. É fundamentada em governança em aspectos relevantes para o tema de IA, como a proteção de dados, validação humana, registro de versões e análises de risco, assegurando autoria responsável e transparência no uso de Inteligência Artificial.
As diretivas organizadas pela BIREME definem critérios para que o uso de IA seja transparente, seguro e alinhado com os valores da OPAS/OMS. Entre os pontos centrais, destacam-se:
- Proteção de dados: vedada a inserção de dados sensíveis, internos ou identificáveis em plataformas externas sem garantias contratuais adequadas.
- Validação humana obrigatória: resultados de LLMs, como ChatGPT, Gemini, Claude e Copilot, devem ser tratados como rascunhos e revisados por especialistas antes de qualquer uso institucional.
- Documentação e rastreabilidade: cada solução deve manter histórico documentado, incluindo versões de modelos, revisões e validações realizadas.
- Transparência no uso institucional: todo produto baseado em IA deve explicitar limitações, reforçar a necessidade de validação humana e indicar, de forma clara, quando ferramentas de IA foram utilizadas na produção de conteúdos, assegurando a verificação das fontes citadas.
- Autoria e responsabilidade: cada solução deve identificar o(a) responsável técnico por sua criação e manutenção.
- Avaliação de riscos: antes da adoção de qualquer solução, realizar análise de viabilidade e risco que contemple aspectos éticos, de confidencialidade, de custos e de dependência tecnológica.
Com esta iniciativa, a BIREME fortalece seu compromisso com a ética, a transparência e a responsabilidade no o uso da inteligência artificial generativa na saúde. “São diretivas que contribuem com a governança da gestão da informação e consolidam uma base institucional para a inovação responsável”, destacou Marcos Mori, líder da área de desenvolvimentos da BIREME.