A Organização Mundial da Saúde (OMS) publicou um guia com novas orientações sobre ética e governança de grandes modelos multimodais (LMMs), um tipo de tecnologia de inteligência artificial (IA) generativa de rápido crescimento com aplicações em toda a atenção médica.
Os LMMs podem aceitar um ou mais tipos de entradas de dados, como textos, vídeos ou imagens, e gerar diversos resultados que não se limitam ao tipo de dados introduzidos. Além disso, são únicos em sua imitação da comunicação humana e em sua capacidade de realizar tarefas para aquelas que não foram programadas explicitamente. Os LMMs foram adotados mais rápido do que qualquer aplicação de consumo na história.
«As tecnologias de IA generativa têm o potencial de melhorar a atenção à saúde, mas apenas se quiserem desenvolver, regular e utilizar a identificação e se têm plenamente em conta os riscos associados», afirmou o Dr. Jeremy Farrar, chefe científico da OMS. «Precisamos de informações e políticas transparentes para gerenciar o projeto, desenvolver e usar os LMMs para obter melhores resultados e superar as persistentes desigualdades em saúde».
Com esse fim, o novo guia da OMS propõe mais de 40 recomendações dirigidas a governos, empresas de tecnologia e provedores de atenção médica para garantir o uso apropriado dos LMMs. O guia está organizado em cinco aplicativos ampliados dos LMMs para a saúde:
- Diagnóstico e atenção clínica, como responder às consultas escritas dos pacientes;
- Uso orientado pelo paciente, por exemplo para pesquisar sobre sintomas e tratamentos;
- Tarefas administrativas e de escritório, como documentar e resumir as consultas dos pacientes nos prontuários eletrônicos;
- Educação médica e de enfermagem, que inclui proporcionar aos alunos encontros simulados com pacientes;
- Pesquisa científica e desenvolvimento de medicamentos, incluindo a identificação de novos compostos.
Benefícios e riscos
Se bem os LMMs estão começando a ser usados para fins específicos relacionados à saúde, também existem riscos documentados de produzir declarações falsas, inexatas, tendenciosas ou incompletas, que podem prejudicar as pessoas que utilizam estas informações para tomar decisões de saúde. Além disso, os LMMs podem ser treinados com dados de má qualidade ou tendenciosos, como por raça, etnia, ascendência, sexo, identidade de gênero ou idade.
O guia também detalha riscos mais amplos para os sistemas de saúde, como a acessibilidade e a equiparidade dos LMMs de melhor desempenho. Os LMMs também podem fomentar um «viés de automatização» por parte dos profissionais de saúde e dos pacientes, em que erros que de outra forma teriam sido identificados são ignorados ou decisões difíceis são delegadas incorretamente a um LMM. Os LMMs, assim como outras formas de IA, também são vulneráveis a riscos de segurança cibernética que podem colocar em perigo as informações do paciente ou à confiabilidade desses algoritmos e a prestação de atenção médica em geral.
Para criar LLMs seguros e eficazes, a OMS sublinha a necessidade de envolver diversas partes interessadas: governos, empresas de tecnologia, provedores de atenção médica, pacientes e sociedade civil, em todas as etapas do desenvolvimento e aplicação de suas tecnologias, incluindo sua supervisão e regulamentação.
«Os governos de todos os países devem liderar de maneira cooperativa os esforços para regular eficazmente o desenvolvimento e o uso de tecnologias de inteligência artificial, como os LMMs», disse o Dr. Alain Labrique, Diretor de Saúde Digital e Inovação da Divisão de Ciências da OMS.
Recomendações elementares
Entre as recomendações para os governos, o guia sugere:
- Investir ou fornecer infraestrutura pública ou sem fins de lucro.
- Utilizar leis, políticas e regulamentos para garantir que os LMMs e as aplicações utilizadas na atenção médica e na medicina, independentemente do risco ou benefício associado com a tecnologia de IA, cumpram com as obrigações éticas e os padrões de direitos humanos.
- Designar uma agência reguladora para avaliar e aprovar LMMs e aplicativos destinados ao seu uso em atenção médica ou medicina.
- Introduzir auditorias obrigatórias posteriores à liberação e avaliações de impacto, incluindo proteção de dados e direitos humanos, por parte de terceiros independentes quando um LMM for implementado em grande escala.
O guia também inclui recomendações para os desenvolvedores de LMMs, que devem garantir que:
- Os LMMs não foram projetados apenas por cientistas e engenheiros. Os usuários potenciais e todas as partes interessadas diretas e indiretas, incluindo médicos, pesquisadores científicos, profissionais de saúde e pacientes, devem participar desde as primeiras etapas do desenvolvimento da IA em um projeto estruturado, inclusivo e transparente e oferecer oportunidades para apresentar perguntas éticas, expressar preocupações e fornecer informações para a aplicação de IA em questão.
- Os LMMs foram projetados para realizar tarefas bem definidas com a precisão e confiabilidade necessárias para melhorar a capacidade dos sistemas de saúde e promover os interesses dos pacientes. Os desenvolvedores também deveriam poder prever e compreender possíveis resultados secundários.
Fontes:
https://www.who.int/publications/i/item/9789240084759