OMS alerta para riscos da inteligência artificial na saúde
A Organização Mundial da Saúde (OMS) alertou para possíveis perigos decorrentes do uso de inteligência artificial (IA) na área da saúde, incluindo a disseminação de desinformação, violação de dados pessoais e orientações médicas incorretas. A entidade pediu cautela com relação a plataformas como ChatGPT, Bard, Bert e outras que imitam o processamento e a produção da comunicação humana.
Segundo a OMS, as Ferramentas de Modelos de Linguagem (LLMs, na sigla em inglês), geradas por inteligência artificial, podem representar riscos para o bem-estar humano e a saúde pública. A agência expressou preocupação de que a rápida difusão e uso experimental dessas ferramentas para fins relacionados à saúde não estão sendo devidamente regulados.
A entidade alerta para a necessidade de adesão dessas plataformas a valores como transparência, inclusão, engajamento público, supervisão especializada e avaliação rigorosa.
A OMS reconhece o potencial das LLMs em apoiar profissionais de saúde, pacientes, pesquisadores e cientistas, quando utilizadas corretamente. As plataformas podem ser uma ferramenta de apoio à tomada de decisões médicas e aumentar a capacidade de diagnóstico em ambientes com poucos recursos. O foco, segundo a organização, deve estar em proteger a saúde das pessoas e reduzir a desigualdade.
Contudo, a OMS ressalta que os riscos associados ao uso dessas ferramentas para melhorar o acesso a informações de saúde precisam ser avaliados cuidadosamente. A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes e minar a confiança na inteligência artificial e em tecnologias futuras.
A OMS também alerta que os dados usados para treinar a inteligência artificial podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde, à equidade e à inclusão.
As principais preocupações da OMS incluem:
- LLMs podem gerar respostas que parecem confiáveis e plausíveis para um usuário final, mas que podem estar completamente incorretas ou conter erros graves, especialmente em temas relacionados à saúde.
- LLMs podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente. Essas ferramentas não necessariamente protegem dados confidenciais, incluindo de saúde, que um usuário fornece para gerar uma resposta.
- LLMs podem ser utilizadas para gerar e disseminar desinformação altamente convincente na forma de texto, áudio ou vídeo, dificultando a distinção entre conteúdo falso e confiável pelo público.
Para abordar essas preocupações, a OMS propõe que sejam baseadas em evidências. Uma análise de riscos e benefícios deve preceder o uso generalizado em cuidados de saúde e medicina de rotina, seja por indivíduos, prestadores de serviços e formuladores de políticas.
Com informações da ONU NEWS.