Friday, January 10, 2025
HomeNotícias de criptomoedaOMS divulga diretrizes para uso ético de IA generativa na saúde

OMS divulga diretrizes para uso ético de IA generativa na saúde

Num movimento em direcção à governação ética do avanço da tecnologia generativa de inteligência artificial (IA) nos cuidados de saúde, a Organização Mundial da Saúde (OMS) emitiu orientações abrangentes sobre Grandes Modelos Multimodais (LMMs). Esses modelos, capazes de aceitar diversas entradas de dados, como texto, vídeos e imagens, testemunharam uma adoção sem precedentes, com plataformas como ChatGPT, Bard e Bert entrando na consciência pública em 2023.

As orientações da OMS, que incluem mais de 40 recomendações, visam governos, empresas tecnológicas e prestadores de cuidados de saúde, com o objetivo de garantir a utilização responsável de LMMs para a promoção e proteção da saúde da população. Jeremy Farrar, cientista-chefe da OMS, sublinhou os benefícios potenciais das tecnologias generativas de IA nos cuidados de saúde, mas sublinhou a necessidade de informações e políticas transparentes para gerir os riscos associados.

Os LMMs, conhecidos pela sua imitação da comunicação humana e pela capacidade de realizar tarefas não explicitamente programadas, apresentam cinco aplicações amplas nos cuidados de saúde, conforme descrito pela OMS. Isso inclui diagnóstico e atendimento clínico, uso guiado pelo paciente para investigação de sintomas e tratamento, tarefas administrativas e administrativas em registros eletrônicos de saúde, educação médica e de enfermagem por meio de encontros simulados com pacientes e pesquisa científica e desenvolvimento de medicamentos para identificar novos compostos.

No entanto, a orientação destaca riscos documentados associados aos LMMs, incluindo a produção de informações falsas, imprecisas ou tendenciosas. Isto representa danos potenciais para os indivíduos que dependem de tais informações para tomar decisões críticas de saúde. A qualidade e o preconceito dos dados de formação, relativos a factores como raça, etnia, ascendência, sexo, identidade de género ou idade, podem comprometer a integridade dos resultados do LMM.

Para além dos riscos individuais, a OMS reconhece desafios mais amplos para os sistemas de saúde decorrentes dos LMM. Estas incluem preocupações sobre a acessibilidade e a acessibilidade dos LMMs mais avançados, o potencial “viés de automação” por parte dos profissionais de saúde e dos pacientes, e as vulnerabilidades de segurança cibernética que comprometem as informações dos pacientes e a fiabilidade dos algoritmos de IA na prestação de cuidados de saúde.

É necessário o envolvimento das partes interessadas para a implantação de LLMs

Para enfrentar estes desafios, a OMS enfatiza a necessidade do envolvimento de várias partes interessadas ao longo do desenvolvimento e implantação de LMMs. Os governos, as empresas tecnológicas, os prestadores de cuidados de saúde, os pacientes e a sociedade civil são chamados a participar ativamente na garantia da utilização responsável das tecnologias de IA.

A orientação fornece recomendações específicas aos governos, atribuindo-lhes a responsabilidade primária de estabelecer padrões para o desenvolvimento, implantação e integração de LMMs na saúde pública e nas práticas médicas.

Os governos são instados a investir ou a fornecer infra-estruturas públicas ou sem fins lucrativos, incluindo capacidade computacional e conjuntos de dados públicos, acessíveis a promotores em vários sectores. Esses recursos dependeriam da adesão dos usuários a princípios e valores éticos. Leis, políticas e regulamentos devem ser empregados para garantir que os LMMs na área da saúde cumpram as obrigações éticas e os padrões de direitos humanos, salvaguardando aspectos como dignidade, autonomia e privacidade.

A orientação também sugere a atribuição de agências reguladoras, existentes ou novas, para avaliar e aprovar LMMs e aplicações destinadas ao uso em saúde, dentro das restrições dos recursos disponíveis. Além disso, auditorias obrigatórias pós-lançamento e avaliações de impacto por terceiros independentes são recomendadas para implantações de LMM em larga escala. Estas avaliações devem incluir considerações sobre a proteção de dados e os direitos humanos, com resultados e impactos desagregados por características dos utilizadores, tais como idade, raça ou deficiência.

Os desenvolvedores de LMMs também recebem responsabilidades importantes. São instados a garantir que os potenciais utilizadores e todas as partes interessadas diretas e indiretas, incluindo prestadores de serviços médicos, investigadores científicos, profissionais de saúde e pacientes, estejam envolvidos desde as fases iniciais do desenvolvimento da IA. Processos de design transparentes, inclusivos e estruturados devem permitir que as partes interessadas levantem questões éticas, expressem preocupações e forneçam sugestões.

Além disso, os LMMs devem ser concebidos para executar tarefas bem definidas com a precisão e fiabilidade necessárias para melhorar os sistemas de saúde e promover os interesses dos pacientes. Os desenvolvedores também devem possuir a capacidade de prever e compreender possíveis resultados secundários de suas aplicações de IA.

Isenção de responsabilidade

De acordo com as diretrizes do Trust Project, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometido com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.

Sobre o autor

Kumar é um jornalista de tecnologia experiente com especialização nas interseções dinâmicas de IA/ML, tecnologia de marketing e campos emergentes como criptografia, blockchain e NFTs. Com mais de 3 anos de experiência no setor, Kumar estabeleceu um histórico comprovado na elaboração de narrativas convincentes, na condução de entrevistas perspicazes e no fornecimento de insights abrangentes. A experiência de Kumar reside na produção de conteúdo de alto impacto, incluindo artigos, relatórios e publicações de pesquisa para plataformas importantes do setor. Com um conjunto único de habilidades que combina conhecimento técnico e narrativa, Kumar se destaca na comunicação de conceitos tecnológicos complexos para diversos públicos de maneira clara e envolvente.

Mais artigos

cropped 20231105 235601 0000 asiafirstnews
cropped 20231105 235601 0000 asiafirstnews

Kumar é um jornalista de tecnologia experiente com especialização nas interseções dinâmicas de IA/ML, tecnologia de marketing e campos emergentes como criptografia, blockchain e NFTs. Com mais de 3 anos de experiência no setor, Kumar estabeleceu um histórico comprovado na elaboração de narrativas convincentes, na condução de entrevistas perspicazes e no fornecimento de insights abrangentes. A experiência de Kumar reside na produção de conteúdo de alto impacto, incluindo artigos, relatórios e publicações de pesquisa para plataformas importantes do setor. Com um conjunto único de habilidades que combina conhecimento técnico e narrativa, Kumar se destaca na comunicação de conceitos tecnológicos complexos para diversos públicos de maneira clara e envolvente.

source – mpost.io

Isenção de responsabilidade: Não somos consultores financeiros. Por favor, faça sua pesquisa antes de investir, nenhum jornalista da Asiafirstnews esteve envolvido na criação deste conteúdo. O grupo também não é responsável por este conteúdo.
Disclaimer: We are not financial advisors. Please do your research before investing, no Asiafirstnews journalists were involved in the creation of this content. The group is also not responsible for this content.

ARTIGOS RELACIONADOS

Mais popular