Publicado: 19 de janeiro de 2024 às 5h35 Atualizado: 19 de janeiro de 2024 às 5h35
Num movimento em direcção à governação ética do avanço da tecnologia generativa de inteligência artificial (IA) nos cuidados de saúde, a Organização Mundial da Saúde (OMS) emitiu orientações abrangentes sobre Grandes Modelos Multimodais (LMMs). Esses modelos, capazes de aceitar diversas entradas de dados, como texto, vídeos e imagens, testemunharam uma adoção sem precedentes, com plataformas como ChatGPT, Bard e Bert entrando na consciência pública em 2023.
As orientações da OMS, que incluem mais de 40 recomendações, visam governos, empresas tecnológicas e prestadores de cuidados de saúde, com o objetivo de garantir a utilização responsável de LMMs para a promoção e proteção da saúde da população. Jeremy Farrar, cientista-chefe da OMS, sublinhou os benefícios potenciais das tecnologias generativas de IA nos cuidados de saúde, mas sublinhou a necessidade de informações e políticas transparentes para gerir os riscos associados.
Os LMMs, conhecidos pela sua imitação da comunicação humana e pela capacidade de realizar tarefas não explicitamente programadas, apresentam cinco aplicações amplas nos cuidados de saúde, conforme descrito pela OMS. Isso inclui diagnóstico e atendimento clínico, uso guiado pelo paciente para investigação de sintomas e tratamento, tarefas administrativas e administrativas em registros eletrônicos de saúde, educação médica e de enfermagem por meio de encontros simulados com pacientes e pesquisa científica e desenvolvimento de medicamentos para identificar novos compostos.
No entanto, a orientação destaca riscos documentados associados aos LMMs, incluindo a produção de informações falsas, imprecisas ou tendenciosas. Isto representa danos potenciais para os indivíduos que dependem de tais informações para tomar decisões críticas de saúde. A qualidade e o preconceito dos dados de formação, relativos a factores como raça, etnia, ascendência, sexo, identidade de género ou idade, podem comprometer a integridade dos resultados do LMM.
Para além dos riscos individuais, a OMS reconhece desafios mais amplos para os sistemas de saúde decorrentes dos LMM. Estas incluem preocupações sobre a acessibilidade e a acessibilidade dos LMMs mais avançados, o potencial “viés de automação” por parte dos profissionais de saúde e dos pacientes, e as vulnerabilidades de segurança cibernética que comprometem as informações dos pacientes e a fiabilidade dos algoritmos de IA na prestação de cuidados de saúde.
É necessário o envolvimento das partes interessadas para a implantação de LLMs
Para enfrentar estes desafios, a OMS enfatiza a necessidade do envolvimento de várias partes interessadas ao longo do desenvolvimento e implantação de LMMs. Os governos, as empresas tecnológicas, os prestadores de cuidados de saúde, os pacientes e a sociedade civil são chamados a participar ativamente na garantia da utilização responsável das tecnologias de IA.
A orientação fornece recomendações específicas aos governos, atribuindo-lhes a responsabilidade primária de estabelecer padrões para o desenvolvimento, implantação e integração de LMMs na saúde pública e nas práticas médicas.
Os governos são instados a investir ou a fornecer infra-estruturas públicas ou sem fins lucrativos, incluindo capacidade computacional e conjuntos de dados públicos, acessíveis a promotores em vários sectores. Esses recursos dependeriam da adesão dos usuários a princípios e valores éticos. Leis, políticas e regulamentos devem ser empregados para garantir que os LMMs na área da saúde cumpram as obrigações éticas e os padrões de direitos humanos, salvaguardando aspectos como dignidade, autonomia e privacidade.
A orientação também sugere a atribuição de agências reguladoras, existentes ou novas, para avaliar e aprovar LMMs e aplicações destinadas ao uso em saúde, dentro das restrições dos recursos disponíveis. Além disso, auditorias obrigatórias pós-lançamento e avaliações de impacto por terceiros independentes são recomendadas para implantações de LMM em larga escala. Estas avaliações devem incluir considerações sobre a proteção de dados e os direitos humanos, com resultados e impactos desagregados por características dos utilizadores, tais como idade, raça ou deficiência.
Os desenvolvedores de LMMs também recebem responsabilidades importantes. São instados a garantir que os potenciais utilizadores e todas as partes interessadas diretas e indiretas, incluindo prestadores de serviços médicos, investigadores científicos, profissionais de saúde e pacientes, estejam envolvidos desde as fases iniciais do desenvolvimento da IA. Processos de design transparentes, inclusivos e estruturados devem permitir que as partes interessadas levantem questões éticas, expressem preocupações e forneçam sugestões.
Além disso, os LMMs devem ser concebidos para executar tarefas bem definidas com a precisão e fiabilidade necessárias para melhorar os sistemas de saúde e promover os interesses dos pacientes. Os desenvolvedores também devem possuir a capacidade de prever e compreender possíveis resultados secundários de suas aplicações de IA.
Isenção de responsabilidade
De acordo com as diretrizes do Trust Project, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometido com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.
Sobre o autor
Kumar é um jornalista de tecnologia experiente com especialização nas interseções dinâmicas de IA/ML, tecnologia de marketing e campos emergentes como criptografia, blockchain e NFTs. Com mais de 3 anos de experiência no setor, Kumar estabeleceu um histórico comprovado na elaboração de narrativas convincentes, na condução de entrevistas perspicazes e no fornecimento de insights abrangentes. A experiência de Kumar reside na produção de conteúdo de alto impacto, incluindo artigos, relatórios e publicações de pesquisa para plataformas importantes do setor. Com um conjunto único de habilidades que combina conhecimento técnico e narrativa, Kumar se destaca na comunicação de conceitos tecnológicos complexos para diversos públicos de maneira clara e envolvente.
Mais artigos
Kumar é um jornalista de tecnologia experiente com especialização nas interseções dinâmicas de IA/ML, tecnologia de marketing e campos emergentes como criptografia, blockchain e NFTs. Com mais de 3 anos de experiência no setor, Kumar estabeleceu um histórico comprovado na elaboração de narrativas convincentes, na condução de entrevistas perspicazes e no fornecimento de insights abrangentes. A experiência de Kumar reside na produção de conteúdo de alto impacto, incluindo artigos, relatórios e publicações de pesquisa para plataformas importantes do setor. Com um conjunto único de habilidades que combina conhecimento técnico e narrativa, Kumar se destaca na comunicação de conceitos tecnológicos complexos para diversos públicos de maneira clara e envolvente.
source – mpost.io