Saturday, December 21, 2024
HomeSocial Media & InternetCingapura lança diretrizes preliminares sobre uso de dados pessoais em treinamento de...

Cingapura lança diretrizes preliminares sobre uso de dados pessoais em treinamento de IA

Ondas abstratas de dados de IA

Andriy Onufriyenko/Getty Images

Cingapura divulgou rascunhos de diretrizes sobre como os dados pessoais devem ser gerenciados quando usados ​​para treinar modelos e sistemas de inteligência artificial (IA).

O documento descreve como a Lei de Proteção de Dados Pessoais (PDPA) do país será aplicada quando as empresas usarem informações pessoais para desenvolver e treinar seus sistemas de IA, de acordo com a Comissão de Proteção de Dados Pessoais (PDPC), que administra a Lei. As diretrizes também incluem práticas recomendadas para estabelecer transparência sobre como os sistemas de IA usam dados pessoais para tomar decisões, previsões e recomendações.

Também: A IA tem mais probabilidade de causar destruição mundial do que a mudança climática, de acordo com um especialista em IA

As diretrizes, no entanto, não são juridicamente vinculativas e não complementam ou alteram quaisquer leis existentes. Eles analisam problemas e situações, como como as empresas podem se beneficiar das exceções existentes no PDPA no desenvolvimento de modelos ou sistemas de aprendizado de máquina.

As diretrizes também abordam como as organizações podem atender aos requisitos que envolvem consentimento, responsabilidade e notificação ao coletar dados pessoais para sistemas de IA de aprendizado de máquina que facilitam previsões, decisões e recomendações.

O documento também cita quando é adequado que as empresas recorram a duas exceções, para pesquisa e aprimoramento do negócio, sem que seja necessário buscar consentimento para o uso de dados pessoais para treinar modelos de IA.

Também: 6 maneiras prejudiciais de usar o ChatGPT

Exceções de melhoria de negócios podem ser aplicadas quando as empresas desenvolvem um produto ou têm um produto existente que desejam melhorar. Essa exceção também pode ser relevante quando o sistema de IA é usado para potencializar processos de tomada de decisão que melhorem a eficiência operacional ou que ofereçam produtos e serviços personalizados.

Por exemplo, a exceção de melhoria de negócios pode ser aplicada para sistemas internos de recomendações de recursos humanos que são usados ​​para fornecer um primeiro corte de candidatos potenciais para uma função. Também pode ser aplicado no uso de modelos e sistemas de IA ou aprendizado de máquina para fornecer novos recursos que melhorem a competitividade de produtos e serviços.

As organizações, no entanto, terão que garantir que o objetivo de melhoria dos negócios “não possa razoavelmente” ser alcançado sem o uso de dados pessoais de maneira identificável individualmente.

Também: Quão grande é essa IA generativa? Pense na interrupção no nível da Internet

Sob a exceção de pesquisa, as organizações têm permissão para usar dados pessoais para realizar pesquisa e desenvolvimento que podem não ter uma aplicação imediata em produtos e serviços existentes ou operações comerciais. Isso pode incluir trabalho conjunto de pesquisa comercial com outras empresas para desenvolver novos sistemas de IA.

As organizações devem garantir que a pesquisa não possa ser razoavelmente realizada sem o uso de dados pessoais de forma identificável. Também deve haver benefícios públicos claros no uso de dados pessoais para pesquisa, e os resultados da pesquisa não podem ser usados ​​para tomar decisões que afetem o indivíduo. Além disso, os resultados publicados da pesquisa não devem identificar o indivíduo.

As diretrizes também recomendam que as organizações que usam dados pessoais para sistemas de IA realizem uma avaliação de impacto na proteção de dados, que analise a eficácia das medidas de mitigação e remediação de riscos aplicadas aos dados.

Também: A IA poderia automatizar 25% de todos os trabalhos. Veja quais estão em maior risco

Com relação à proteção de dados, as organizações devem incluir processos técnicos apropriados e controles legais ao desenvolver, treinar e monitorar sistemas de IA que usam dados pessoais.

“No contexto do desenvolvimento de sistemas de IA, as organizações devem praticar a minimização de dados como uma boa prática”, afirmam as diretrizes.

“Usar apenas dados pessoais contendo atributos necessários para treinar e melhorar o sistema de IA ou o modelo de aprendizado de máquina também reduzirá a proteção desnecessária de dados e os riscos cibernéticos para o sistema de IA”.

O PDPC está buscando feedback público sobre o projeto de diretrizesque deve ser entregue até 31 de agosto.

Parceria para testar ferramentas de proteção de privacidade

Cingapura também anunciou uma parceria com o Google que permite que as empresas locais testem o uso de “tecnologias de aprimoramento da privacidade” ou o que o governo inventa como PETs.

Apresentando-as como mais ferramentas para ajudar as organizações a criar seus conjuntos de dados, a Ministra de Comunicações e Informações Josephine Teo disse: “Os PETs permitem que as empresas extraiam valor dos conjuntos de dados do consumidor, garantindo a proteção dos dados pessoais. Ao facilitar o compartilhamento de dados, eles também podem ajudar as empresas a desenvolver insights de dados úteis e sistemas de IA”.

O uso de PETs, por exemplo, permite que os bancos coletem dados e construam modelos de IA para detecção de fraude mais eficaz, protegendo a identidade e os dados financeiros de seus clientes, disse Teo.

Para impulsionar a adoção de PETs, a Infocomm Media Development Authority (IMDA) introduziu no ano passado um PET sandbox para oferecer às empresas acesso a subsídios e recursos para desenvolver tais soluções.

Também: ChatGPT é mais uma ‘inteligência alienígena’ do que um cérebro humano, diz futurista

A colaboração com o Google permitirá que as organizações de Cingapura testem seus aplicativos de sandbox de privacidade do Google dentro do sandbox IMDA. Este sistema fornece um ambiente seguro no qual as empresas podem usar ou compartilhar dados sem revelar informações confidenciais, disse o PDPC.

Acrescentou que o IMDA e o sandbox do Google estão disponíveis para empresas com sede em Cingapura e são projetados para adtech, editores e desenvolvedores, entre outros.

Também: Por que suas conversas do ChatGPT podem não ser tão seguras quanto você pensa

De acordo com Teo, a parceria marca a primeira colaboração do Google com um regulador na Ásia-Pacífico para facilitar o teste e a adoção de PETs.

Por meio da iniciativa, as organizações podem ter acesso a um “espaço seguro” para pilotar projetos usando PETs em uma plataforma na qual já operam, disse ela.

“Com a depreciação dos cookies de terceiros, as empresas não podem mais confiar neles para rastrear o comportamento dos consumidores por meio do navegador e precisarão dos PETs como alternativa”, disse ela. “Os consumidores terão a experiência de receber conteúdo mais relevante sem temer que seus dados pessoais sejam comprometidos”.



source – www.zdnet.com

Isenção de responsabilidade: Não somos consultores financeiros. Por favor, faça sua pesquisa antes de investir, nenhum jornalista da Asiafirstnews esteve envolvido na criação deste conteúdo. O grupo também não é responsável por este conteúdo.
Disclaimer: We are not financial advisors. Please do your research before investing, no Asiafirstnews journalists were involved in the creation of this content. The group is also not responsible for this content.

Sandy J
Sandy J
Hi thanks for visiting Asia First News, I am Sandy I will update the daily World and Music News Here, for any queries related to the articles please use the contact page to reach us. :-
ARTIGOS RELACIONADOS

Mais popular