Publicado: 30 de outubro de 2023 às 4h19 Atualizado: 30 de outubro de 2023 às 4h21
Editado e verificado:
em resumo
Os líderes das economias do Grupo dos Sete (G7) deverão chegar a acordo sobre um código de conduta para empresas que desenvolvam sistemas avançados de IA.
Os países industrializados do Grupo dos Sete (G7) deverão chegar a acordo sobre um código de conduta para empresas que desenvolvem sistemas avançados de inteligência artificial na próxima semana, conforme apontado num documento do G7.
De acordo com o documento obtido pela Reuters, o código de 11 pontos visa promover uma IA segura, protegida e confiável em todo o mundo, indicando a intenção dos governos que trabalham para mitigar os riscos e o potencial uso indevido da tecnologia.
Os líderes das economias do G7, incluindo Canadá, França, Alemanha, Itália, Japão, Grã-Bretanha e Estados Unidos, juntamente com a União Europeia, estão actualmente a iniciar o processo.
Para compreender o contexto, o processo foi iniciado em Maio deste ano, durante um fórum ministerial denominado “processo de IA de Hiroshima”.
Durante a sua reunião em Hiroshima, no Japão, os líderes do G7 reconheceram a potencial divergência nas abordagens para alcançar a visão e o objetivo partilhados de garantir uma IA confiável. No entanto, sublinharam numa declaração conjunta que os regulamentos que regem as tecnologias digitais, incluindo a IA, devem ser consistentes com os seus princípios democráticos colectivos.
Agora, com o código de conduta voluntário, o objetivo é estabelecer um quadro para a governação da IA nos principais países, abordando questões prementes como as preocupações com a privacidade e os riscos de segurança.
Obriga as empresas a divulgar relatórios sobre IA
O documento oferece orientação voluntária para organizações envolvidas no desenvolvimento dos sistemas de IA mais avançados, incluindo modelos básicos e sistemas de IA generativos.
O documento enfatiza que o código é crucial para aproveitar os benefícios destas tecnologias e, ao mesmo tempo, abordar os riscos e desafios associados. Insta as empresas a tomarem ativamente medidas para identificar, avaliar e mitigar riscos ao longo do ciclo de vida da IA.
Além disso, o código defende a abordagem imediata de incidentes e padrões de uso indevido após o lançamento no mercado de produtos de IA.
Obriga as empresas a divulgar publicamente relatórios sobre as capacidades, limitações, bem como a utilização e potencial utilização indevida de sistemas de IA. O código também sublinha a necessidade de investimentos em controlos de segurança robustos.
UE lidera a “corrida regulamentar”
A União Europeia manteve um papel de liderança na regulação da tecnologia florescente, nomeadamente através da sua robusta Lei da IA. Por outro lado, países como o Japão, os Estados Unidos e várias nações do Sudeste Asiático adoptaram uma postura mais branda em comparação com a UE, concentrando-se no estímulo à expansão económica.
Vera Jourova, chefe digital da Comissão Europeia, discursou num fórum sobre governação da Internet em Quioto, no Japão, no início deste mês. Ela destacou a importância do Código de Conduta como um quadro robusto para garantir a segurança, posicionando-o como uma medida provisória até que regulamentos abrangentes sejam firmemente estabelecidos.
Isenção de responsabilidade
Quaisquer dados, textos ou outros conteúdos desta página são fornecidos como informações gerais de mercado e não como conselhos de investimento. O desempenho passado não é necessariamente um indicador de resultados futuros.
O Trust Project é um grupo mundial de organizações de notícias que trabalha para estabelecer padrões de transparência.
source – mpost.io