Thursday, October 28, 2021
HomeSocial Media & InternetAI: Banir os algoritmos que ameaçam nossos direitos humanos, diz o chefe...

AI: Banir os algoritmos que ameaçam nossos direitos humanos, diz o chefe da ONU

Como as salvaguardas ainda não foram implementadas para garantir que a tecnologia seja usada de forma responsável, disse o comissário da ONU, os governos devem controlar a inteligência artificial com urgência.

Imagem: picture alliance / Contributor / Getty Images

Os apelos para travar o uso da inteligência artificial e, em alguns casos, banir totalmente a tecnologia estão ficando mais altos. Agora, a chefe de direitos humanos da ONU, Michelle Bachelet, juntou sua voz ao coro de especialistas que estão pedindo aos governos que tomem medidas mais firmes para manter os algoritmos sob controle, em um novo relatório que recomenda moratórias sobre a venda e uso de inteligência artificial para casos de uso de alto risco.

Bachelet também defendeu a proibição de algumas aplicações de IA contrárias ao direito internacional dos direitos humanos, como a pontuação social de indivíduos com base em critérios discriminatórios.

Como as salvaguardas ainda não foram implementadas para garantir que a tecnologia seja usada de forma responsável, disse o comissário da ONU, os governos devem controlar a inteligência artificial com urgência. Sem isso, algoritmos potencialmente prejudiciais aos direitos humanos continuarão a ser implantados sem supervisão, causando mais danos aos cidadãos.

Os algoritmos já estão presentes em todos os aspectos da vida da maioria das pessoas, ressaltou Bachelet, apontando para vários sistemas que atualmente participam de decisões de mudança de vida, como quem consegue serviços públicos, quem consegue um emprego ou o que os usuários podem ver e compartilhar online.

“Não podemos nos dar ao luxo de continuar jogando catch-up em relação à IA – permitindo seu uso com limites ou supervisão limitada ou sem supervisão e lidando com as consequências quase inevitáveis ​​para os direitos humanos após o fato”, disse Bachelet.

Os comentários da comissária da ONU vêm de um relatório realizado por seu escritório para investigar como a IA pode impactar os direitos humanos, como privacidade, saúde, educação, liberdade de movimento ou liberdade de expressão.

Embora se tenha descoberto que a inteligência artificial é, em grande medida, “uma força do bem” que pode ajudar as sociedades e as economias a superar enormes desafios, o relatório também destacou um impacto “inegável e continuamente crescente” da IA ​​sobre certos direitos humanos.

Algoritmos, por exemplo, podem interferir significativamente na privacidade dos usuários. Os sistemas de IA são alimentados com grandes quantidades de dados, incluindo dados pessoais, o que incentiva as organizações a coletar, armazenar e processar informações confidenciais sobre seus usuários ou clientes, às vezes de forma sigilosa. Os sistemas podem, por sua vez, ser usados ​​para fazer previsões sobre a vida pessoal das pessoas, desde o bairro em que vivem até seus padrões de sono.

Existem vários setores onde o uso desses sistemas de IA é particularmente preocupante, de acordo com o relatório. Eles incluem a aplicação da lei, onde os algoritmos podem influenciar a decisão de prender um criminoso, bem como os serviços públicos, onde os modelos de IA podem ajudar a determinar os direitos à previdência social até se uma família deve ser sinalizada para visitas por serviços de creche.

No local de trabalho, o relatório apontou o risco do uso de algoritmos para monitorar e gerenciar os trabalhadores. E online, os sistemas de IA podem ser usados ​​para apoiar as decisões de gerenciamento de conteúdo, o que é fundamental para decidir o tipo de conteúdo a que cada usuário é exposto.

Para muitas dessas aplicações, o risco é duplo. Não apenas o próprio sistema de IA pode estar em desacordo com os direitos humanos básicos, como o direito à privacidade; mas, em alguns casos, quando o algoritmo é tendencioso, a tecnologia também pode tomar decisões discriminatórias.

Por exemplo, os dados usados ​​para informar os sistemas de IA podem ser tendenciosos contra certos grupos, ou podem simplesmente ser defeituosos, desatualizados ou irrelevantes, o que, por sua vez, leva os algoritmos a tomar decisões injustas. É assim que, por exemplo, o algoritmo usado para prever as notas dos alunos no Reino Unido no ano passado acabou atribuindo notas mais altas aos que viviam em áreas mais ricas.

Existem exemplos suficientes de modelos de IA que tomam decisões prejudiciais – e às vezes totalmente erradas – para se preocupar. “O risco de discriminação relacionado às decisões impulsionadas pela IA – decisões que podem mudar, definir ou prejudicar vidas humanas – é muito real. É por isso que é necessário haver avaliação sistemática e monitoramento dos efeitos dos sistemas de IA para identificar e mitigar humanos riscos de direitos “, disse Bachelet.

O relatório da ONU chamou a atenção, em particular, para o uso de algoritmos por estados para fins de vigilância, e especialmente tecnologias biométricas como o reconhecimento facial, que é usado para identificar pessoas em tempo real e à distância, com potencial para permitir rastreamento ilimitado de indivíduos.

Deve haver uma moratória ao uso de tecnologias biométricas em espaços públicos, diz o relatório, até que seja demonstrado que não há problemas com a precisão do algoritmo e que o sistema não tem impacto discriminatório.

Cabe aos governos, portanto, implementar as leis certas para manter o desenvolvimento de ferramentas de IA que possibilitem a vigilância e outros abusos dos direitos humanos sob controle, de acordo com o comissário da ONU.

No início deste ano, por exemplo, a Comissão da UE revelou um projeto de regras sobre inteligência artificial, que catalogava aplicativos de IA com base em diferentes níveis de risco. No topo da pirâmide estavam os casos de uso que vêm com “risco inaceitável”, que violam direitos fundamentais e deveriam ser banidos.

O uso de reconhecimento facial em espaços públicos, disse a Comissão da UE, deve ser proibido, pois viola esses direitos. A decisão, no entanto, veio com várias exceções que foram condenadas por grupos de defesa como permitindo muitas brechas.

source – www.zdnet.com

Sandy J
Hi thanks for visiting Asia First News, I am Sandy I will update the daily World and Music News Here, for any queries related to the articles please use the contact page to reach us. :-
ARTIGOS RELACIONADOS

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Mais popular

x