Os cortes de Doge estão sabotando a vantagem da AI da América?

A seguir, é apresentado um post e opinião de Ahmad Shadid, fundador da O.XYZ.

Sob o pretexto frágil de eficiência, o Departamento de Eficiência do Governo (DOGE) está estripando sua força de trabalho. Um relatório independente sugere que Doge reduziu cerca de 222.000 cortes de empregos em março. Os cortes estão atingindo mais as áreas onde os EUA podem menos se dar ao luxo de ficar para trás – inteligência artificial e desenvolvimento de semicondutores.

Agora, a questão maior está além de estripar a força de trabalho – é que o Departamento de Eficiência do Governo de Musk está usando inteligência artificial para bisbilhotar as comunicações dos funcionários federais, caçando qualquer cheiro de deslealdade. Já está rastejando ao redor da EPA.

O Push-Prim-Primeiro de Doge para diminuir as agências federais parece que o Vale do Silício ficou desonesto-grabbing dados, automatizando funções e correndo ferramentas semi-assadas, como o chatbot de “nível interno” da GSA para justificar cortes. É imprudente.

Além disso, de acordo com um relatório – os “tecnólogos” da Doge estão implantando a AI GROK da Musk para monitorar funcionários da Agência de Proteção Ambiental com planos de varrer cortes do governo.

Trabalhadores federais, há muito acostumados a enviar transparência por e-mail devido a leis de registros públicos, agora enfrentam ferramentas hiper-inteligentes dissecando todas as suas palavras.

Como os funcionários federais podem confiar em um sistema em que a vigilância da IA ​​é combinada com demissões de massa? Os Estados Unidos estão silenciosamente à deriva em direção a uma distopia de vigilância, com a inteligência artificial ampliando a ameaça?

Vigilância movida a IA

O modelo de IA treinado nos dados do governo pode ser confiável? Além disso, o uso da IA ​​em uma burocracia complexa convida as armadilhas clássicas: preconceitos – os próprios sinalizadores da página de ajuda da GSA, sem aplicação clara.

A crescente consolidação de informações nos modelos de IA representa uma ameaça crescente à privacidade. Além disso, Musk e Doge também estão violando a Lei de Privacidade de 1974. A Lei de Privacidade de 1974 entrou em vigor durante o escândalo de Watergate, que visava conter o uso indevido de dados controlados pelo governo.

De acordo com a Lei – ninguém, nem mesmo os funcionários especiais do governo – deve acessar os “sistemas de registros” da Agência de Registros sem autorização de acordo com a lei. Agora, o Doge parece estar violando a Lei de Privacidade em nome da eficiência. O esforço pela eficiência do governo vale a pena comprometer a privacidade dos americanos?

A vigilância não é mais apenas sobre câmeras ou palavras -chave. É sobre quem processa os sinais, que é dono dos modelos e que decide o que importa. Sem forte governança pública, essa direção termina com a infraestrutura controlada por empresas que moldam como o governo opera. Define um precedente perigoso. A confiança pública na IA enfraquecerá se as pessoas acreditarem que as decisões são tomadas por sistemas opacos fora do controle democrático. O governo federal deve estabelecer padrões, não os terceirizar.

O que está em jogo?

A National Science Foundation (NSF) reduziu recentemente mais de 150 funcionários, e os relatórios internos sugerem que cortes ainda mais profundos estão chegando. A NSF financia pesquisas críticas de IA e semicondutores em universidades e instituições públicas. Esses programas suportam tudo, desde modelos de aprendizado de máquina fundamentais até inovação de arquitetura de chips. A Casa Branca também está propondo um corte orçamentário de dois terços para a NSF. Isso elimina a própria base que apóia a competitividade americana na IA.

O Instituto Nacional de Padrões e Tecnologia (NIST) está enfrentando danos semelhantes. Quase 500 funcionários do NIST estão no bloco de corte. Isso inclui a maioria das equipes responsáveis ​​pelos programas de incentivo da Lei Chips e estratégias de P&D. O NIST administra o Instituto de Segurança da AI dos EUA e criou a estrutura de gerenciamento de risco de IA.

Doge Feeding Confidencial Public Data para o setor privado?

O envolvimento de Doge também gera uma preocupação mais crítica com a confidencialidade. O departamento obteve um acesso abrangente a registros federais e conjuntos de dados da agência. Os relatórios sugerem que as ferramentas de IA estão vasculhando esses dados para identificar funções para automação. Portanto, a administração agora está deixando os atores privados processarem informações confidenciais sobre operações governamentais, serviços públicos e fluxos de trabalho regulatórios.

Este é um multiplicador de risco. Os sistemas de IA treinados em dados sensíveis precisam de supervisão, não apenas objetivos de eficiência. O movimento muda os dados públicos para mãos privadas sem a política de políticas claras. Ele também abre a porta para sistemas tendenciosos ou imprecisos, tomando decisões que afetam a vida real. Os algoritmos não substituem a responsabilidade.

Não há transparência em torno do que o Data Doge usa, quais modelos que ele implanta ou como as agências validam as saídas. Os trabalhadores federais estão sendo demitidos com base nas recomendações da IA. A lógica, ponderações e suposições desses modelos não estão disponíveis ao público. Isso é um fracasso de governança.

O que esperar?

A vigilância não torna um governo eficiente, sem regras, supervisão ou mesmo transparência básica, apenas gera medo. E quando a inteligência artificial é usada para monitorar a lealdade ou sinalizar palavras como “diversidade”, não estamos simplificando o governo – estamos estripando a confiança nela.

Os trabalhadores federais não deveriam ter que se perguntar se estão sendo vigiados por fazer seu trabalho ou dizer a coisa errada em uma reunião. Isso também destaca a necessidade de modelos de IA melhores e mais confiáveis ​​que podem enfrentar os desafios e padrões específicos necessários no serviço público.

Mencionado neste artigo

source – cryptoslate.com

LEAVE A REPLY

Please enter your comment!
Please enter your name here