A Microsoft supostamente bloqueou várias palavras-chave de seu Copilot Designer, alimentado por inteligência artificial (IA), que poderia ser usado para gerar imagens explícitas de natureza violenta e sexual. O exercício de bloqueio de palavras-chave foi conduzido pela gigante da tecnologia depois que um de seus engenheiros escreveu à Comissão Federal de Comércio dos EUA (FTC) e ao conselho de administração da Microsoft expressando preocupações sobre a ferramenta de IA. Notavelmente, em janeiro de 2024, deepfakes explícitos gerados por IA do músico Taylor Swift surgiram online e teriam sido criados usando o Copilot.
Identificado pela primeira vez pela CNBC, termos como “Pro Choice”, “Pro Choce” (com um erro de digitação intencional para enganar a IA) e “Four Twenty”, que anteriormente mostravam resultados, agora são bloqueados pelo Copilot. O uso dessas palavras-chave banidas ou semelhantes também aciona um aviso da ferramenta de IA que diz: “Este prompt foi bloqueado. Nosso sistema sinalizou automaticamente essa solicitação porque ela pode entrar em conflito com nossa política de conteúdo. Mais violações da política podem levar à suspensão automática do seu acesso. Se você acha que isso é um erro, denuncie para nos ajudar a melhorar.” Nós, do Gadgets 360, também conseguimos confirmar isso.
Um porta-voz da Microsoft disse à CNBC: “Estamos monitorando continuamente, fazendo ajustes e implementando controles adicionais para fortalecer ainda mais nossos filtros de segurança e mitigar o uso indevido do sistema”. Esta solução impediu que a ferramenta de IA aceitasse certas solicitações; no entanto, engenheiros sociais, hackers e atores mal-intencionados podem encontrar brechas para gerar outras palavras-chave semelhantes.
De acordo com um relatório separado da CNBC, todas essas instruções destacadas foram mostradas por Shane Jones, um engenheiro da Microsoft, que escreveu uma carta à FTC e ao conselho de administração da empresa expressando suas preocupações com a ferramenta de IA com tecnologia DALL-E 3 na semana passada. . Jones tem compartilhado ativamente suas preocupações e descobertas sobre a geração de imagens inadequadas pela IA desde dezembro de 2023 com a empresa por meio de canais internos.
Mais tarde, ele até fez uma postagem pública no LinkedIn para pedir à OpenAI que retirasse a última iteração do DALL-E para investigação. No entanto, a Microsoft teria solicitado que ele removesse a postagem. O engenheiro também procurou senadores dos EUA e se encontrou com eles sobre o assunto.
source – www.gadgets360.com