Publicado: 31 de maio de 2024 às 10h40 Atualizado: 31 de maio de 2024 às 10h40
Editado e verificado: 31 de maio de 2024 às 10h40
em resumo
A OpenAI, uma empresa líder em IA, está a abordar preocupações morais e práticas sobre a sua potencial utilização indevida para evitar que os seus modelos sejam abusados.
Nos últimos anos, as preocupações morais e práticas concentraram-se na IA devido ao seu enorme potencial para utilizações benéficas e prejudiciais. Um dos líderes do setor, OpenAI, dedica-se a implementar diretrizes rígidas para impedir o abuso de seus modelos de IA.
Esta dedicação é especialmente importante para identificar e impedir operações de influência encoberta (IO), que são esforços para influenciar a opinião pública ou impactar resultados políticos sem revelar as verdadeiras identidades ou motivações das partes envolvidas. Nos últimos três meses, a OpenAI interferiu em cinco destas atividades, provando o seu compromisso em reduzir o uso indevido da tecnologia de IA.
Avarias inesperadas em operações de influência secreta ultimamente
Em 30 de maio de 2024, a OpenAI fez história ao revelar ao mundo que havia frustrado com sucesso cinco dessas campanhas de influência secreta que vieram do Irã, China, Rússia e até mesmo de uma empresa privada israelense. A empresa publicou um relatório aberto detalhando as investigações meticulosas que expuseram esses esforços maliciosos, que visavam usar os modelos de linguagem de última geração da OpenAI para fraudes na web.
O CEO da OpenAI, Sam Altman, reafirmou a dedicação da empresa em criar aplicações de inteligência confiáveis e seguras. Afirmou também que a empresa está empenhada em implementar regulamentos que impeçam o uso indevido e aumentem a abertura em torno das informações geradas pela IA, com foco particular na identificação e afetação de atividades de influência oculta.
Uma operação específica – apelidada de “Bad Grammar” pelos analistas da OpenAI – veio da Rússia. Num esforço para mudar a percepção do público, os indivíduos por trás desta operação usaram bots do Telegram para executar os modelos da OpenAI e produzir breves comentários sociais em russo e inglês. Esses comentários foram então compartilhados no conhecido aplicativo de bate-papo.
Foto: Comentário público do Telegram correspondente a um texto gerado por esta rede. Relatório de ameaças da Intel
Outra organização chamada “Doppelganger”, adoptou uma estratégia mais internacional, utilizando a IA da OpenAI para criar respostas em diferentes línguas da UE.
O estudo também forneceu informações sobre um sistema chinês conhecido como “Spamouflage”, que utilizou modelos da OpenAI para uma série de aplicações, incluindo a criação de material multilíngue para sites como X, Medium e Blogspot, bem como a investigação de informações públicas. atividade de mídia social. Os pesquisadores até usaram a IA da OpenAI para depurar código de gerenciamento de banco de dados e sites, especialmente um domínio não divulgado anteriormente, que talvez seja o mais preocupante de todos.
Foto: Captura de tela do site revelacum[.]com, mostrando a página intitulada “汉奸” (“traidor”). Relatório de ameaça da Intel
A “União Internacional de Mídia Virtual” (IUVM), uma organização iraniana que usou a IA da OpenAI para criar e interpretar documentos longos, notícias e tags da web, também foi descoberta pelos analistas da organização.
Foto: Tags em artigo publicado pela iuvmpress[.]co. Observe as duas primeiras tags, que incluem a resposta do modelo. Relatório de ameaça da Intel
Inesperadamente, a OpenAI também interferiu nas operações de uma empresa israelense que atendia pelo apelido de “Zero Zeno”. Usando os modelos da OpenAI, o STOIC criou histórias e respostas que foram então compartilhadas em diversas plataformas, como Facebook, Instagram, X e páginas corporativas. Isto pode ter sido feito num esforço para influenciar a opinião pública ou promover objectivos empresariais.
Foto: Comentários em inglês gerados por esta rede e postados no Instagram. Tanto a postagem original quanto as respostas foram geradas por esta campanha. Relatório de ameaça da Intel
A pesquisa destaca que uma ampla gama de temas foi abordada pelas informações distribuídas por essas diferentes organizações. Esta ampla gama de assuntos destaca o quão adaptáveis esses atores de ameaças foram em suas tentativas de usar os modelos de linguagem da OpenAI para seus próprios propósitos malignos.
A OpenAI, no entanto, afirma que, apesar dos seus melhores esforços, estas campanhas de influência secreta não ganharam muito com a utilização dos seus serviços para aumentar a popularidade ou o alcance. Ao avaliar o impacto das OIs, foi utilizada a “Escala de Breakout” da Brookings Institution. Nenhuma das 5 iniciativas recebeu uma pontuação superior a 2, o que significa que as suas atividades foram restritas a algumas plataformas e não penetraram significativamente em grupos online legítimos.
Foto: Os pesquisadores identificaram o seguinte domínio como associado a esta campanha. Relatório de ameaça da Intel
Exame das estratégias do atacante
O artigo da OpenAI também identifica uma série de padrões significativos na forma como esses agentes de ameaças tentaram abusar dos modelos de IA. Para criar a aparência de participação nas redes sociais, todos utilizaram material gerado por IA, além de formatos mais convencionais, como cartas manuscritas ou memes reaproveitados. Além disso, alguns intervenientes demonstraram a adaptabilidade destas tecnologias utilizando IA para aumentar a sua produtividade através da análise de publicações nas redes sociais ou de resolução de problemas de código.
Curiosamente, a empresa destaca os benefícios que a IA oferece às defesas contra esses tipos de ataques. As medidas de segurança da OpenAI, que priorizaram a implantação ética de IA, têm causado consistentemente inconvenientes aos atores da ameaça, recusando-se a fornecer o material destrutivo pretendido. O estudo, por exemplo, detalha situações em que os modelos da empresa se recusaram a gerar os textos ou gráficos desejados, impedindo as tentativas dos operadores de espalhar desinformação ou propaganda.
Além disso, para melhorar as competências de reconhecimento e avaliação e acelerar investigações que poderiam durar semanas ou meses, a OpenAI construiu as suas próprias ferramentas baseadas em IA. A empresa mostrou como a IA pode fortalecer as salvaguardas contra o seu próprio uso malévolo, utilizando a tecnologia exata que pretende proteger.
A OpenAI enfatiza como a cooperação empresarial e o compartilhamento de inteligência de código aberto são cruciais para impedir essas operações clandestinas. Como resultado de anos de estudo de código aberto realizado pela comunidade de investigação em geral, a empresa partilhou indicadores de perigo precisos com os seus pares na indústria e reforçou a ideia de que o combate à desinformação e à manipulação online é um esforço de equipa que requer colaboração entre indústrias.
O futuro curso de segurança da OpenAI
Ao utilizar esta estratégia, a OpenAI procura reforçar o efeito das suas perturbações sobre estes malfeitores, restringindo a sua capacidade de utilizar a tecnologia de IA para atividades ilícitas. De acordo com o artigo, “A distribuição é importante: assim como as formas tradicionais de conteúdo, o material gerado pela IA deve ser distribuído para atingir um público”.
Resumindo, a investigação da OpenAI destaca que estas operações de influência furtiva ainda eram limitadas por variáveis humanas, tais como erros do operador e defeitos de tomada de decisão, mesmo reconhecendo as ameaças potenciais apresentadas pelo abuso da tecnologia de IA. O documento inclui exemplos de operadores que publicam por engano sinais de rejeição dos modelos da OpenAI nos seus websites e redes sociais, expondo as falhas e restrições até mesmo nos esforços de desinformação mais avançados.
Por enquanto, o desmantelamento destas cinco campanhas de influência clandestinas pela OpenAI é uma prova da diligência e do compromisso da empresa em manter a integridade dos seus sistemas de inteligência artificial. No entanto, a luta contra a desinformação e a manipulação online está longe de terminar e, à medida que as tecnologias de IA se desenvolvem, haverá muito mais necessidade de cooperação, criatividade e preocupações éticas.
Isenção de responsabilidade
De acordo com as diretrizes do Trust Project, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometido com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.
Sobre o autor
Viktoriia é escritora sobre uma variedade de tópicos de tecnologia, incluindo Web3.0, IA e criptomoedas. Sua vasta experiência lhe permite escrever artigos perspicazes para um público mais amplo.
Mais artigos
Viktoriia é escritora sobre uma variedade de tópicos de tecnologia, incluindo Web3.0, IA e criptomoedas. Sua vasta experiência lhe permite escrever artigos perspicazes para um público mais amplo.
source – mpost.io