Sunday, November 17, 2024
HomeNotícias de criptomoedaOpenAI expõe e impede 5 operações de influência maliciosa que aproveitam a...

OpenAI expõe e impede 5 operações de influência maliciosa que aproveitam a tecnologia de IA

em resumo

A OpenAI, uma empresa líder em IA, está a abordar preocupações morais e práticas sobre a sua potencial utilização indevida para evitar que os seus modelos sejam abusados.

Nos últimos anos, as preocupações morais e práticas concentraram-se na IA devido ao seu enorme potencial para utilizações benéficas e prejudiciais. Um dos líderes do setor, OpenAI, dedica-se a implementar diretrizes rígidas para impedir o abuso de seus modelos de IA.

Esta dedicação é especialmente importante para identificar e impedir operações de influência encoberta (IO), que são esforços para influenciar a opinião pública ou impactar resultados políticos sem revelar as verdadeiras identidades ou motivações das partes envolvidas. Nos últimos três meses, a OpenAI interferiu em cinco destas atividades, provando o seu compromisso em reduzir o uso indevido da tecnologia de IA.

Avarias inesperadas em operações de influência secreta ultimamente

Em 30 de maio de 2024, a OpenAI fez história ao revelar ao mundo que havia frustrado com sucesso cinco dessas campanhas de influência secreta que vieram do Irã, China, Rússia e até mesmo de uma empresa privada israelense. A empresa publicou um relatório aberto detalhando as investigações meticulosas que expuseram esses esforços maliciosos, que visavam usar os modelos de linguagem de última geração da OpenAI para fraudes na web.

O CEO da OpenAI, Sam Altman, reafirmou a dedicação da empresa em criar aplicações de inteligência confiáveis ​​e seguras. Afirmou também que a empresa está empenhada em implementar regulamentos que impeçam o uso indevido e aumentem a abertura em torno das informações geradas pela IA, com foco particular na identificação e afetação de atividades de influência oculta.

Uma operação específica – apelidada de “Bad Grammar” pelos analistas da OpenAI – veio da Rússia. Num esforço para mudar a percepção do público, os indivíduos por trás desta operação usaram bots do Telegram para executar os modelos da OpenAI e produzir breves comentários sociais em russo e inglês. Esses comentários foram então compartilhados no conhecido aplicativo de bate-papo.


A OpenAI, uma empresa líder em IA, está a abordar preocupações morais e práticas sobre a sua potencial utilização indevida para evitar que os seus modelos sejam abusados.

Foto: Comentário público do Telegram correspondente a um texto gerado por esta rede. Relatório de ameaças da Intel

Outra organização chamada “Doppelganger”, adoptou uma estratégia mais internacional, utilizando a IA da OpenAI para criar respostas em diferentes línguas da UE.

O estudo também forneceu informações sobre um sistema chinês conhecido como “Spamouflage”, que utilizou modelos da OpenAI para uma série de aplicações, incluindo a criação de material multilíngue para sites como X, Medium e Blogspot, bem como a investigação de informações públicas. atividade de mídia social. Os pesquisadores até usaram a IA da OpenAI para depurar código de gerenciamento de banco de dados e sites, especialmente um domínio não divulgado anteriormente, que talvez seja o mais preocupante de todos.


A OpenAI, uma empresa líder em IA, está a abordar preocupações morais e práticas sobre a sua potencial utilização indevida para evitar que os seus modelos sejam abusados.

Foto: Captura de tela do site revelacum[.]com, mostrando a página intitulada “汉奸” (“traidor”). Relatório de ameaça da Intel

A “União Internacional de Mídia Virtual” (IUVM), uma organização iraniana que usou a IA da OpenAI para criar e interpretar documentos longos, notícias e tags da web, também foi descoberta pelos analistas da organização.


A OpenAI, uma empresa líder em IA, está a abordar preocupações morais e práticas sobre a sua potencial utilização indevida para evitar que os seus modelos sejam abusados.

Foto: Tags em artigo publicado pela iuvmpress[.]co. Observe as duas primeiras tags, que incluem a resposta do modelo. Relatório de ameaça da Intel

Inesperadamente, a OpenAI também interferiu nas operações de uma empresa israelense que atendia pelo apelido de “Zero Zeno”. Usando os modelos da OpenAI, o STOIC criou histórias e respostas que foram então compartilhadas em diversas plataformas, como Facebook, Instagram, X e páginas corporativas. Isto pode ter sido feito num esforço para influenciar a opinião pública ou promover objectivos empresariais.


A OpenAI, uma empresa líder em IA, está a abordar preocupações morais e práticas sobre a sua potencial utilização indevida para evitar que os seus modelos sejam abusados.

Foto: Comentários em inglês gerados por esta rede e postados no Instagram. Tanto a postagem original quanto as respostas foram geradas por esta campanha. Relatório de ameaça da Intel

A pesquisa destaca que uma ampla gama de temas foi abordada pelas informações distribuídas por essas diferentes organizações. Esta ampla gama de assuntos destaca o quão adaptáveis ​​esses atores de ameaças foram em suas tentativas de usar os modelos de linguagem da OpenAI para seus próprios propósitos malignos.

A OpenAI, no entanto, afirma que, apesar dos seus melhores esforços, estas campanhas de influência secreta não ganharam muito com a utilização dos seus serviços para aumentar a popularidade ou o alcance. Ao avaliar o impacto das OIs, foi utilizada a “Escala de Breakout” da Brookings Institution. Nenhuma das 5 iniciativas recebeu uma pontuação superior a 2, o que significa que as suas atividades foram restritas a algumas plataformas e não penetraram significativamente em grupos online legítimos.


A OpenAI, uma empresa líder em IA, está a abordar preocupações morais e práticas sobre a sua potencial utilização indevida para evitar que os seus modelos sejam abusados.

Foto: Os pesquisadores identificaram o seguinte domínio como associado a esta campanha. Relatório de ameaça da Intel

Exame das estratégias do atacante

O artigo da OpenAI também identifica uma série de padrões significativos na forma como esses agentes de ameaças tentaram abusar dos modelos de IA. Para criar a aparência de participação nas redes sociais, todos utilizaram material gerado por IA, além de formatos mais convencionais, como cartas manuscritas ou memes reaproveitados. Além disso, alguns intervenientes demonstraram a adaptabilidade destas tecnologias utilizando IA para aumentar a sua produtividade através da análise de publicações nas redes sociais ou de resolução de problemas de código.

Curiosamente, a empresa destaca os benefícios que a IA oferece às defesas contra esses tipos de ataques. As medidas de segurança da OpenAI, que priorizaram a implantação ética de IA, têm causado consistentemente inconvenientes aos atores da ameaça, recusando-se a fornecer o material destrutivo pretendido. O estudo, por exemplo, detalha situações em que os modelos da empresa se recusaram a gerar os textos ou gráficos desejados, impedindo as tentativas dos operadores de espalhar desinformação ou propaganda.

Além disso, para melhorar as competências de reconhecimento e avaliação e acelerar investigações que poderiam durar semanas ou meses, a OpenAI construiu as suas próprias ferramentas baseadas em IA. A empresa mostrou como a IA pode fortalecer as salvaguardas contra o seu próprio uso malévolo, utilizando a tecnologia exata que pretende proteger.

A OpenAI enfatiza como a cooperação empresarial e o compartilhamento de inteligência de código aberto são cruciais para impedir essas operações clandestinas. Como resultado de anos de estudo de código aberto realizado pela comunidade de investigação em geral, a empresa partilhou indicadores de perigo precisos com os seus pares na indústria e reforçou a ideia de que o combate à desinformação e à manipulação online é um esforço de equipa que requer colaboração entre indústrias.

O futuro curso de segurança da OpenAI

Ao utilizar esta estratégia, a OpenAI procura reforçar o efeito das suas perturbações sobre estes malfeitores, restringindo a sua capacidade de utilizar a tecnologia de IA para atividades ilícitas. De acordo com o artigo, “A distribuição é importante: assim como as formas tradicionais de conteúdo, o material gerado pela IA deve ser distribuído para atingir um público”.

Resumindo, a investigação da OpenAI destaca que estas operações de influência furtiva ainda eram limitadas por variáveis ​​humanas, tais como erros do operador e defeitos de tomada de decisão, mesmo reconhecendo as ameaças potenciais apresentadas pelo abuso da tecnologia de IA. O documento inclui exemplos de operadores que publicam por engano sinais de rejeição dos modelos da OpenAI nos seus websites e redes sociais, expondo as falhas e restrições até mesmo nos esforços de desinformação mais avançados.

Por enquanto, o desmantelamento destas cinco campanhas de influência clandestinas pela OpenAI é uma prova da diligência e do compromisso da empresa em manter a integridade dos seus sistemas de inteligência artificial. No entanto, a luta contra a desinformação e a manipulação online está longe de terminar e, à medida que as tecnologias de IA se desenvolvem, haverá muito mais necessidade de cooperação, criatividade e preocupações éticas.

Isenção de responsabilidade

De acordo com as diretrizes do Trust Project, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometido com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.

Sobre o autor

Viktoriia é escritora sobre uma variedade de tópicos de tecnologia, incluindo Web3.0, IA e criptomoedas. Sua vasta experiência lhe permite escrever artigos perspicazes para um público mais amplo.

Mais artigos

cropped IMG 0369 asiafirstnews

Viktoriia é escritora sobre uma variedade de tópicos de tecnologia, incluindo Web3.0, IA e criptomoedas. Sua vasta experiência lhe permite escrever artigos perspicazes para um público mais amplo.

Mais artigos

source – mpost.io

Isenção de responsabilidade: Não somos consultores financeiros. Por favor, faça sua pesquisa antes de investir, nenhum jornalista da Asiafirstnews esteve envolvido na criação deste conteúdo. O grupo também não é responsável por este conteúdo.
Disclaimer: We are not financial advisors. Please do your research before investing, no Asiafirstnews journalists were involved in the creation of this content. The group is also not responsible for this content.

ARTIGOS RELACIONADOS

Mais popular