A Microsoft e a OpenAI anunciaram na quarta-feira que os hackers estão utilizando grandes modelos de linguagem (LLMs), como o ChatGPT, para aprimorar seus métodos atuais de ataque cibernético. As empresas identificaram esforços de grupos apoiados pela Rússia, Coreia do Norte, Irão e China para utilizar ferramentas como o ChatGPT para investigar alvos e desenvolver tácticas de engenharia social.
Em parceria com a Microsoft Threat Intelligence, a OpenAI interveio para perturbar cinco atores afiliados ao Estado que pretendiam utilizar serviços de IA para facilitar operações cibernéticas maliciosas. (Leia também: Mark Zuckerberg, CEO da Meta, experimenta o Apple Vision Pro e compartilha vídeo no Instagram)
“Interrompemos dois atores de ameaças afiliados à China, conhecidos como Charcoal Typhoon e Salmon Typhoon; o ator de ameaça afiliado ao Irã conhecido como Crimson Sandstorm; o ator afiliado à Coreia do Norte conhecido como Emerald Sleet; e o ator afiliado à Rússia conhecido como Forest Blizzard”, disse a empresa dirigida por Sam Altman. (Leia também: ChatGPT da OpenAI está testando novo recurso de ‘memória’ com usuários selecionados)
As contas OpenAI identificadas associadas a esses atores foram encerradas. Esses malfeitores procuraram usar os serviços OpenAI para consultar informações de código aberto, traduzir, encontrar erros de codificação e executar tarefas básicas de codificação.
“Grupos de crimes cibernéticos, agentes de ameaças estatais e outros adversários estão explorando e testando diferentes tecnologias de IA à medida que surgem, na tentativa de compreender o valor potencial para suas operações e os controles de segurança que podem precisar contornar”, afirmou a Microsoft em comunicado. .
Embora os invasores continuem interessados nas capacidades atuais e nos controles de segurança das tecnologias de IA e de investigação, é importante manter esses riscos no contexto, disse a empresa.
“Como sempre, práticas de higiene como autenticação multifatorial (MFA) e defesas Zero Trust são essenciais porque os invasores podem usar ferramentas baseadas em IA para melhorar seus ataques cibernéticos existentes que dependem de engenharia social e da localização de dispositivos e contas não seguras”, observou a gigante da tecnologia. (Com entradas IANS)
source – zeenews.india.com