Se a luta contínua contra o ransomware não estava mantendo as equipes de segurança ocupadas, juntamente com os desafios de proteger a galáxia cada vez maior de dispositivos da Internet das Coisas, ou computação em nuvem, então há um novo desafio no horizonte – proteger contra a próxima onda de impostores digitais ou deepfakes.
Um vídeo deepfake usa inteligência artificial e técnicas de deep learning para produzir imagens falsas de pessoas ou eventos.
Um exemplo recente é quando o prefeito de Berlim pensamento ele estava tendo uma reunião online com o ex-campeão de boxe e atual prefeito de Kyiv, Vitali Klitschko.
VEJO: Estas são as ameaças de segurança cibernética de amanhã nas quais você deve pensar hoje
Mas o prefeito de Berlim ficou desconfiado quando ‘Klitschko’ começou a dizer algumas coisas muito estranhas relacionadas à invasão da Ucrânia, e quando a ligação foi interrompida, o gabinete do prefeito entrou em contato com o embaixador ucraniano em Berlim – para descobrir que, quem quer que estivessem falando para, não era o verdadeiro Klitschko.
O impostor também aparentemente falou com outros prefeitos europeus, mas em cada caso parece que eles estavam conversando com um deepfake, um vídeo falso gerado por IA que parece um humano real falando.
É um sinal de que os deepfakes estão ficando mais avançados e rápidos. Instâncias anteriores de vídeos deepfake que se tornaram virais geralmente apresentam sinais indicadores de que algo não é real, como edições não convincentes ou movimentos estranhos.
Todo esse episódio parece ter sido inventado por alguém puramente para causar problemas – mas os desenvolvimentos na tecnologia deepfake significam que não é difícil imaginá-la sendo explorada por criminosos cibernéticos, principalmente quando se trata de roubar dinheiro.
Como tal, este incidente também é um alerta: que os deepfakes estão possibilitando um novo conjunto de ameaças – não apenas para prefeitos, mas para todos nós.
Embora o ransomware possa gerar mais manchetes, o comprometimento de e-mail comercial (BEC) é a forma mais cara de crime cibernético atualmente. O FBI estima que isso custe bilhões de dólares às empresas todos os anos.
A forma mais comum de ataque BEC envolve criminosos cibernéticos explorando e-mails, invadindo contas pertencentes a chefes – ou falsificando suas contas de e-mail de maneira inteligente – e pedindo aos funcionários que autorizem grandes transações financeiras, que geralmente podem chegar a centenas de milhares de dólares.
Os e-mails afirmam que o dinheiro precisa ser enviado com urgência, talvez como parte de um negócio secreto que não pode ser divulgado a ninguém. É um truque clássico de engenharia social projetado para forçar a vítima a transferir dinheiro rapidamente e sem pedir confirmação de qualquer outra pessoa que possa revelar que é um pedido falso.
Quando alguém suspeitar, os criminosos cibernéticos pegaram o dinheiro, provavelmente fecharam a conta bancária que usaram para a transferência – e fugiram.
Os ataques BEC são bem-sucedidos, mas muitas pessoas podem continuar suspeitando de um e-mail de seu chefe que sai do nada e podem evitar ser vítimas falando com alguém para confirmar que não é real.
Mas se os criminosos cibernéticos pudessem usar um deepfake para fazer o pedido, poderia ser muito mais difícil para as vítimas negarem o pedido, porque eles acreditam que estão realmente falando com seu chefe na câmera.
Muitas empresas listam publicamente seu conselho de administração e alta administração em seu site. Muitas vezes, esses executivos de negócios de alto nível falaram em eventos ou na mídia, então é possível encontrar imagens deles falando.
VEJO: Protegendo a nuvem (recurso especial ZDNet)
Ao usar técnicas de aprendizado profundo baseadas em IA, os criminosos cibernéticos podem explorar essas informações públicas para criar um deepfake de um executivo de nível sênior, explorar vulnerabilidades de e-mail para solicitar uma videochamada com um funcionário e solicitar que ele faça a transação. Se a vítima acredita que está falando com seu CEO ou chefe, é improvável que negue o pedido.
Os golpistas já usaram inteligência artificial para convencer os funcionários de que estão falando com o chefe ao telefone. Adicionar o elemento de vídeo tornará ainda mais difícil detectar que eles estão realmente falando com fraudadores.
O FBI já alertou que criminosos cibernéticos estão usando deepfakes para se candidatar a empregos de suporte remoto de TI, funções que permitiriam acesso a informações pessoais confidenciais de funcionários e clientes que poderiam ser roubadas e exploradas.
A agência também alertou que os hackers usarão deepfakes e outros conteúdos gerados por IA para operações de influência estrangeira – indiscutivelmente é algo nesse sentido que visava os prefeitos.
Embora os avanços na tecnologia signifiquem que está se tornando mais difícil diferenciar o conteúdo deepfake do vídeo da vida real, o FBI emitiu conselhos sobre como identificar um deepfake, que inclui a distorção do vídeo, movimentos estranhos da cabeça e do tronco, além de problemas de sincronização entre o rosto e movimento dos lábios, e qualquer áudio associado.
Mas os deepfakes podem facilmente se tornar um novo vetor para crimes cibernéticos, e será uma verdadeira luta para conter a tendência. É perfeitamente possível que as organizações precisem criar um novo conjunto de regras sobre a autenticação de decisões tomadas em reuniões online. É também um desafio para a autenticidade do trabalho remoto – o que significa se você não consegue acreditar no que vê na tela?
Quanto mais as empresas e seus funcionários estiverem cientes dos riscos potenciais representados por deepfakes maliciosos agora, mais fácil será a proteção contra ataques – caso contrário, estaremos com problemas.
ABERTURA DE SEGUNDA-FEIRA DO ZDNET
O Monday Opener da ZDNet é a nossa visão de abertura da semana em tecnologia, escrita por membros de nossa equipe editorial.
ANTERIORMENTE NA ABERTURA DE SEGUNDA-FEIRA DO ZDNET:
source – www.zdnet.com