Desde o seu lançamento, o ChatGPT tem sido usado por membros de vários fóruns de crimes cibernéticos para desenvolver malware. Embora os termos e condições de uso do ChatGPT determinem que ele não deve ser usado para fins ilegais ou maliciosos, as pessoas ainda encontraram maneiras de personalizar suas consultas para contornar essas restrições e criar programas maliciosos.
Ransomware, por exemplo, é um tipo de malware criado usando o ChatGPT. Esse tipo de malware criptografa os arquivos de uma pessoa e exige que um resgate seja pago para descriptografá-los e acessá-los novamente. Os scripts Python que roubam informações após uma exploração também foram criados usando o ChatGPT.
Outro exemplo de malware criado usando o ChatGPT é uma macro que pode ser ocultada em um arquivo do Excel. Essa macro, quando ativada, executará um programa malicioso que pode roubar informações do computador de uma pessoa.
E-mails de phishing são outro tipo de malware desenvolvido com o ChatGPT. Esses e-mails parecem ser de uma fonte confiável, mas, quando abertos, direcionam o destinatário para um site malicioso que pode roubar suas informações pessoais.
Saudações do excitante novo reino da inteligência artificial. Ainda é muito cedo para dizer como isso pode impactar o futuro. No entanto, é seguro presumir que isso apenas alimentará a corrida armamentista entre defesas e atacantes.
Como apontam os pesquisadores
Embora o ChatGPT seja uma ferramenta poderosa, é importante estar ciente do perigo potencial que representa se cair em mãos erradas.
Leia mais sobre o ChatGPT:
source – mpost.io